A inteligência artificial se tornou um dos maiores problemas da tecnologia em 2023, impulsionada pela ascensão da IA generativa e de aplicativos como o ChatGPT.
Desde que a OpenAI lançou o ChatGPT ao público no final de 2022, a consciência da tecnologia e do seu potencial explodiu – desde ser discutida em parlamentos de todo o mundo até ser usada para escrever segmentos de notícias televisivas.
O interesse público em modelos generativos de IA também levou muitas das maiores empresas de tecnologia do mundo a introduzir os seus próprios chatbots, ou a falar mais publicamente sobre como planeiam usar a IA no futuro, enquanto os reguladores aumentaram o debate sobre como os países podem e devem abordar as oportunidades e riscos potenciais da IA.
Em 12 meses, as conversas sobre IA passaram de preocupações sobre como ela poderia ser explorada por crianças em idade escolar para fazerem seus deveres de casa, até o primeiro-ministro Rishi Sunak sediar a primeira cúpula de segurança de IA de nações e empresas de tecnologia para discutir como evitar que a IA supere humanidade ou mesmo representando uma ameaça existencial.
Resumindo, 2023 foi o ano da IA.
Assim como a própria tecnologia, os lançamentos de produtos em torno da IA ocorreram rapidamente nos últimos 12 meses, com Google, Microsoft e Amazon seguindo a OpenAI ao anunciar produtos de IA generativos após o sucesso do ChatGPT.
O Google revelou o Bard, um aplicativo que teria vantagem sobre qualquer um de seus rivais no novo espaço de chatbot de IA porque era alimentado pelos dados do mecanismo de busca líder do setor do Google, e estabeleceu o ajudante virtual do Google Assistant, encontrado em seus smartphones e alto-falantes inteligentes.
Numa nota semelhante, a Amazon aproveitou o seu grande lançamento de produto do ano para falar sobre como estava a usar a IA para fazer com que a sua assistente virtual Alexa soasse e respondesse de uma forma mais humana – capaz de compreender o contexto e reagir a perguntas de acompanhamento de forma mais integrada. .
E a Microsoft iniciou o lançamento do seu novo Copilot, que combina IA generativa com um assistente virtual no Windows, permitindo aos usuários pedir ajuda em qualquer tarefa que estejam realizando, desde escrever um relatório até organizar as janelas abertas na tela.
Em outro lugar, Elon Musk anunciou a criação da xAI, uma nova start-up focada em trabalhar na área de inteligência artificial.
O primeiro produto dessa startup já apareceu na forma de Grok, uma IA conversacional disponível para assinantes pagantes do X, de propriedade de Musk, anteriormente conhecido como Twitter.
Esses desenvolvimentos em grande escala no sector não poderiam ser ignorados pelos governos e reguladores, e o debate em torno da regulamentação do sector da IA também se intensificou durante o ano.
Em Março, o Governo publicou o seu Livro Branco sobre IA, que propunha utilizar os reguladores existentes em diferentes sectores para realizar a governação da IA, em vez de atribuir a responsabilidade a um novo regulador único.
Mas ainda não foi apresentado nenhum projeto de lei sobre IA, um atraso que foi criticado por alguns especialistas, que alertaram que corre o risco de permitir que a tecnologia não seja controlada, no momento em que a utilização de ferramentas de IA está a explodir.
O Governo afirmou que não quer apressar-se a legislar enquanto o mundo ainda está a compreender o potencial da IA, e afirma que a sua abordagem é mais ágil e permite a inovação.
Em contrapartida, no início deste mês, a UE acordou o seu próprio conjunto de regras em torno da supervisão da IA, embora seja pouco provável que se tornem lei antes de 2025, o que dará aos reguladores o poder de examinar minuciosamente os modelos de IA e receber detalhes sobre como os modelos são treinados.
Mas o desejo de Sunak de que o Reino Unido seja um ator-chave na regulamentação da IA foi destacado em novembro, quando ele recebeu líderes mundiais e figuras da indústria em Bletchley Park para a primeira Cimeira de Segurança da IA do mundo.
Sunak e a secretária de tecnologia, Michelle Donelan, aproveitaram a cimeira de dois dias para discutir as ameaças da chamada “IA de fronteira”, aspectos de ponta da tecnologia que, nas mãos erradas, podem ser utilizados para fins nefastos.
A cimeira viu todos os participantes internacionais, incluindo os EUA e a China, assinarem a Declaração de Bletchley, que reconheceu os riscos da IA e se comprometeu a desenvolver modelos seguros e responsáveis.
E o primeiro-ministro anunciou o lançamento do AI Safety Institute do Reino Unido, juntamente com um acordo voluntário com empresas líderes, incluindo OpenAI e Google DeepMind, para permitir que o instituto teste novos modelos de IA antes de serem lançados.
Embora não seja um acordo vinculativo, lançou as bases para que a segurança da IA se torne uma parte cada vez mais proeminente do debate no futuro.
Em outros lugares, a indústria de IA testemunhou uma grande novela de diretoria no final do ano, quando o fabricante do ChatGPT, OpenAI, demitiu sensacionalmente o presidente-executivo Sam Altman no final de novembro.
Mas provocou reação entre os funcionários, quase todos os quais assinaram uma carta prometendo deixar a empresa e se juntar a Altman em uma proposta de nova equipe de pesquisa de IA na Microsoft, caso ele não fosse reintegrado.
Em poucos dias Altman estava de volta ao comando da OpenAI e o conselho havia sido reconfigurado, com o raciocínio por trás da saga ainda obscuro.
Desde então, a Autoridade de Concorrência e Mercados (CMA) do Reino Unido pediu opiniões de dentro da indústria sobre a parceria da Microsoft com a OpenAI, que viu a gigante tecnológica investir milhares de milhões na empresa de IA e ter um observador no seu conselho.
A CMA disse que pretendia analisar a parceria em parte por causa da saga Altman.
Outro sinal de que no próximo ano é provável que o escrutínio do sector da IA continue a intensificar-se.