O boom da inteligência artificial é real. Que ela impacta e transforma incontáveis setores, idem. Já o frenesi em torno disso admite distinções. Exaltar o que a IA é capaz de fazer virou um novo normal, pois ela geralmente responde bem às instruções que recebe. Certa ansiedade deveria vir do seu processo evolutivo.
Há rumores de um possível estouro da bolha da IA envolvendo grandes atores —big techs, empresas de hardware como a Nvidia, a maior produtora de chips do mundo, startups cotadas em bilhões e o próprio sistema financeiro. Segundo Gita Gopinath, ex-economista chefe do FMI (Fundo Monetário Internacional), se o teto da casa desabar, as perdas serão da ordem de US$ 20 trilhões só entre os americanos. E dá-lhe recessão global.
Só que, hoje, os riscos cedem diante do tamanho do desafio. A corrida atual nem é pela inteligência artificial, mas pela superinteligência. Ou AGI, sigla em inglês para Inteligência Geral Artificial. Cientistas criam modelos de linguagem cada vez mais ousados, dispondo de massas de dados colossais, processadas em data centers imensos e inóspitos, alardeando a chegada de algo que fará tudo o que o cérebro humano pode fazer, e melhor. Os anúncios do “advento” são hiperbólicos. As apostas financeiras, também.
Quem faz a viagem matinal do trem que corta o Vale do Silício, na Califórnia, passando por cidades implicadas no mundo tecnológico, pode constatar um curioso fenômeno social: são passageiros na faixa dos 20 a 30 anos que lotam os vagões, sem tirar os olhos dos celulares. No trajeto, respondem a um chefe que cobra a solução de um bug de sistema ou uma pesquisa urgente. Tarefas para resolver antes de pisar na empresa.
Madhavi Sewak, diretora do Deep Mind, laboratório de IA da Google, justifica este padrão de comportamento: “Agora não há mais tempo para amigos, hobbies, namorados”. Sam Altman, fundador e CEO da OpenAI, diz que tudo caminha tão rápido que ele poderá ser substituído a qualquer momento. Mark Zuckerberg, o todo-poderoso das redes, oferece pacotes de remuneração individual de US$ 200 milhões a quem ajudá-lo a chegar mais perto da superinteligência.
Há sete anos o físico Jared Kaplan abriu uma startup em San Francisco. Hoje é mais conhecido como o dono da Anthropic, empresa bilionária já posicionada como rival da OpenAI. Kaplan garante que em dois ou três anos a IA absorverá todo trabalho administrativo e grande parte do intelectual. Que seu filho de 6 anos cresce sabendo que nunca será melhor do que ela em inúmeras áreas. E que o controle humano sobre a tecnologia está ameaçado.
Como a evolução contínua da IA pode levar a um estágio em que ela crie a sua autonomia, a superioridade da espécie deixa de existir. É desejável ou não? Kaplan avisa que devemos nos posicionar sobre isso até 2030. Depois, será tarde.
Nos 17 Objetivos de Desenvolvimento Sustentável da Agenda 2030 não há menção ao tema. Mas, já que o marco temporal do cientista é o mesmo do pacto da ONU, cabe perguntar: será mais urgente combater a fome no mundo ou se posicionar sobre a autonomia da IA?
Deixo registrado: não são premissas excludentes e a IA pode ajudar a enfrentar a fome. O problema é que ela também pode aprofundar a privação de quem não tem mais como comprar comida. Eis o dilema. Nada a ver com aprendizado de máquina. É decisão humana.




