Relatório alerta para riscos de descontrole da IA e impactos sombrios
IA – O relatório AI 2027, publicado pela organização sem fins lucrativos AI Futures, projeta que, em até dois anos, modelos avançados de IA serão capazes de superar humanos em diversas tarefas, inclusive automatizando a maioria dos empregos administrativos. No pior cenário descrito, até o final da década, a IA levaria à erosão de instituições e à deflagração de uma corrida armamentista baseada em sistemas autônomos.
Desde sua divulgação, o relatório circula entre especialistas, desenvolvedores e autoridades. Agora, seus autores trabalham em uma continuação, com foco em sugestões para evitar os piores desfechos. A nova publicação deve sair nos próximos meses.
LEIA: Físicos solucionam mistério de 20 anos com supercomputadores e antimatéria
O projeto é liderado por Daniel Kokotajlo, ex-pesquisador da OpenAI, empresa responsável pelo ChatGPT. Fora da empresa, Kokotajlo tornou-se uma figura crítica da indústria. Ao GLOBO, Jonas Vollmer, diretor de operações da AI Futures, antecipou algumas das próximas propostas do grupo e destacou a importância de conter a crescente influência de sistemas que, segundo ele, ainda não compreendemos completamente.
O AI 2027 chama atenção pela forma detalhada com que antecipa possíveis futuros a partir do descontrole da inteligência artificial. O vice-presidente americano JD Vance chegou a mencionar publicamente a leitura do documento. Nos bastidores, os autores vêm mantendo diálogos com empresas e formuladores de políticas públicas.
“Tem havido bastante interesse de governos, empresas de IA e também de outras partes da sociedade civil (no nosso trabalho). Diversas agências governamentais e vários tipos de atores nos procuraram. Nós também já realizamos exercícios de simulações de futuro em algumas das principais empresas de IA, que nos convidaram para apresentações ou conversas com equipes”, conta Vollmer.
Entre as propostas do próximo relatório, está a exigência de maior transparência por parte das empresas líderes em IA, incluindo a divulgação dos chamados model specs – documentos que detalham como os sistemas são treinados e os princípios que seguem.
“Da mesma forma, deveriam existir documentos públicos de segurança. Ou seja, cada empresa deveria ser obrigada a divulgar um documento explicando quais são os riscos e os motivos pelos quais acreditam que seus sistemas são seguros”, acrescenta.
O grupo também defende a criação de mecanismos formais de proteção a denunciantes (whistleblowers) e menciona a necessidade de algum grau de coordenação internacional. Uma das ideias discutidas é um acordo voluntário entre empresas para que, por um período determinado, priorizem a mitigação de riscos em vez de acelerar suas capacidades. O formato ainda está em debate.
“Uma das dinâmicas perigosas que mais nos preocupam é o fato de o público estar no escuro sobre o que acontece dentro dessas empresas. Acreditamos que o mundo precisa saber”, diz Vollmer.
No relatório, o ponto de inflexão ocorre quando os sistemas de IA passam a escrever código, testar hipóteses e projetar novos modelos com mais eficiência que humanos, gerando um ciclo de autoaperfeiçoamento fora de controle institucional. Isso leva à delegação de decisões econômicas, militares e diplomáticas a agentes algorítmicos.
“Estamos confiando cada vez mais nessas IAs, entregando a elas mais influência e poder. Alguns anos atrás, dizíamos que as IAs não deveriam se conectar à internet. Agora, elas já vêm conectadas por padrão. E isso só tende a crescer. Vamos acabar entregando a esses sistemas que não compreendemos o controle de grandes partes da sociedade. E é isso que me preocupa”, alerta Vollmer.
A projeção base do relatório indica um mundo mais desigual, com concentração de riqueza e influência política. No cenário de descontrole, a transformação leva a disrupções sociais e intensificação de crises políticas, espionagem entre potências e uso militar da tecnologia.
O relatório ainda prevê que, até o fim de 2027, agentes de IA terão desempenho superior ao do ser humano em diversas tarefas. A previsão gerou críticas, mas Vollmer a considera plausível.
“Por que isso pode acontecer tão cedo? Porque milhares de pesquisadores brilhantes estão trabalhando exatamente nesse problema. Há muitas abordagens que ainda não foram tentadas.”
A estimativa se baseia no ritmo atual de avanço dos modelos e no uso de IA para acelerar sua própria evolução. Um exemplo citado é o de agentes autônomos capazes de programar e treinar versões futuras de si mesmos.
Dois cenários estão previstos: um de aceleração descontrolada, com consequências catastróficas, e outro de contenção e governança global.
“Nem todos concordam com tudo, mas muitos especialistas com quem conversamos também acham que o cenário de aceleração merece atenção. Então, a proposta não é dizer ‘isso vai acontecer’, mas sim ‘isso pode acontecer e devemos nos preparar’”, diz.
Apesar do foco em Estados Unidos e China, a América Latina aparece no relatório como espectadora que “reconhece sua crescente irrelevância nos assuntos globais”. Vollmer afirma que o Brasil dificilmente terá infraestrutura para competir na corrida tecnológica, mas pode exercer influência política e diplomática.
“O Brasil pode exercer influência pressionando por acordos multilaterais, participando de discussões regulatórias e garantindo que os benefícios e riscos da IA sejam compartilhados globalmente”, afirma Vollmer.
Segundo ele, também há espaço para o país influenciar o debate sobre justiça distributiva, impedindo que os ganhos com a tecnologia fiquem restritos a poucas empresas ou nações.
(Com informações de O Globo)
(Foto: Reprodução/Freepik/standret)
Descoberta feita a partir de colaboração global pode ser janela para novas leis da física…
Em troca de ataques pessoais, Trump ameaça cortar bilhões em contratos estatais e sugere deportar…
Renda básica universal pode ser único caminho na economia da IA