Já se passaram pouco mais de duas semanas desde que a OpenAI firmou um acordo polêmico que permite ao Pentágono utilizar sua inteligência artificial em ambientes classificados. No entanto, ainda pairam dúvidas sobre o que, de fato, esse acordo implica. Sam Altman afirmou que o exército não pode empregar a tecnologia da OpenAI para desenvolver armas autônomas. Mas a questão que fica é: esse acordo realmente obriga o exército a seguir suas próprias diretrizes, que são bastante flexíveis, em relação a essas armas? Além disso, a principal alegação da OpenAI, de que o acordo iria barrar o uso de sua tecnologia para vigilância interna, também parece bastante questionável.
As motivações da OpenAI não estão claras. Não é a primeira gigante da tecnologia a se envolver em contratos militares, mesmo após prometer que nunca faria isso. A rapidez com que essa mudança ocorreu é realmente impressionante. Será que tudo se resume a dinheiro? Afinal, a OpenAI está investindo consideravelmente em treinamento de IA e em busca de novas fontes de receita, incluindo anúncios. Por outro lado, talvez Altman realmente acredite na visão ideológica que frequentemente menciona: que democracias liberais (e seus exércitos) devem ter acesso à IA mais avançada para competir com a China.
O que realmente importa agora é o que vem a seguir. A OpenAI parece estar confortável em operar no cerne do combate, especialmente enquanto os EUA intensificam seus ataques ao Irã, com a IA assumindo um papel mais significativo do que nunca. A grande pergunta é: onde exatamente a tecnologia da OpenAI poderá ser utilizada nesse contexto? E quais aplicações seus clientes e colaboradores estarão dispostos a aceitar?
Embora o acordo com o Pentágono já esteja em vigor, ainda não está claro quando a tecnologia da OpenAI estará pronta para ser integrada em ambientes classificados. Isso porque ela precisa ser adaptada a outras ferramentas já em uso pelo exército. A pressão para acelerar esse processo é palpável, especialmente devido à controvérsia em torno das tecnologias utilizadas até agora. E se o conflito no Irã continuar quando a tecnologia da OpenAI estiver implementada, para quais fins ela seria utilizada? Uma conversa recente com um oficial de defesa sugere que um analista humano poderia fornecer uma lista de alvos potenciais ao modelo de IA, solicitando que este analisasse as informações e priorizasse quais atacar primeiro. O modelo consideraria dados logísticos, como a localização de aviões ou suprimentos.
Um humano ainda precisaria verificar manualmente essas saídas, mas isso levanta uma questão pertinente: se uma pessoa está revisando os resultados da IA, como isso realmente acelera as decisões sobre alvos e ataques? Nos últimos anos, o exército tem utilizado outro sistema de IA, conhecido como Maven, que é capaz de analisar automaticamente imagens de drones para identificar possíveis alvos. É provável que os modelos da OpenAI, como o Claude da Anthropic, ofereçam uma interface mais interativa, permitindo que os usuários solicitem análises de inteligência e recomendações sobre quais alvos atacar primeiro.
É difícil subestimar a complexidade e as implicações dessas tecnologias.