Um confronto entre a empresa de inteligência artificial Anthropic e o governo dos Estados Unidos está a gerar debate no setor tecnológico global sobre os limites éticos da utilização de IA em contextos militares. O conflito surgiu depois da empresa recusar retirar determinadas restrições de segurança impostas ao modelo de IA Claude, que impedem o uso da tecnologia em aplicações como armas autónomas ou vigilância massiva de cidadãos.
Segundo várias fontes citadas pela imprensa internacional, o Departamento de Defesa dos Estados Unidos quer que os sistemas de IA utilizados em contratos governamentais possam ser aplicados para "todos os fins legais", incluindo operações militares sensíveis, recolha de informação e apoio a operações de combate. A Anthropic recusou aceitar estas condições, defendendo que a tecnologia deve manter salvaguardas claras para evitar aplicações que possam facilitar violência autónoma ou monitorização massiva de cidadãos.
O impasse levou o governo norte-americano a considerar medidas mais duras. O Pentágono pondera cancelar ou limitar contratos avaliados em cerca de 200 milhões de dólares com a empresa, enquanto alguns responsáveis defendem mesmo a sua classificação como risco na cadeia de fornecimento tecnológica do setor da defesa.
De acordo com informações divulgadas pela imprensa, a administração norte-americana acabou por suspender a cooperação institucional com a empresa, impedindo que fornecedores ligados ao setor da defesa utilizem os seus modelos de IA em projetos militares.
O CEO da Anthropic, Dario Amodei, já veio dizer que considera a decisão injustificada e poderá contestá-la judicialmente. A disputa reflete uma tensão crescente entre agências de segurança nacional que pretendem integrar IA em operações militares e empresas tecnológicas que procuram impor limites éticos ao uso dos seus sistemas.
A Anthropic tem procurado posicionar-se como defensora de uma abordagem de IA segura e responsável, recusando explicitamente apoiar aplicações como armas autónomas ou sistemas de vigilância massiva. Este posicionamento tem gerado apoio em parte da comunidade tecnológica, mas também críticas de responsáveis políticos que consideram que tais restrições podem comprometer o desenvolvimento de capacidades estratégicas em IA.
Os analistas consideram que o caso poderá tornar-se um precedente relevante para o futuro da IA, numa altura em que governos de várias regiões - incluindo Estados Unidos, China e Europa - procuram integrar rapidamente esta tecnologia em infraestruturas críticas e sistemas militares. A evolução deste confronto poderá influenciar não apenas a relação entre empresas de IA e governos, mas também a forma como as regras éticas e legais para a utilização de inteligência artificial são definidas à escala global.
Em operação que seria histórica no setor, criando um mega-operador