La inteligencia artificial es cada vez más imprescindible en diversos ámbitos estratégicos y operativos. Después de Meta, Anthropic anuncia su colaboración con varias divisiones del ejército de EE. UU., destacando el potencial de la IA para transformar operaciones de defensa e inteligencia. Esta iniciativa sitúa a Anthropic junto a otros gigantes tecnológicos que ya han iniciado proyectos similares. Este artículo explora esta alianza y sus implicaciones.
Una asociación estratégicamente significativa
La start-up Anthropic, conocida por sus modelos de IA Claude 3 y Claude 3.5formaliza una importante asociación con Palantir, empresa especializada en Big Data e históricamente vinculada a las agencias de inteligencia estadounidenses. Esta asociación tiene como objetivo ofrecer soluciones sofisticadas de inteligencia artificial a entornos clasificados del gobierno de EE. UU. La directora de Ventas de Anthropic, Kate Earle Jensen, expresa su orgullo de ayudar a mejorar las capacidades analíticas y la eficacia operativa de las agencias de defensa.
Esta colaboración aprovecha el poder de los modelos Claude a través de la plataforma de inteligencia artificial desarrollada por Palantir y alojada en Amazon Web Services (AWS). Con esta infraestructura, las entidades de defensa e inteligencia de Estados Unidos se beneficiarán de nuevas herramientas capaces de procesar y analizar rápidamente volúmenes masivos de datos complejos. Estas capacidades son cruciales para misiones gubernamentales críticas y brindan una ventaja tecnológica significativa.
Las condiciones de uso: una vaguedad jurídica
A pesar del anuncio de esta asociación, los términos exactos del uso por parte de Anthropic de las tecnologías de inteligencia artificial de Claude siguen sin estar claros. A diferencia de Meta, que prohíbe claramente el uso de su software de IA con fines militares o nucleares, Anthropic no ha establecido limitaciones tan precisas. Aunque la empresa tiene requisitos para casos de uso de alto riesgo, estas restricciones siguen centrándose principalmente en el uso legal, de salud, de seguros, financiero, laboral y académico o mediático. Los usos militares no se mencionan explícitamente en estas restricciones.
En junio pasado, una publicación de blog de Anthropic describió ajustes cuidadosamente calibrados a su política de uso general, permitiendo usos beneficiosos por parte de agencias gubernamentales seleccionadas. Sin embargo, estos ajustes no mencionan directamente las actividades militares. Sin embargo, sí permiten el uso de Claude para análisis de inteligencia extranjera legalmente autorizados, como contrarrestar la trata de personas, identificar influencias encubiertas o campañas de sabotaje y proporcionar advertencias previas sobre posibles actividades de personal militar. Esto abre una ventana diplomática para prevenir o disuadir ciertas acciones.
El auge de la IA en el sector militar
La asociación entre Anthropic y el ejército estadounidense es parte de una tendencia más amplia en la que los gigantes tecnológicos buscan integrar sus innovaciones en los arsenales militares. Antes de Anthropic, Microsoft ya había anunciado que su servicio Azure OpenAI había obtenido acreditaciones de alto nivel que le permitían ser utilizado por entidades estratégicas del ejército estadounidense. Estas alianzas muestran una adopción cada vez mayor de la IA generativa en los procesos operativos y de toma de decisiones de defensa.
OpenAI, fundada por ex alumnos de Anthropic, también está siguiendo este camino. La empresa eliminó recientemente avisos que prohibían el uso de sus tecnologías en contextos militares o de guerra. Consiguió un contrato con una empresa especializada en contratos digitales del gobierno de EE. UU., a pesar de que Forbes la acusó de prácticas anticompetitivas. Estos movimientos estratégicos allanan el camino para que otras empresas de IA consideren colaboraciones con el sector militar.