IA y ética en tiempos de guerra: un conflicto que marca el futuro de la gestión tecnológica | Tecnología


0



En enero de 2026, el secretario de Guerra de Estados Unidos, Pete Hegseth, emitió una directiva que exige que se permita el uso sin restricciones de contratos con empresas que desarrollen sistemas de inteligencia artificial (IA). A raíz de esta directiva, a finales de febrero del año pasado surgió un enfrentamiento entre la empresa de IA Anthropic y el Departamento de Guerra de Estados Unidos, que se volvió viral. En el centro de la controversia estaban dos líneas rojas trazadas por el CEO de Anthropic, Dario Amodei: negándose a permitir que su modelo de inteligencia artificial Claude se utilice para vigilancia masiva nacional o sistemas de armas totalmente autónomos.. El gobierno de EE. UU. exigió que se eliminaran estas líneas rojas, y cuando Amodei se negó, el gobierno de EE. UU. respondió designando a Anthropic como una “empresa de riesgo” para la seguridad nacional, una clasificación que anteriormente se había aplicado principalmente a adversarios extranjeros como Huawei. El presidente Trump también ordenó a las agencias federales que dejaran de usar productos antrópicosy el Pentágono prohibió a sus contratistas hacer negocios con la empresa.

Anthropic también está amenazado por la Ley de Producción de Defensa, una norma de la época de la Guerra Fría que otorga al presidente amplios poderes para obligar a la industria a apoyar la defensa nacional. La inconsistencia de esta medida es obvia, ya que, por un lado, el Pentágono considera a Anthropic una amenaza a la seguridad, y por el otro, amenaza con obligarlo a proporcionar su tecnología, lo que implica que la considera indispensable para la defensa nacional.

este conflicto Esto va mucho más allá de una disputa contractual.. Esto representa una lucha fundamental sobre quién establece límites éticos al uso militar de la IA en ausencia de una legislación clara y actualizada. A medida que los sistemas de inteligencia artificial se vuelven más poderosos y se integran más profundamente en las operaciones de seguridad nacional, se amplía la brecha entre las capacidades tecnológicas y el control democrático.

Esto pone de relieve una realidad muy preocupante: cuando los gobiernos desregulan para imponer límites a la IA (como está sucediendo en Estados Unidos), es ilusorio esperar que las grandes corporaciones tecnológicas se impongan límites voluntariamente si al hacerlo amenazan sus ganancias o su posición estratégica. De hecho, durante el último año Varias empresas tecnológicas importantes han incumplido sus obligaciones éticas anteriores y han adjudicado contratos militares muy lucrativos..

Google es un buen ejemplo. En 2018, tras las protestas de los empleados por su participación en el Proyecto Maven (un programa del Pentágono que utilizaba inteligencia artificial para analizar imágenes de drones), la empresa se retiró de Maven y estableció directrices éticas que excluían las aplicaciones militares y de vigilancia masiva. Sin embargo, en febrero de 2025, eliminó silenciosamente estas prohibiciones de su sitio web, justificando los cambios en la competencia geopolítica y las necesidades de seguridad nacional.

OpenAI siguió el mismo camino. En 2024, el país levantó su prohibición total del uso militar. En 2025, durante una reestructuración para convertirse en una organización con fines de lucro, la compañía eliminó la frase «IA segura» de su declaración de misión, comprometiéndose vagamente a «garantizar que la inteligencia artificial general beneficie a la humanidad» sin mencionar explícitamente la seguridad. No es difícil entender que eliminar este vínculo haría más difícil reclamar responsabilidad. Por su parte, xAI de Elon Musk fue aún más lejos y firmó un acuerdo que permite utilizar su modelo Grok con fines militares sin restricciones. Meta, por su parte, anunció en noviembre de 2024 que proporcionaría sus modelos Llama al gobierno de Estados Unidos para uso en seguridad nacional.

Incluso si la IA generativa segura fuera el verdadero objetivo de las grandes tecnologías, sería extremadamente difícil de lograr. La razón es la existencia de un problema técnico con las llamadas “alucinaciones” (respuestas falsas presentadas con total apariencia de coherencia). Es imposible eliminar por completo este problema, ya que es inherente a la arquitectura probabilística de estos sistemas. En un contexto militar, este problema no es insignificante, ya que puede dar lugar a errores en la identificación y selección de objetivos con consecuencias irreversibles. Algunos errores costarán vidas, otros costarán muchas vidas. Algunos de ellos pueden provocar una mayor escalada de los conflictos armados (el asesinato en masa de personas inocentes bien puede provocar esto). En el peor de los casos, una serie de escaladas provocadas por fallos generativos provocados por la inteligencia artificial podrían conducir a una guerra nuclear. Dada la situación actual en Medio Oriente, esta preocupación no es meramente académica.

En este contexto, es importante aclarar que Anthropic no se niega en absoluto a participar en aplicaciones militares, sino todo lo contrario. Dario Amodei, durante la Cumbre de IA de París en febrero de 2025, utilizó la amenaza de que gobiernos autoritarios establecieran una superioridad militar en inteligencia artificial como argumento para acelerar el liderazgo militar estadounidense. De hecho, Claude, su familia de modelos de IA, es utilizada activamente por las agencias de inteligencia y defensa de Estados Unidos. Por ejemplo, Claude fue utilizado como parte de una colaboración con Palantir, una empresa que gestiona contratos multimillonarios con el ejército estadounidense, en la operación militar estadounidense contra el ex presidente venezolano Nicolás Maduro.

Además, Anthropic anunció que abandonaría sus obligaciones de seguridad la misma semana del enfrentamiento con el Departamento de Guerra. Esto significa que está eliminando un elemento central de su política de desarrollo responsable, bajo el cual se comprometió a nunca entrenar un sistema de inteligencia artificial sin poder garantizar de antemano que sus medidas de seguridad son adecuadas. Si bien la compañía dice que no está renunciando a la seguridad, está reemplazando las garantías previas al despliegue con obligaciones posteriores al despliegue más flexibles, como la presentación de informes de riesgos. No es del todo alentador que una empresa que ha hecho de la seguridad un eje central de su identidad ahora adopte este cambio.

Todo esto puede sugerir una lectura más escéptica de la posición de Dario Amodei: la posibilidad de que estemos ante un caso ética del lavado. En otras palabras, articular públicamente líneas rojas éticas es, al menos en parte, una estrategia destinada a desdibujar el rostro de Anthropic en un mercado cada vez más competitivo y proteger su marca de reguladores e inversores. Desde esta perspectiva, rechazar ciertos usos no excluiría otros tipos de cooperación militar que son igualmente problemáticos, sino que más bien resultaría en restricciones morales cuidadosamente calibradas, es decir, lo suficientemente restrictivas para demostrar integridad pero lo suficientemente flexibles para dejar abierta la posibilidad de contratos estratégicos. Así que la cuestión no es sólo si existen líneas rojas, sino también cómo se definen, quién las controla y qué incentivos económicos las rodean.

El papel de OpenAI en este enfrentamiento entre Anthropic y el Pentágono ilustra perfectamente la dualidad que prevalece en Silicon Valley. Aunque Sam Altman ha confirmado líneas rojas similares a nivel nacional y ha expresado públicamente su apoyo a Dario Amodei, anunció un acuerdo con el Pentágono el mismo día en que se prohibió Anthropicmientras negociaba activamente sus contratos con el Departamento de Guerra. Esta simultaneidad reveló la aparente hipocresía de Altman: apoyo retórico a la resistencia ética, por un lado, y la consolidación y expansión de los contratos militares, por el otro. Los detalles del contrato no se han hecho públicos, lo que alimenta la percepción de que el gobierno recompensa la cooperación y castiga la resistencia.

En última instancia, este episodio plantea una cuestión central para las democracias: cómo equilibrar la seguridad, el poder tecnológico y los derechos fundamentales. Si las empresas no tienen límites éticos o los abandonan debido a presiones económicas o políticas, las salvaguardas desaparecen. Si el Estado utiliza su poder para poder utilizar la IA sin restricciones éticas o incluso violando las leyes nacionales e internacionales, como está sucediendo en Estados Unidos, la autonomía moral corporativa desaparece. Y si, además, las declaraciones éticas corporativas funcionan como herramientas de posicionamiento estratégico, a través de ética del lavadoEn lugar de compromisos verificables, el riesgo reside no sólo en la militarización de la IA, sino también en la trivialización del propio lenguaje ético.

El resultado de este conflicto determinará el futuro de la gobernanza democrática de la IA en el ámbito militar. Desafortunadamente, nada en los actuales incentivos políticos, económicos y geoestratégicos inspira optimismo sobre este futuro. Ante este escenario, quizás la única manera de ejercer una presión democrática real sea promover un boicot consciente y sostenido a la IA generativa que estas grandes corporaciones están utilizando, negándonos como ciudadanos y consumidores a legitimar y financiar con nuestro uso un modelo tecnológico que se ajusta cada vez más a la lógica y al poder militar sin contrapesos éticos e incluso eludiendo el Estado de derecho.

Es importante señalar que un boicot a gran escala tendría consecuencias macroeconómicas prácticamente insignificantes. Sin embargo, y este es el punto, esto tendrá consecuencias negativas para las corporaciones detrás de la IA generativa. Según un estudio de Gartner, el 80% del uso de la IA generativa se produce en aplicaciones no profesionales -entretenimiento o sustitución de los clásicos buscadores de información- y el 20% restante, las profesionales, prácticamente no tienen impacto en la economía. Artículo de Correo de Washington El 23 de febrero de 2026, citando un análisis de Goldman Sachs, señaló que las inversiones masivas en inteligencia artificial generativa en Estados Unidos han hecho una contribución “prácticamente nula” al crecimiento económico. A su vez, el premio Nobel de economía Daron Acemoglu en su artículo Macroeconomía de IA simple, publicado por la Oficina Nacional de Investigación Económica en mayo de 2024 estimó muy poco impacto de la IA generativa en la productividad.

Así que no hay justificaciones económicas que justifiquen mantenernos al margen. Cada uso, cada suscripción alimenta un modelo tecnológico que consolida el poder militar y corporativo sobre nuestras vidas. ¿Seguiremos siendo cómplices de nuestro silencio?

Rate this post

Like it? Share with your friends!

0

0 Comments

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *