Disputa entre Anthropic y el gobierno de EE.UU.: el uso de la IA para fines militares

Disputa entre Anthropic y el gobierno de EE.UU.: el uso de la IA para fines militares

Hace poco compartí en mi cuenta de X un video en el que salía Alex Karp, el CEO de Palantir, una empresa muy grande de Silicon Valley que hace software con inteligencia artificial, contándole a los accionistas de la compañía lo bien que le había ido en cuanto a resultados económicos. Karp es un tipo bien excéntrico, sale en el video como si se acabara de despertar, todo despeinado, agitando los brazos. Pero la excentricidad, por supuesto, no tiene de por sí nada de malo. Lo que realmente me sorprendió del día es cómo reconocía con una sonrisa de oreja a oreja que su software servía para que el Gobierno de Estados Unidos matara gente, como si estuviera hablando de un juego de video donde estas muertes no son reales. Me hizo recordar cuando Steve Jobs presentaba un nuevo iPhone y se escuchaba al público aplaudirlo frenéticamente, solo que esta vez estábamos hablando de un producto que, por confesión jubilosa del propio CEO, se usa para matar gente. 

Yo entiendo perfectamente que los países necesitan sistemas de defensa y que alguien tiene que fabricarlos. Eso no me escandaliza. Si lo hace la frialdad, la indolencia y la alegría, incluso con la cual este individuo se refería a las muertes ocasionadas por su producto. Nuevamente, como si fuera un juego. De hecho, siempre me llamó la atención el nombre de esta compañía porque Palantir, recordarán los lectores de la trilogía del Señor de los Anillos, es la herramienta que usaba Sauron, el villano, para hacerles creer a quienes la usaban que podían ver más allá de lo evidente, cuando en realidad los estaba corrompiendo. 

Pues bien, traigo a colación este caso por otra noticia muy importante que he visto esta semana que va, más bien, en sentido contrario. Anthropic es otra compañía de inteligencia artificial muy importante de estos tiempos, que opera el modelo de lenguaje Claude, que es muy valorado. Anthropic es una corporación de beneficio público, es decir, una empresa constituida para poner su impacto en la sociedad al mismo nivel que el beneficio de sus accionistas, para que esto último no se dé en desmedro de lo primero. Si bien hace inteligencia artificial, su nombre evoca a quien está en el centro de su objetivo, porque Anthropic significa relacionado a la vida humana. 

Ok, fíjense. Lo que está pasando con Anthropic. Esta negoció en su momento un contrato multimillonario con el Departamento de Defensa del Gobierno de EE.UU. para que este pueda usar su modelo de inteligencia artificial, pero han surgido discrepancias porque la empresa quiere dejar establecido que este no se puede utilizar para montar un sistema de vigilancia masiva de los ciudadanos o para operar drones militares completamente autónomos. El Departamento de Defensa no está de acuerdo con esas condiciones y señala que debe poder usar la tecnología como mejor le parezca y que, si Anthropic no lo acepta, recurrirá a una ley que, según ellos, les habilita para expropiarla. 

Distinto al caso de Palantir, me parece aquí bien valiente que Anthropic y su CEO Dario Amodei se estén saliendo en defensa de sus principios de no convertir a la IA en una herramienta que potencialmente dañe al ser humano, enfrentándose nada menos que con el Departamento de Defensa del Gobierno de EE.UU. ¿Logrará mantenerse en su posición o terminará este último saliéndose con la suya? Pues, ya veremos, pero aquí tenemos un caso muy concreto de un dilema ético que las empresas de inteligencia artificial deben afrontar. Ojalá prime la preocupación por el ser humano y sus derechos.

Si quieres ver la Reflexión del día en video, la encuentras aquí abajo:

Read more