Creo que la mayoría de la gente subestima lo radicales que podrían ser las ventajas de la IA, así como lo graves que podrían ser sus riesgos.
Dario Amodei CEO, Anthropic
El objetivo de este artículo es analizar esta disputa en el contexto de la sostenibilidad
empresarial. Pero para entenderla en necesario una breve
descripción de la empresa.
¿Qué es
Anthropic?
Anthropic es una
empresa líder en Inteligencia Artificial, IA, fundada en el 2021 por una docena
de ex empleados de OpenAI, liderados por dos hermanos Dario y Daniela
Amodei. Dejaron OpenAI por desavenencias
fundamentales con respecto a la dirección de la empresa, específicamente en lo
que respecta a los usos de la tecnología, por un cambio en esta empresa hacia
la priorización de la comercialización y la rápida implementación de productos
por sobre la seguridad de la IA.
Fieles a sus
convicciones, la empresa fue creada como una empresa de beneficio e interés
colectivo, BIC, (Public Benefit Corporation, ¡que no es una B-corp!)
de acuerdo con la legislación del estado de California. Su propósito es “el desarrollo y mantenimiento de la Inteligencia
Artificial avanzada para el beneficio a largo plazo de la humanidad".
[i]
Ello los
obliga a, entre otras cosas, a una mayor transparencia, incluyendo la rendición
de cuentas sobre los beneficios sociales y una evaluación independiente de su
rendimiento. Si bien los
directores están protegidos de demandas por no perseguir la maximización de
beneficios financieros sí son responsables, legalmente, por lograr los
beneficios duales. Tiene además un
“fideicomiso de beneficios de largo plazo”, gestionado por expertos en la ética
de la IA y otros expertos, que eligen la mayoría de los consejeros de la
empresa. Está respaldada financieramente por Amazon y Google.
La empresa es
privada, no cotiza en bolsa, y tiene un valor estimado de mercado, a febrero del
2026, de US$ 380 000 millones.
La disputa.
Anthropic venía
prestando servicios al Ministerio, pero este ahora pretendía utilizar su
tecnología, además, para la vigilancia masiva de estadounidenses y en el
desarrollo y operación con armas totalmente autónomas. El Ministerio de Guerra
alega que puede usar la tecnología en todas actividades que sean legales y que “un
contratista no puede dictar como la usa”.
Parte del problema
es que el gobierno de EE. UU. ha optado por decidir lo que es legal, al
margen de las leyes nacionales e internacionales y de los dictámenes de los
tribunales. Pero ese no es quid de la cuestión, para
Anthropic es cuestión de principios.
No todo lo que es legal es ético o va en “beneficio a largo plazo de la
humanidad”. El lector posiblemente
estará al tanto de algunas acciones del gobierno que tienen dudosa legalidad.
Ante la firme posición
de Anthropic, el Ministerio ha optado por terminar el contrato de US$ 200
millones, y lo que es más grave, declarar a la empresa como un “riesgo en al
cadena de valor” de los que le suministran bienes y servicios, por lo estos no
podrán usar su tecnología en estos suministros. Es un hecho sin
precedentes. Anthropic recurrirá a los tribunales esta designación, pero para
cuando estos tribunales, en apelación tras apelación, dictaminen el mal ya
estará hecho.
Y para más saña,
el presidente ha emitido una orden de que ninguna dependencia del gobierno
federal puede usar la tecnología de Anthropic. Los ha calificado de “izquierdistas
radicales”, politizando la ética. Con
esto y con la designación arriba, el impacto sobre Anthropic será substancial.
La posición de
Anthropic ha sido posible gracias a la ética de sus dirigentes, su visión de la
designación de empresa de beneficio e impacto colectivo y el hecho de que es
una empresa privada que no cotiza en bolsa, por lo que no tiene las presiones mercantilistas
del mercado.
Y OpenAI
aprovechó para ocupar el espacio.
Open AI, el
principal competidor de Anthropic, cuyos dirigentes son enemigos declarados, en
principio apoyó su posición sobre el uso de la tecnología, pero al terminar la
relación entre Anthropic y el Ministerio, OpenAI cerró un acuerdo con éste para
la utilización de su tecnología para “fines legales”, acordando que su tecnología
incluiría seguridades de que no se utilizaría para los fines en disputa. Aunque
es de destacar que su tecnología no está todavía en condiciones de suplir la de
Anthropic, por lo que el Ministerio tendrá, entretanto, un gran vacío.
Una posición muy oportunista
y mercantilista de OpenAI. A ver si podrá determinar cómo se usa su tecnología
y si todos esos usos son legales, a nivel nacional e internacional. Esto respalda la razón por la cual los
fundadores de Anthropic se separaron de OpenAI.
¿Y si el
Ministerio hace lo que quiera? (“un contratista no puede determinar como la
usa”) ¿Qué recurso tendrá OpenAI? No, no son ingenuos, son maximizadores de beneficios.
¿Y los demás?
Aprovechando esta
situación, varias empresa han ofrecido sus servicios, incondicionalmente,
incluyendo Google y xAI, la empresa de Elon Musk. Pero la tecnología de estas y de OpenAI no
están listas para substituir a Anthropic, y por ahora son inferiores.
Afortunadamente
no todo está perdido, ya que 75 empleados de OpenAI y 450 de Google han
expresado públicamente sus preocupaciones sobre esos usos de la tecnología.
En una carta abierta, los de OpenAI dijeron:
“Intentan dividir a cada compañía con el miedo de que la otra ceda. Esa estrategia solo funciona si ninguno de
nosotros conoce la postura del otro. Esta carta quiere fomentar la comprensión
y la solidaridad compartidas ante la presión del Departamento de Guerra”.
Rentabilidad sobre Responsabilidad.
La posición de
Anthropic es laudable, no solo por este caso, sino en general. Son fieles a sus principios y plenamente conscientes
de los riesgos que la utilización de la tecnología IA conlleva y pretenden
minimizar aquellos que estén a su alcance. ¡Un buen ejemplo! ¡Ojalá tuviéramos
más!
P.S. 1 Hurra por
Anthropic, aunque estoy muy preocupado porque el éxito y alcance que está teniendo
atenta contra los empleos de tres de mis hijos.
P.S 2 Una externalidad
positiva: Estimulará la consideración de los riesgos de la IA.
No hay comentarios:
Publicar un comentario