sábado, 28 de febrero de 2026

Principios por encima del negocio: HURRA POR ANTHROPIC


Creo que la mayoría de la gente subestima lo radicales que podrían ser las ventajas de la IA, así como lo graves que podrían ser sus riesgos.

Dario Amodei CEO, Anthropic

Muy posiblemente el lector se habrá enterado de la “guerra” entre el Ministerio de Guerra de EE. UU y la empresa de Inteligencia Artificial Anthropic.  Este Ministerio ha decidido suspender el uso de su tecnología y prohibirla a sus suplidores, por diferencias en el impacto sobre la humanidad de algunos de sus usos.

El objetivo de este artículo es analizar esta disputa en el contexto de la sostenibilidad empresarial. Pero para entenderla en necesario una breve descripción de la empresa.

¿Qué es Anthropic?

Anthropic es una empresa líder en Inteligencia Artificial, IA, fundada en el 2021 por una docena de ex empleados de OpenAI, liderados por dos hermanos Dario y Daniela Amodei.  Dejaron OpenAI por desavenencias fundamentales con respecto a la dirección de la empresa, específicamente en lo que respecta a los usos de la tecnología, por un cambio en esta empresa hacia la priorización de la comercialización y la rápida implementación de productos por sobre la seguridad de la IA.

Fieles a sus convicciones, la empresa fue creada como una empresa de beneficio e interés colectivo, BIC, (Public Benefit Corporation, ¡que no es una B-corp!) de acuerdo con la legislación del estado de California. Su propósito es “el desarrollo y mantenimiento de la Inteligencia Artificial avanzada para el beneficio a largo plazo de la humanidad". [i]

Ello los obliga a, entre otras cosas, a una mayor transparencia, incluyendo la rendición de cuentas sobre los beneficios sociales y una evaluación independiente de su rendimiento. Si bien los directores están protegidos de demandas por no perseguir la maximización de beneficios financieros sí son responsables, legalmente, por lograr los beneficios duales.  Tiene además un “fideicomiso de beneficios de largo plazo”, gestionado por expertos en la ética de la IA y otros expertos, que eligen la mayoría de los consejeros de la empresa. Está respaldada financieramente por Amazon y Google.

La empresa es privada, no cotiza en bolsa, y tiene un valor estimado de mercado, a febrero del 2026, de US$ 380 000 millones.

La disputa.

Anthropic venía prestando servicios al Ministerio, pero este ahora pretendía utilizar su tecnología, además, para la vigilancia masiva de estadounidenses y en el desarrollo y operación con armas totalmente autónomas. El Ministerio de Guerra alega que puede usar la tecnología en todas actividades que sean legales y que “un contratista no puede dictar como la usa”. 

Parte del problema es que el gobierno de EE. UU. ha optado por decidir lo que es legal, al margen de las leyes nacionales e internacionales y de los dictámenes de los tribunales. Pero ese no es quid de la cuestión, para Anthropic es cuestión de principios. No todo lo que es legal es ético o va en “beneficio a largo plazo de la humanidad”.  El lector posiblemente estará al tanto de algunas acciones del gobierno que tienen dudosa legalidad.

Ante la firme posición de Anthropic, el Ministerio ha optado por terminar el contrato de US$ 200 millones, y lo que es más grave, declarar a la empresa como un “riesgo en al cadena de valor” de los que le suministran bienes y servicios, por lo estos no podrán usar su tecnología en estos suministros. Es un hecho sin precedentes. Anthropic recurrirá a los tribunales esta designación, pero para cuando estos tribunales, en apelación tras apelación, dictaminen el mal ya estará hecho.

Y para más saña, el presidente ha emitido una orden de que ninguna dependencia del gobierno federal puede usar la tecnología de Anthropic. Los ha calificado de “izquierdistas radicales”, politizando la ética.  Con esto y con la designación arriba, el impacto sobre Anthropic será substancial.

La posición de Anthropic ha sido posible gracias a la ética de sus dirigentes, su visión de la designación de empresa de beneficio e impacto colectivo y el hecho de que es una empresa privada que no cotiza en bolsa, por lo que no tiene las presiones mercantilistas del mercado.

Y OpenAI aprovechó para ocupar el espacio.

Open AI, el principal competidor de Anthropic, cuyos dirigentes son enemigos declarados, en principio apoyó su posición sobre el uso de la tecnología, pero al terminar la relación entre Anthropic y el Ministerio, OpenAI cerró un acuerdo con éste para la utilización de su tecnología para “fines legales”, acordando que su tecnología incluiría seguridades de que no se utilizaría para los fines en disputa. Aunque es de destacar que su tecnología no está todavía en condiciones de suplir la de Anthropic, por lo que el Ministerio tendrá, entretanto, un gran vacío.

Una posición muy oportunista y mercantilista de OpenAI. A ver si podrá determinar cómo se usa su tecnología y si todos esos usos son legales, a nivel nacional e internacional.  Esto respalda la razón por la cual los fundadores de Anthropic se separaron de OpenAI.

¿Y si el Ministerio hace lo que quiera? (“un contratista no puede determinar como la usa”) ¿Qué recurso tendrá OpenAI? No, no son ingenuos, son maximizadores de beneficios.

¿Y los demás?

Aprovechando esta situación, varias empresa han ofrecido sus servicios, incondicionalmente, incluyendo Google y xAI, la empresa de Elon Musk.  Pero la tecnología de estas y de OpenAI no están listas para substituir a Anthropic, y por ahora son inferiores.

Afortunadamente no todo está perdido, ya que 75 empleados de OpenAI y 450 de Google han expresado públicamente sus preocupaciones sobre esos usos de la tecnología. En una carta abierta, los de OpenAI dijeron:

“Intentan dividir a cada compañía con el miedo de que la otra ceda.  Esa estrategia solo funciona si ninguno de nosotros conoce la postura del otro. Esta carta quiere fomentar la comprensión y la solidaridad compartidas ante la presión del Departamento de Guerra”.

Rentabilidad sobre Responsabilidad.

La posición de Anthropic es laudable, no solo por este caso, sino en general.  Son fieles a sus principios y plenamente conscientes de los riesgos que la utilización de la tecnología IA conlleva y pretenden minimizar aquellos que estén a su alcance. ¡Un buen ejemplo! ¡Ojalá tuviéramos más!

 

P.S. 1 Hurra por Anthropic, aunque estoy muy preocupado porque el éxito y alcance que está teniendo atenta contra los empleos de tres de mis hijos.

P.S 2 Una externalidad positiva: Estimulará la consideración de los riesgos de la IA.

No hay comentarios: