Ha sido ampliamente comentado en los medios la gran contribución que la IA
puede hacer al progreso de la humanidad y los elevados riesgos que conlleva. Y en
los medios de la sostenibilidad empresarial se ha analizado su potencial contribución
a mejorarla. [1] Pero no analizaremos
estos aspectos. El objetivo de este artículo es presentar un
breve análisis de la gobernanza de las empresas de inteligencia artificial, IA,
necesaria para que puedan cumplir su responsabilidad ante la sociedad. Y
para ello utilizaremos el caso de OpenAI, empresa líder en IA.
I.
Responsabilidad del producto de la IA ante la sociedad.
No pretendemos hacer un análisis de la responsabilidad de la IA y de las
empresas que desarrollan la tecnología, pero sí haremos algunos comentarios para
poner en contexto lo crítico que resulta la gobernanza. Para ilustrarlo usaremos el reciente revuelo en
la empresa pionera de su aplicación, OpenAI, sin entrar en muchos detalles
sobre lo ocurrido, que es todavía muy fluido, solo lo necesario para extraer
lecciones para la gestión de la sostenibilidad empresarial. Tampoco analizaremos quien tiene razón en la
discusión. Nos limitaremos al impacto que ha tenido el esquema de la gobernabilidad.
Se habla mucho del potencial de la IA para mejorar la sostenibilidad
empresarial, pero poco sobre la responsabilidad de ese producto. Como en otros
casos, se tiende a subestimar o ignorar, concentrándose en los aspectos
ambientales, sociales y de gobernanza. Parte del problema lo produce la ASG,
que no incluye la P, aunque en análisis más rigurosos se incluye como parte
de las responsabilidades con el consumidor, como parte de la S. Las calificaciones de ASG califican como
responsables a empresas de armas, tabaco, apuestas, bebidas alcohólicas, etc,
sin restar puntos a la evaluación por los daños del producto a la sociedad.
La IA es uno de los temas más comentados en los medios, parece que fuera algo
que surgió en los últimos años. Sin embargo, fue creada en los años cincuenta, [2] pero su desarrollo
necesitó de la explosión de la capacidad de computación del siglo XXI.
Los emprendimientos en AI tienen dos características que hacen que las lecciones puedan ser muy valiosas para la sostenibilidad empresarial en general:
- El producto de la empresa, la IA, tiene un elevadísimo impacto sobre la sociedad (léase ¡humanidad!), tanto para bien, como para mal.
- El esquema de gobernanza debe poder gestionar eficiente y efectivamente los conflictos entre los beneficios financieros, los sociales y los riesgos de la tecnología para la humanidad.
OpenAI, tiene un
esquema de gobernanza inusual, peculiar para atender esa característica (el
periódico The Economist la calificó de “extraña”, otros de “ingenua”),
que la que ha desatado el revuelo.
El lector posiblemente tenga algún conocimiento del potencial de la IA, una
tecnología que busca que las máquinas piensen como seres humanos, con la
diferencia de que aquellas son capaces de acceder,
procesar y aprender continuamente de una cantidad de información, casi infinitamente
superior a la capacidad del ser humano de hacerlo, solo limitadas por el poder
de computación de las máquinas.
Usa la información disponible públicamente para resolver problemas,
encontrar respuestas a todo tipo de preguntas y hasta para guiar actividades como operaciones quirúrgicas o conducir
un avión, falsificar, asesinar, y hasta hacerse pasar por una persona. En términos muy sencillos podemos decir que aprende
continuamente de toda la información disponible y la destila para atender la
tarea que se le pide. Esto puede usarse tanto para hacer el bien como para
hacer el mal, por lo que es imperativo es que el diseño y uso de este
producto sea responsable.
Ya hemos visto aplicaciones simples como la nueva canción de los Beatles,
con vocalización de John Lennon, que murió en el 1980, un video falso sobre
un nuevo atentado sobre el Pentágono, que estuvo a punto de crear una catástrofe
financiera, y ahora la creación de una mujer, Hope
Sogni, que sabe todo lo que hay que saber de futbol, para que
compita a la presidencia de la FIFA. No creo que gane, no la hicieron
corrupta, aunque no hay que descartar que la IA pueda crear un personaje que
sea el mayor experto del mundo en corrupción e imbatible por las autoridades.
Y tiene sus problemas de responsabilidad, aun con buenas intenciones. Por ejemplo, puede escribir una novela o
componer una sinfonía al estilo de su autor, aprendiendo de todas sus obras, muy
por encima de la capacidad de expertos de hacerlo. Recientemente se han
presentado demandas contra algunos productos de la IA por violación de derechos
intelectuales ya que hacen el aprendizaje de esas obras y producen una nueva sin
pagar por los derechos del autor “plagiado”. Se ha imitado, en video y audio, a
personajes famosos para promover algunos productos sin su consentimiento. Bien
usada la tecnología puede contribuir a la innovación, pero mal usada puede
destruir la creatividad.
Y puede causar un gran daño colateral, muy crítico en la sostenibilidad empresarial,
sobre el empleo,
afectando especialmente a los empleos intelectuales repetitivos (de los empleos
mecánicos se han encargado los robots), por ejemplo, la traducción de idiomas,
la producción de documentos y un sin de actividades.
No es fácil encontrar productos o servicios que solo tienen beneficios,
todos tienen costos y corresponde
a los dirigentes responsables y la sociedad, bajo la regulación de los gobiernos,
hacer el costo beneficio y tomar las decisiones pertinentes. Pero la AI es
un caso muy especial donde los beneficios y los costos son de tal magnitud que hay
muy poco margen de error y muy poca influencia externa. La sociedad puede
decidir sobre el consumo de alcohol o el tabaco, pero no puede afectar que personas
inescrupulosas mal usen la AI. La responsabilidad del uso del producto es
muy poco controlable.
Durante el desenlace del caso que cubriremos, algunos de los investigadores
de la empresa enviaron una carta al consejo advirtiendo que la AIG (inteligencia
artificial global, definida más adelante), en la que estaban avanzando, podía convertirse
en una amenaza para la humanidad.
Los stakeholders materiales de estas tecnologías
no son los tradicionales de consumidores, empleados, medio ambiente, comunidad,
etc, ni la sociedad, como estamos acostumbrados en la sostenibilidad empresarial.
En el caso de la IA el stakeholder más material es la humanidad.
II.
Gobernanza de la IA: el revuelo en OpenAI.
A finales de noviembre se presentó lo que en principio parecía un conflicto
de egos, pero que se está revelando más bien como un conflicto de intereses
entre los beneficios comerciales de las inteligencia artificial y los riesgos
que conlleva.
El consejo directivo de OpenAI, pionera y mayor empresa en el
desarrollo de la IA, decidió el 17 de noviembre del 2023, despedir al creador de
la empresa, el CEO Sam Altman, líder mundial en IA, y miembro del consejo por
razones al principio un poco misteriosas: “porque no es suficientemente honesto
con el Consejo”. [3] A medida
que está transcurriendo el tiempo está saliendo a la luz que detrás de ello hay
un conflicto de intereses en los objetivos de la empresa, los altruistas y los
comerciales. En lenguaje de la sostenibilidad empresaria diríamos un
conflicto entre los beneficios sociales y la mitigación de riesgos y los
beneficios financieros. Es lo que enfrentan las empresas con fines de lucro,
pero no en la magnitud que lo enfrentan las empresas de IA, donde ambos
beneficios potenciales, a la sociedad y financieros, son inmensos, como también
lo es el potencial de perjuicio social, y todavía sin regulación ni nacional ni
supranacional.
El consejo de la empresa es el responsable de asegurar que se logran beneficios
sociales y evitar sus riesgos. Es completamente
autónomo, no le responde a nadie y ni siquiera los aportantes de recursos
financieros tienen derecho a intervenir en sus decisiones (después del revuelo
esto va a cambiar). Su composición ha cambiado con el tiempo pero que, al
momento de despedir a su CEO estaba integrado por él, otro cofundador y tres
miembros independientes. Las decisiones deber
ser tomadas por mayoría y los cinco miembros tienen el poder de nombrar y
remover los consejeros. Tiene como misión el “beneficio de la humanidad”
y supervisa las actividades de la empresa con fines de lucro, que tiene como
misión desarrollar una Inteligencia Artificial General, AIG, que son “sistemas
altamente autónomos que superan a la mente humana en actividades económicamente
valiosas”.
La empresa había sido creada en el 2015 como un laboratorio de
investigación sobre la IA, de allí el nombre “open”, pero pronto se dieron cuenta
de que el desarrollo de la tecnología requería de elevadas capacidades de computación,
con costo en los miles de millones, por lo que debieron recurrir a inversionistas
interesados, pero que aceptaran los objetivos duales, sin fines netamente
comerciales. En consecuencia se creó una
institución con fines de lucro, OpenAI Global, que es supervisada por el
consejo de OpenAI Inc, empresa sin fines de lucro, que gestionaría los
excedentes financieros de OpenAI Global, si lo hubiere.
El conjunto ha sido financiado por Microsoft y fondos de capital de riesgo,
entre otros (Elon Musk de Tesla participó en la creación, aunque la dejó por discrepancias
en los objetivos con el CEO Altman, que eran más comerciales). Lo que la
empresa ha desarrollado hasta ahora es una inteligencia artificial específica,
la AI, que es un nivel inferior a la AIG, que es el máximo posible de la
inteligencia artificial, que supera a la mente humana.
Si bien los inversionistas no tienen control sobre el consejo y al invertir
deben aceptar los objetivos que la empresa ha explicitado, podrían recibir dividendos
de las ganancias que se obtengan hasta cierto nivel, y el excedente compete a la
empresa sin fines de lucro, que es gestionada por el consejo. En función de la dinámica
es muy posible que se reinviertan todos los beneficios hasta que logre la meta
final de la AIG.
Como parte de su inversión de US$13 000 millones en OpenAI Global (casi el
50% de los recursos estimados, aunque ahora está valorada en unos US$86 000
millones), Microsoft adquirió los derechos a la propiedad intelectual, así como
copias de los programas para los sistemas claves y los procedimientos para
guiar los resultados en base a lo que ha aprendido de los datos. Lo que no
tiene y no tendrá son los derechos a la tecnología AIG que es de uso exclusivo
de OpenAI y no lo puede ceder. Pero para lograr el objetivo de la AIG se
necesita un inmenso poder de computación, que Microsoft tiene.
Si bien es un esquema de gobernanza inusual tiene características
que, bien gestionadas, permiten que la parte con fines de lucro haga
financieramente factible la parte sin fines de lucro, para sus actividades en
bien de la sociedad. En algunos casos de emprendimientos sociales puede
haber dos instituciones con personalidad jurídica separada supervisadas por un
consejo independiente. Ambas unidades tienen la cultura y el personal especializado
en el objetivo que le corresponde, por lo que los conflictos de intereses se
disipan. En el caso de empresas se pueden integran las dos partes en una
misma empresa, que gestiona ambos objetivos, es lo que se denomina como
empresas con fines de beneficios duales o del cuarto sector. En este caso los
dirigentes deben balancear ambos objetivos y resolver los conflictos, lo que la
gestión es más complicada y requiere de dirigentes capaces de hacer el balance.
[4] [5]
Y hay un ejemplo de gobernanza en IA que merece comentarse, porque es más
robusto que el que tenía OpenAI. Anthropic es otra empresa líder en IA, que fue fundada en el 2021 por una docena de ex
empleados de OpenAI, liderados por dos hermanos Dario y Daniela Amodei. Conocedores de los potenciales conflictos la
empresa fue creada como un empresa con fines de beneficios duales (Public
Benefit Corporation, ¡que no es una B-corp!) de acuerdo con la
legislación del estado de California. Ello los obliga a, entre otras cosas, a una
mayor transparencia, incluyendo la rendición de cuentas sobre los beneficios
sociales y una evaluación independiente de su rendimiento. Si bien los
directores están protegidos de demandas por no perseguir la maximización de beneficios
financieros sí son responsables, legalmente, por lograr los beneficios duales. Tiene además un “fideicomiso de beneficios de
largo plazo”, gestionado por expertos en la ética de la IA y otros expertos, que
eligen la mayoría de los consejeros de la empresa. Durante la debacle en OpenAI
el consejo intentó convencerlos de una fusión, pero fue rechazado. Está
respaldada financieramente por Amazon y Google.
El caso de OpenAI es diferente a estos casos ya que tiene (tenía) un
consejo independiente, sin fines de lucro, que supervisa a una empresa con
fines de lucro, donde es mucho más difícil gestionar ambos objetivos y es lo
que en buena parte explica el revuelo. El consejo, independiente y poderoso,
debe asegurar que la empresa con fines de lucro cubre ambos objetivos: obtención
de beneficios asegurando que no se produzca daño a la humanidad. Más difícil
de lograr que en los casos anteriores por cuanto supervisor y supervisado tienen
conflictos de intereses, se le pide al supervisado que logre ambos
objetivos y porque los beneficios y riesgos son muchísimo mayores. A lo mejor una IA, que supere la mente
humana, los pudiese gestionar.
La gobernanza que tenía hasta el 22 de noviembre había sido desarrollada
con el objetivo de gestionar ambos objetivos, que en teoría podría hacerlo,
pero que en la práctica depende del carácter de los dirigentes y de la cultura
de ambas partes. En este caso duró
poco y se destituyó al CEO, renuncio el presidente y más de 700 de los 760
empleados amenazaron con renunciar si no se destituía a los miembros del
consejo.
Inmediatamente de conocerse el despido, Microsoft contrató a ambos dirigentes
para gestionar su nuevo laboratorio de IA, con la tecnología a la cual ya tiene
derecho. De esta manera, tendría la independencia para fijar sus propios
objetivos y desarrollar sus aplicaciones, con la inmensa sinergia que existe entre
la IA, los productos de Microsoft y su capacidad computacional. Adicionalmente
los empleados recibieron ofertas de empleo de varias empresas.
Esto logró que los consejeros que quedaban renunciaran y que Altman regresara
a su cargo en la empresa. Mientras tanto se ha nombrado un consejo interino
a la espera de una situación más definitiva. Es de presumir que esta experiencia
cambiará significativamente la gobernanza de las empresas y la composición
del consejo. Es de suponer que los principales inversionistas querrán tener una
representación directa y Microsoft tendrá un papel muy relevante. Es el principal
ganador de la contienda ya que protege su inversión y tendrá los más de 700
expertos a su disposición, sin tener que contratarlos, al ser uno de los principales
usuarios de los productos de OpenAI.
Es prematuro para saber si se mantendrán los objetivos originales de la
empresa, aunque es muy probable, pero con mayor énfasis en lo comercial y que la
mitigación de riesgos y el potencial impacto negativo sobre la humanidad seguirán
siendo prioridades, porque es lo que motiva a los investigadores de la empresa. Microsoft es una empresa comercial, pero
tiene una reputación que mantener y la IA representa un riesgo reputacional muy
elevado y porque OpenAI es la más grande, la más visible, por lo que es de suponer
que ejercerán su responsabilidad.
Pero no debe descartarse que al perseguir los objetivos comerciales aumenten
los riesgos de uso pernicioso de la tecnología, además de que si bien OpenAI es
la pionera y la más avanzada, en particular en el desarrollo de la AIG, hay
muchas otras empresas desarrollando la tecnología IA y no todas son como Anthropic.
Los productores de la tecnología tienen una gran responsabilidad sobre el
uso de su producto (contrástese
con la responsabilidad que asumen (¿?) los productores de pistolas y ametralladoras
de uso civil y las tabacaleras, sobre los usos de sus productos). Esta empresa
nació sabiendo que su producto tiene un gran poder de hacer el bien, pero
también de hacer el mal y que depende del usuario, pero no quiere denegar de su
responsabilidad social en ello. De allí que deberá mantener, entre otras
medidas, un esquema de gobernanza conducente.
Y es aquí donde la regulación nacional y supranacional es
crítica ya que es un producto planetario de impacto sobre la humanidad, no
sobre algunos ciudadanos, independientemente del país de localización de las
empresas. Pero esta regulación apenas está comenzando. Lamentablemente no solo solo están
atrasados en el tiempo sino además en la capacidad técnica necesaria. Y la coordinación
multinacional es inexistente. Demasiado nueva,
demasiado rápida, demasiado impacto. Muy urgente.
III.
En resumen.
De este revuelo podemos sacar algunas lecciones para la gobernanza. Aquí nos estanos refiriendo a la gobernanza de
la sostenibilidad empresarial, cuyo principal objeto es la gestión de los
conflictos entre objetivos financieros y de bienestar de la sociedad, no a la
que más comúnmente se destaca, la G de la ASG que se centra mayormente en las responsabilidades
de los consejos y su relación con los accionistas, dominada por empresas que
cotizan en bolsas de valores. Es la g de los otros stakeholders.
En todos los casos la gobernanza de la sostenibilidad es crítica pero este
caso non enseña que además de la estructura, esa gobernanza debe
considerar la cultura de las organizaciones y las personas a cargo de
gestionarla.
La estructura de la gobernanza, que se había usado en este caso, de un consejo
de una empresa sin fines de lucro, supervisando a una con fines de lucro, sin
su propio consejo, podría ser efectiva en algunos casos de emprendimientos
sociales de relativamente bajo impacto y menor magnitud. Pero no era la adecuada para este caso donde los impactos
son sobre la humanidad entera, se invierten miles de millones y los errores
pueden ser catastróficos.
Los otros esquemas mencionados, los de empresas separadas con consejo común
y la figura de empresa con fines de beneficios duales, como el caso de Anthropic,
podría ser más conducente al logro de los objetivos de una empresa de IA, pero
la efectividad de cualquiera de estos esquemas depende de la cultura de las
empresas y del personal clave. En la medida que haya subculturas [6] que estén
en conflicto (investigadores idealistas e inversionistas obsesionados con los rendimientos),
en la medida en que el personal clave no esté totalmente comprometido con la misión,
tendrá menor potencial de ser efectivo.
La estructura de la gobernanza de la sostenibilidad puede
facilitar o dificultar, pero no es determinante, lo determinante es la cultura
y las personas. Las personas y su cultura empresarial importan.
Y en el caso de la IA, con un producto que tiene un inmenso de potencial de
hacer el bien o de hacer el mal, a todo lo largo y ancho de la humanidad, es
muy optimista pensar que pueda ser gestionado por individuos- Hace falta más
que estructura y personas dedicadas y conscientes por muy motivados estén para
hacer el bien, su regulación por parte de los gobiernos es imperativa, ya
que el potencial es tal que no se le puede dejar a empresas o personas la libertad
de los usos de tal producto.
Podría ser una bomba nuclear en manos de un niño.
El embrollo ilustra como la creación de la inteligencia artificial está
poniendo a prueba si los inversionistas, que quieren ganar dinero con la IA, pueden
trabajar en sintonía con los investigadores que se preocupan de la amenaza al
empleo y a la humanidad. Una institución sola no
puede lograr el mejor balance entre el avance de la IA, la atracción de talento
e inversiones y mantener a la seguridad de la humanidad.
El titular de The Economist después del desenlace del embrollo: “La
industria de la IA parece lista para moverse del idealismo académico al pragmatismo
comercial” es claro, pero preocupante. Ese pragmatismo comercial no puede
convertirse en obsesión por beneficios. Se requiere la intervención de los
reguladores, nacionales y supranacionales, mucho más que en los casos de
productos y servicios tradicionales.
Y ojalá que algunos investigadores idealistas aseguren la mitigación de
los riesgos de la avaricia comercial y su uso por parte de villanos (vienen
a la mente los villanos de las películas del agente 007, empeñados en destruir
la humanidad).
Colorín colorado ………este cuento no ha terminado.
NOTA 1: Este artículo no ha sido escrito usando la inteligencia artificial. Hubiera
quedado mejor y sin errores gramaticales.
NOTA 2: Quién este interesado en mas detalles sobre el producto pueder ver un excelente articulo de Kiko Llaneras en El País, del 25 de diciembre, ¿Por qué importa OpenAI? Esto es lo que hace (hoy) su inteligencia artificial.
Apéndice: ¿Puede la IA tener valores?
En principio parece que la IA son códigos computacionales mecanicistas, sin
valores. Sin embargo, es posible
controlar la información de la que aprende.
Sin entrar en términos muy técnicos y simplificando, podemos decir que hay
dos tipos de IA, la “Constitucional” donde los creadores especifican explícitamente
un código de valores que el sistema debe seguir, separando la cuestión de si
una AI puede hacer algo, de la cuestión más políticamente tirante de si
lo debe hacer. El otro método muy usado es el del “Refuerzo del aprendizaje
de la retroalimentación Humana”, RLHF en inglés, donde ambas cuestiones se
mezclan y los valores son implícita e imperfectamente establecidos por el mismo
esquema de aprendizaje. Difieren en como el sistema aprende. Los chatbots
con este último método suelen producir repuestas más social y económicamente progresistas,
porque aprenden de la información pública que suele ser más intensa en este
sentido. Los resultados también dependen de las fuentes de información que
usa el sistema y el propósito de la búsqueda. De hecho, en EE. UU. los políticos
conservadores se quejan de que los chatbots son de “izquierda”. En
nuestro lenguaje diríamos que con este método las respuestas tienden a ser socialmente
más responsables, reflejando la información que se más se disemina.
Hay que aprovechar que con el método constitucional la IA se basa en
aprendizaje para que aprenda de los valores morales, éticos, de equidad, de justicia,
etc., con lo que se le puede poner responsabilidad social al producto AI.
(algo así como ponerle un seguro a una pistola que requiere la huella digital
del dueño). Y mientras más publiquemos sobre la
responsabilidad empresarial, más probable es que la AI la encuentre y aprenda
(¡ojalá fuera así!, ¡que ilusión!).
[1] Un excelente artículo sobre esto es
el de Alberto Vilariño en la Revista Haz del 13 de noviembre del 2023, Inteligencia artificial y ESG: un nuevo
horizonte en la gestión empresarial.
[2] Uno de los precursores fue Herbert
Simon, premio nobel de economía de 1978, y mi profesor de teoría de las organizaciones
en el año 1972, donde ya hablaba del potencial de la IA.
[3] Especulo que algo tuvo que ver la
carta que algunos investigadores le enviaron al Consejo días antes, sobre la “amenaza
a la humanidad” a un consejo que tiene como misión el “beneficio a la humanidad”.
Otros medios sugieren que tiene que ver con la dedicación a sus otros
emprendimientos, que lo hace desatender a OpenAI.
[4] Se usan muchos nombres diferentes: Sociedades
de Beneficio e Interés Común, en la legislación española, Beneficio e Interés
Colectivo, y Empresas con Propósito en algunos países de América Latina, Entreprise à Mission en Francia, Public Benefit Corporation
en EE.UU. y Purpose Driven Companies en algunos otros países. Son figuras jurídicas reguladas por leyes, no
son de B-corps.
No hay comentarios:
Publicar un comentario