sábado, 25 de noviembre de 2023

¿Cuál debe ser la gobernanza de la responsabilidad social de la inteligencia artificial?

 

Ha sido ampliamente comentado en los medios la gran contribución que la IA puede hacer al progreso de la humanidad y los elevados riesgos que conlleva. Y en los medios de la sostenibilidad empresarial se ha analizado su potencial contribución a mejorarla. [1] Pero no analizaremos estos aspectos. El objetivo de este artículo es presentar un breve análisis de la gobernanza de las empresas de inteligencia artificial, IA, necesaria para que puedan cumplir su responsabilidad ante la sociedad. Y para ello utilizaremos el caso de OpenAI, empresa líder en IA.

I.                Responsabilidad del producto de la IA ante la sociedad.

No pretendemos hacer un análisis de la responsabilidad de la IA y de las empresas que desarrollan la tecnología, pero sí haremos algunos comentarios para poner en contexto lo crítico que resulta la gobernanza.  Para ilustrarlo usaremos el reciente revuelo en la empresa pionera de su aplicación, OpenAI, sin entrar en muchos detalles sobre lo ocurrido, que es todavía muy fluido, solo lo necesario para extraer lecciones para la gestión de la sostenibilidad empresarial.  Tampoco analizaremos quien tiene razón en la discusión. Nos limitaremos al impacto que ha tenido el esquema de la gobernabilidad.

Se habla mucho del potencial de la IA para mejorar la sostenibilidad empresarial, pero poco sobre la responsabilidad de ese producto. Como en otros casos, se tiende a subestimar o ignorar, concentrándose en los aspectos ambientales, sociales y de gobernanza. Parte del problema lo produce la ASG, que no incluye la P, aunque en análisis más rigurosos se incluye como parte de las responsabilidades con el consumidor, como parte de la S.  Las calificaciones de ASG califican como responsables a empresas de armas, tabaco, apuestas, bebidas alcohólicas, etc, sin restar puntos a la evaluación por los daños del producto a la sociedad.

La IA es uno de los temas más comentados en los medios, parece que fuera algo que surgió en los últimos años. Sin embargo, fue creada en los años cincuenta, [2] pero su desarrollo necesitó de la explosión de la capacidad de computación del siglo XXI.

Los emprendimientos en AI tienen dos características que hacen que las lecciones puedan ser muy valiosas para la sostenibilidad empresarial en general:

  • El producto de la empresa, la IA, tiene un elevadísimo impacto sobre la sociedad (léase ¡humanidad!), tanto para bien, como para mal.
  • El esquema de gobernanza debe poder gestionar eficiente y efectivamente los conflictos entre los beneficios financieros, los sociales y los riesgos de la tecnología para la humanidad.

OpenAI, tiene un esquema de gobernanza inusual, peculiar para atender esa característica (el periódico The Economist la calificó de “extraña”, otros de “ingenua”), que la que ha desatado el revuelo.

El lector posiblemente tenga algún conocimiento del potencial de la IA, una tecnología que busca que las máquinas piensen como seres humanos, con la diferencia de que aquellas son capaces de acceder, procesar y aprender continuamente de una cantidad de información, casi infinitamente superior a la capacidad del ser humano de hacerlo, solo limitadas por el poder de computación de las máquinas.

Usa la información disponible públicamente para resolver problemas, encontrar respuestas a todo tipo de preguntas y hasta para guiar actividades como operaciones quirúrgicas o conducir un avión, falsificar, asesinar, y hasta hacerse pasar por una persona.  En términos muy sencillos podemos decir que aprende continuamente de toda la información disponible y la destila para atender la tarea que se le pide. Esto puede usarse tanto para hacer el bien como para hacer el mal, por lo que es imperativo es que el diseño y uso de este producto sea responsable. 

Ya hemos visto aplicaciones simples como la nueva canción de los Beatles, con vocalización de John Lennon, que murió en el 1980, un video falso sobre un nuevo atentado sobre el Pentágono, que estuvo a punto de crear una catástrofe financiera, y ahora la creación de una mujer, Hope Sogni, que sabe todo lo que hay que saber de futbol, para que compita a la presidencia de la FIFA. No creo que gane, no la hicieron corrupta, aunque no hay que descartar que la IA pueda crear un personaje que sea el mayor experto del mundo en corrupción e imbatible por las autoridades.

Y tiene sus problemas de responsabilidad, aun con buenas intenciones. Por ejemplo, puede escribir una novela o componer una sinfonía al estilo de su autor, aprendiendo de todas sus obras, muy por encima de la capacidad de expertos de hacerlo. Recientemente se han presentado demandas contra algunos productos de la IA por violación de derechos intelectuales ya que hacen el aprendizaje de esas obras y producen una nueva sin pagar por los derechos del autor “plagiado”. Se ha imitado, en video y audio, a personajes famosos para promover algunos productos sin su consentimiento. Bien usada la tecnología puede contribuir a la innovación, pero mal usada puede destruir la creatividad.

Y puede causar un gran daño colateral, muy crítico en la sostenibilidad empresarial, sobre el empleo, afectando especialmente a los empleos intelectuales repetitivos (de los empleos mecánicos se han encargado los robots), por ejemplo, la traducción de idiomas, la producción de documentos y un sin de actividades.

No es fácil encontrar productos o servicios que solo tienen beneficios, todos tienen costos y corresponde a los dirigentes responsables y la sociedad, bajo la regulación de los gobiernos, hacer el costo beneficio y tomar las decisiones pertinentes. Pero la AI es un caso muy especial donde los beneficios y los costos son de tal magnitud que hay muy poco margen de error y muy poca influencia externa. La sociedad puede decidir sobre el consumo de alcohol o el tabaco, pero no puede afectar que personas inescrupulosas mal usen la AI. La responsabilidad del uso del producto es muy poco controlable.

Durante el desenlace del caso que cubriremos, algunos de los investigadores de la empresa enviaron una carta al consejo advirtiendo que la AIG (inteligencia artificial global, definida más adelante), en la que estaban avanzando, podía convertirse en una amenaza para la humanidad.

Los stakeholders materiales de estas tecnologías no son los tradicionales de consumidores, empleados, medio ambiente, comunidad, etc, ni la sociedad, como estamos acostumbrados en la sostenibilidad empresarial. En el caso de la IA el stakeholder más material es la humanidad.

II.             Gobernanza de la IA: el revuelo en OpenAI.

A finales de noviembre se presentó lo que en principio parecía un conflicto de egos, pero que se está revelando más bien como un conflicto de intereses entre los beneficios comerciales de las inteligencia artificial y los riesgos que conlleva.

El consejo directivo de OpenAI, pionera y mayor empresa en el desarrollo de la IA, decidió el 17 de noviembre del 2023, despedir al creador de la empresa, el CEO Sam Altman, líder mundial en IA, y miembro del consejo por razones al principio un poco misteriosas: “porque no es suficientemente honesto con el Consejo”. [3] A medida que está transcurriendo el tiempo está saliendo a la luz que detrás de ello hay un conflicto de intereses en los objetivos de la empresa, los altruistas y los comerciales. En lenguaje de la sostenibilidad empresaria diríamos un conflicto entre los beneficios sociales y la mitigación de riesgos y los beneficios financieros. Es lo que enfrentan las empresas con fines de lucro, pero no en la magnitud que lo enfrentan las empresas de IA, donde ambos beneficios potenciales, a la sociedad y financieros, son inmensos, como también lo es el potencial de perjuicio social, y todavía sin regulación ni nacional ni supranacional.

El consejo de la empresa es el responsable de asegurar que se logran beneficios sociales y evitar sus riesgos.  Es completamente autónomo, no le responde a nadie y ni siquiera los aportantes de recursos financieros tienen derecho a intervenir en sus decisiones (después del revuelo esto va a cambiar). Su composición ha cambiado con el tiempo pero que, al momento de despedir a su CEO estaba integrado por él, otro cofundador y tres miembros independientes.  Las decisiones deber ser tomadas por mayoría y los cinco miembros tienen el poder de nombrar y remover los consejeros. Tiene como misión el “beneficio de la humanidad” y supervisa las actividades de la empresa con fines de lucro, que tiene como misión desarrollar una Inteligencia Artificial General, AIG, que son “sistemas altamente autónomos que superan a la mente humana en actividades económicamente valiosas”.  

La empresa había sido creada en el 2015 como un laboratorio de investigación sobre la IA, de allí el nombre “open”, pero pronto se dieron cuenta de que el desarrollo de la tecnología requería de elevadas capacidades de computación, con costo en los miles de millones, por lo que debieron recurrir a inversionistas interesados, pero que aceptaran los objetivos duales, sin fines netamente comerciales.  En consecuencia se creó una institución con fines de lucro, OpenAI Global, que es supervisada por el consejo de OpenAI Inc, empresa sin fines de lucro, que gestionaría los excedentes financieros de OpenAI Global, si lo hubiere.

El conjunto ha sido financiado por Microsoft y fondos de capital de riesgo, entre otros (Elon Musk de Tesla participó en la creación, aunque la dejó por discrepancias en los objetivos con el CEO Altman, que eran más comerciales). Lo que la empresa ha desarrollado hasta ahora es una inteligencia artificial específica, la AI, que es un nivel inferior a la AIG, que es el máximo posible de la inteligencia artificial, que supera a la mente humana.

Si bien los inversionistas no tienen control sobre el consejo y al invertir deben aceptar los objetivos que la empresa ha explicitado, podrían recibir dividendos de las ganancias que se obtengan hasta cierto nivel, y el excedente compete a la empresa sin fines de lucro, que es gestionada por el consejo. En función de la dinámica es muy posible que se reinviertan todos los beneficios hasta que logre la meta final de la AIG.

Como parte de su inversión de US$13 000 millones en OpenAI Global (casi el 50% de los recursos estimados, aunque ahora está valorada en unos US$86 000 millones), Microsoft adquirió los derechos a la propiedad intelectual, así como copias de los programas para los sistemas claves y los procedimientos para guiar los resultados en base a lo que ha aprendido de los datos. Lo que no tiene y no tendrá son los derechos a la tecnología AIG que es de uso exclusivo de OpenAI y no lo puede ceder. Pero para lograr el objetivo de la AIG se necesita un inmenso poder de computación, que Microsoft tiene.

Si bien es un esquema de gobernanza inusual tiene características que, bien gestionadas, permiten que la parte con fines de lucro haga financieramente factible la parte sin fines de lucro, para sus actividades en bien de la sociedad. En algunos casos de emprendimientos sociales puede haber dos instituciones con personalidad jurídica separada supervisadas por un consejo independiente. Ambas unidades tienen la cultura y el personal especializado en el objetivo que le corresponde, por lo que los conflictos de intereses se disipan. En el caso de empresas se pueden integran las dos partes en una misma empresa, que gestiona ambos objetivos, es lo que se denomina como empresas con fines de beneficios duales o del cuarto sector. En este caso los dirigentes deben balancear ambos objetivos y resolver los conflictos, lo que la gestión es más complicada y requiere de dirigentes capaces de hacer el balance. [4] [5]

Y hay un ejemplo de gobernanza en IA que merece comentarse, porque es más robusto que el que tenía OpenAI. Anthropic es otra empresa líder en IA, que fue fundada en el 2021 por una docena de ex empleados de OpenAI, liderados por dos hermanos Dario y Daniela Amodei.  Conocedores de los potenciales conflictos la empresa fue creada como un empresa con fines de beneficios duales (Public Benefit Corporation, ¡que no es una B-corp!) de acuerdo con la legislación del estado de California. Ello los obliga a, entre otras cosas, a una mayor transparencia, incluyendo la rendición de cuentas sobre los beneficios sociales y una evaluación independiente de su rendimiento. Si bien los directores están protegidos de demandas por no perseguir la maximización de beneficios financieros sí son responsables, legalmente, por lograr los beneficios duales.  Tiene además un “fideicomiso de beneficios de largo plazo”, gestionado por expertos en la ética de la IA y otros expertos, que eligen la mayoría de los consejeros de la empresa. Durante la debacle en OpenAI el consejo intentó convencerlos de una fusión, pero fue rechazado. Está respaldada financieramente por Amazon y Google.

El caso de OpenAI es diferente a estos casos ya que tiene (tenía) un consejo independiente, sin fines de lucro, que supervisa a una empresa con fines de lucro, donde es mucho más difícil gestionar ambos objetivos y es lo que en buena parte explica el revuelo. El consejo, independiente y poderoso, debe asegurar que la empresa con fines de lucro cubre ambos objetivos: obtención de beneficios asegurando que no se produzca daño a la humanidad. Más difícil de lograr que en los casos anteriores por cuanto supervisor y supervisado tienen conflictos de intereses, se le pide al supervisado que logre ambos objetivos y porque los beneficios y riesgos son muchísimo mayores.  A lo mejor una IA, que supere la mente humana, los pudiese gestionar.

La gobernanza que tenía hasta el 22 de noviembre había sido desarrollada con el objetivo de gestionar ambos objetivos, que en teoría podría hacerlo, pero que en la práctica depende del carácter de los dirigentes y de la cultura de ambas partes.  En este caso duró poco y se destituyó al CEO, renuncio el presidente y más de 700 de los 760 empleados amenazaron con renunciar si no se destituía a los miembros del consejo. 

Inmediatamente de conocerse el despido, Microsoft contrató a ambos dirigentes para gestionar su nuevo laboratorio de IA, con la tecnología a la cual ya tiene derecho. De esta manera, tendría la independencia para fijar sus propios objetivos y desarrollar sus aplicaciones, con la inmensa sinergia que existe entre la IA, los productos de Microsoft y su capacidad computacional. Adicionalmente los empleados recibieron ofertas de empleo de varias empresas.

Esto logró que los consejeros que quedaban renunciaran y que Altman regresara a su cargo en la empresa. Mientras tanto se ha nombrado un consejo interino a la espera de una situación más definitiva. Es de presumir que esta experiencia cambiará significativamente la gobernanza de las empresas y la composición del consejo. Es de suponer que los principales inversionistas querrán tener una representación directa y Microsoft tendrá un papel muy relevante. Es el principal ganador de la contienda ya que protege su inversión y tendrá los más de 700 expertos a su disposición, sin tener que contratarlos, al ser uno de los principales usuarios de los productos de OpenAI.

Es prematuro para saber si se mantendrán los objetivos originales de la empresa, aunque es muy probable, pero con mayor énfasis en lo comercial y que la mitigación de riesgos y el potencial impacto negativo sobre la humanidad seguirán siendo prioridades, porque es lo que motiva a los investigadores de la empresa. Microsoft es una empresa comercial, pero tiene una reputación que mantener y la IA representa un riesgo reputacional muy elevado y porque OpenAI es la más grande, la más visible, por lo que es de suponer que ejercerán su responsabilidad.

Pero no debe descartarse que al perseguir los objetivos comerciales aumenten los riesgos de uso pernicioso de la tecnología, además de que si bien OpenAI es la pionera y la más avanzada, en particular en el desarrollo de la AIG, hay muchas otras empresas desarrollando la tecnología IA y no todas son como Anthropic.

Los productores de la tecnología tienen una gran responsabilidad sobre el uso de su producto (contrástese con la responsabilidad que asumen (¿?) los productores de pistolas y ametralladoras de uso civil y las tabacaleras, sobre los usos de sus productos). Esta empresa nació sabiendo que su producto tiene un gran poder de hacer el bien, pero también de hacer el mal y que depende del usuario, pero no quiere denegar de su responsabilidad social en ello. De allí que deberá mantener, entre otras medidas, un esquema de gobernanza conducente.

Y es aquí donde la regulación nacional y supranacional es crítica ya que es un producto planetario de impacto sobre la humanidad, no sobre algunos ciudadanos, independientemente del país de localización de las empresas. Pero esta regulación apenas está comenzando. Lamentablemente no solo solo están atrasados en el tiempo sino además en la capacidad técnica necesaria. Y la coordinación multinacional es inexistente.  Demasiado nueva, demasiado rápida, demasiado impacto. Muy urgente.

III.           En resumen.

De este revuelo podemos sacar algunas lecciones para la gobernanza.  Aquí nos estanos refiriendo a la gobernanza de la sostenibilidad empresarial, cuyo principal objeto es la gestión de los conflictos entre objetivos financieros y de bienestar de la sociedad, no a la que más comúnmente se destaca, la G de la ASG que se centra mayormente en las responsabilidades de los consejos y su relación con los accionistas, dominada por empresas que cotizan en bolsas de valores. Es la g de los otros stakeholders.

En todos los casos la gobernanza de la sostenibilidad es crítica pero este caso non enseña que además de la estructura, esa gobernanza debe considerar la cultura de las organizaciones y las personas a cargo de gestionarla.

La estructura de la gobernanza, que se había usado en este caso, de un consejo de una empresa sin fines de lucro, supervisando a una con fines de lucro, sin su propio consejo, podría ser efectiva en algunos casos de emprendimientos sociales de relativamente bajo impacto y menor magnitud. Pero no era la adecuada para este caso donde los impactos son sobre la humanidad entera, se invierten miles de millones y los errores pueden ser catastróficos.

Los otros esquemas mencionados, los de empresas separadas con consejo común y la figura de empresa con fines de beneficios duales, como el caso de Anthropic, podría ser más conducente al logro de los objetivos de una empresa de IA, pero la efectividad de cualquiera de estos esquemas depende de la cultura de las empresas y del personal clave. En la medida que haya subculturas [6] que estén en conflicto (investigadores idealistas e inversionistas obsesionados con los rendimientos), en la medida en que el personal clave no esté totalmente comprometido con la misión, tendrá menor potencial de ser efectivo.

La estructura de la gobernanza de la sostenibilidad puede facilitar o dificultar, pero no es determinante, lo determinante es la cultura y las personas. Las personas y su cultura empresarial importan.

Y en el caso de la IA, con un producto que tiene un inmenso de potencial de hacer el bien o de hacer el mal, a todo lo largo y ancho de la humanidad, es muy optimista pensar que pueda ser gestionado por individuos- Hace falta más que estructura y personas dedicadas y conscientes por muy motivados estén para hacer el bien, su regulación por parte de los gobiernos es imperativa, ya que el potencial es tal que no se le puede dejar a empresas o personas la libertad de los usos de tal producto.

Podría ser una bomba nuclear en manos de un niño.

El embrollo ilustra como la creación de la inteligencia artificial está poniendo a prueba si los inversionistas, que quieren ganar dinero con la IA, pueden trabajar en sintonía con los investigadores que se preocupan de la amenaza al empleo y a la humanidad. Una institución sola no puede lograr el mejor balance entre el avance de la IA, la atracción de talento e inversiones y mantener a la seguridad de la humanidad.

El titular de The Economist después del desenlace del embrollo: “La industria de la IA parece lista para moverse del idealismo académico al pragmatismo comercial” es claro, pero preocupante.  Ese pragmatismo comercial no puede convertirse en obsesión por beneficios. Se requiere la intervención de los reguladores, nacionales y supranacionales, mucho más que en los casos de productos y servicios tradicionales.

Y ojalá que algunos investigadores idealistas aseguren la mitigación de los riesgos de la avaricia comercial y su uso por parte de villanos (vienen a la mente los villanos de las películas del agente 007, empeñados en destruir la humanidad).

Colorín colorado ………este cuento no ha terminado.

 

NOTA 1: Este artículo no ha sido escrito usando la inteligencia artificial. Hubiera quedado mejor y sin errores gramaticales.

NOTA 2: Quién este interesado en mas detalles sobre el producto pueder ver un excelente articulo de Kiko Llaneras en El País, del 25 de diciembre, ¿Por qué importa OpenAI? Esto es lo que hace (hoy) su inteligencia artificial.


Apéndice: ¿Puede la IA tener valores?

En principio parece que la IA son códigos computacionales mecanicistas, sin valores.  Sin embargo, es posible controlar la información de la que aprende.  

Sin entrar en términos muy técnicos y simplificando, podemos decir que hay dos tipos de IA, la “Constitucional” donde los creadores especifican explícitamente un código de valores que el sistema debe seguir, separando la cuestión de si una AI puede hacer algo, de la cuestión más políticamente tirante de si lo debe hacer. El otro método muy usado es el del “Refuerzo del aprendizaje de la retroalimentación Humana”, RLHF en inglés, donde ambas cuestiones se mezclan y los valores son implícita e imperfectamente establecidos por el mismo esquema de aprendizaje. Difieren en como el sistema aprende. Los chatbots con este último método suelen producir repuestas más social y económicamente progresistas, porque aprenden de la información pública que suele ser más intensa en este sentido. Los resultados también dependen de las fuentes de información que usa el sistema y el propósito de la búsqueda. De hecho, en EE. UU. los políticos conservadores se quejan de que los chatbots son de “izquierda”. En nuestro lenguaje diríamos que con este método las respuestas tienden a ser socialmente más responsables, reflejando la información que se más se disemina.

Hay que aprovechar que con el método constitucional la IA se basa en aprendizaje para que aprenda de los valores morales, éticos, de equidad, de justicia, etc., con lo que se le puede poner responsabilidad social al producto AI. (algo así como ponerle un seguro a una pistola que requiere la huella digital del dueño). Y mientras más publiquemos sobre la responsabilidad empresarial, más probable es que la AI la encuentre y aprenda (¡ojalá fuera así!, ¡que ilusión!).

 

[1] Un excelente artículo sobre esto es el de Alberto Vilariño en la Revista Haz del 13 de noviembre del 2023,  Inteligencia artificial y ESG: un nuevo horizonte en la gestión empresarial.

[2] Uno de los precursores fue Herbert Simon, premio nobel de economía de 1978, y mi profesor de teoría de las organizaciones en el año 1972, donde ya hablaba del potencial de la IA.

[3] Especulo que algo tuvo que ver la carta que algunos investigadores le enviaron al Consejo días antes, sobre la “amenaza a la humanidad” a un consejo que tiene como misión el “beneficio a la humanidad”. Otros medios sugieren que tiene que ver con la dedicación a sus otros emprendimientos, que lo hace desatender a OpenAI.

[4] Se usan muchos nombres diferentes: Sociedades de Beneficio e Interés Común, en la legislación española, Beneficio e Interés Colectivo, y Empresas con Propósito en algunos países de América Latina, Entreprise à Mission en Francia, Public Benefit Corporation en EE.UU. y Purpose Driven Companies en algunos otros países.  Son figuras jurídicas reguladas por leyes, no son de B-corps.

No hay comentarios: