Cuando se lo pregunté a un chatbot respondió:
- La IA puede simular, imitar y predecir juicios morales basándose en datos de entrenamiento, pero no puede tomar decisiones morales de manera auténtica. Si bien la IA puede analizar dilemas y adherirse a reglas éticas programadas, carece de conciencia, empatía y una comprensión genuina de lo correcto y lo incorrecto, lo que significa que no puede poseer verdadera agencia ni responsabilidad moral.
- Recordemos que lo que responde la IA se basa en aquello sobre lo cual ha sido entrenada, la información a la cual tiene acceso.
- Pero hay buenas noticias: Anthropic, un laboratorio líder en IA, y uno de los pocos preocupados por el impacto de la IA en la sociedad convocó a una cumbre de dos días a finales de marzo, de 15 líderes cristianos, académicos y empresarios para que la asesoren sobre cómo orientar el desarrollo moral y espiritual de Claude a medida que el chatbot reacciona ante consultas éticas complejas e impredecibles.
- Es el mismo laboratorio que rehusó permitir al Ministerio de Guerra de EE. UU. la utilización de sus tecnologías la vigilancia masiva de estadounidenses y en el desarrollo y operación con armas totalmente autónomas, por lo que se le cancelaron sus contratos. Principios por encima del negocio: HURRA POR ANTHROPIC
- Es el mismo laboratorio que ha desarrollado de una herramienta a nivel de superinteligencia, Mythos, que ha encontrado vulnerabilidades en todos los sistemas operativos donde ha sido probada y que usada con propósitos malignos puede explotar esas vulnerabilidades. La herramienta es tan poderosa y peligrosa que solo se pondrá a disposición de algunos los productores de sistemas operativos.
- Ello ha dado lugar a una cumbre de emergencia de presidentes de bancos y autoridades financieras del gobierno de EE.UU sobre como blindar sus sistemas y prevenir su eventual uso indebido.
- Menos mal que una empresa líder, desarrolladora de herramientas de IA, es responsable
No hay comentarios:
Publicar un comentario