OpenAI está financiando investigaciones académicas sobre algoritmos que pueden predecir los juicios morales de los humanos. En un documento presentado ante el IRS, OpenAI Inc., la organización sin fines de lucro de OpenAI, reveló que otorgó una subvención a investigadores de la Universidad de Duke para un proyecto titulado “Investigación sobre la Moralidad de la IA”. Un portavoz de OpenAI indicó que este premio forma parte de una subvención más amplia de tres años y un millón de dólares destinada a profesores de Duke que estudian cómo crear una IA moral.
Poco se sabe sobre esta investigación de “moralidad” que OpenAI está financiando, salvo que la subvención finalizará en 2025. El investigador principal del estudio, Walter Sinnott-Armstrong, profesor de ética práctica en Duke, comentó que no podrá hablar sobre el trabajo. Junto con la co-investigadora del proyecto, Jana Borg, han realizado varios estudios y un libro sobre el potencial de la IA para servir como un “GPS moral” que ayude a los humanos a tomar mejores decisiones. Han creado un algoritmo “alineado moralmente” para decidir quién recibe donaciones de riñón y han estudiado en qué situaciones las personas preferirían que la IA tomara decisiones morales.
Según el comunicado de prensa, el objetivo del trabajo financiado por OpenAI es entrenar algoritmos para “predecir los juicios morales humanos” en situaciones que involucran conflictos en medicina, derecho y negocios. Sin embargo, no está claro si un concepto tan complejo como la moralidad puede ser abordado por la tecnología actual. En 2021, el Instituto Allen para la IA desarrolló una herramienta llamada Ask Delphi, que pretendía ofrecer recomendaciones éticamente correctas. Aunque el bot juzgó dilemas morales básicos adecuadamente, al reformular preguntas, Delphi llegó a aprobar casi cualquier cosa, incluso actos inmorales.
Esto se debe a cómo funcionan los sistemas de IA modernos. Los modelos de aprendizaje automático son máquinas estadísticas que aprenden patrones a partir de ejemplos de la web. La IA no comprende conceptos éticos ni tiene una comprensión de la razón y la emoción que influyen en la toma de decisiones morales. Por eso, la IA tiende a reflejar los valores de naciones occidentales, educadas e industrializadas, ya que la web y los datos de entrenamiento de la IA están dominados por artículos que apoyan esos puntos de vista.
No es sorprendente que los valores de muchas personas no se reflejen en las respuestas de la IA, especialmente si esas personas no están contribuyendo a los conjuntos de entrenamiento de la IA al publicar en línea. Además, la IA internaliza una variedad de sesgos más allá de una inclinación occidental. Por ejemplo, Delphi afirmó que ser heterosexual es más “moralmente aceptable” que ser homosexual. El desafío que enfrenta OpenAI, y los investigadores que apoya, se complica por la subjetividad inherente de la moralidad. Los filósofos han debatido sobre las diversas teorías éticas durante miles de años, y no hay un marco universalmente aplicable a la vista.
Un algoritmo que prediga los juicios morales humanos tendrá que tener en cuenta todo esto, lo que representa un gran desafío, suponiendo que tal algoritmo sea posible en primer lugar.