La inteligencia artificial (IA) es una tecnología que genera miedo sobre el futuro. Existen preocupaciones legítimas sobre temas como la ética en su entrenamiento, su impacto ambiental y los fraudes que utilizan IA, lo que a menudo lleva a imaginar escenarios apocalípticos como los de “Skynet” o “Matrix”. Aunque se habla mucho de la posibilidad de que la IA se vuelva consciente y derrote a la humanidad, Yann LeCun, jefe de IA en Meta, afirma que esta idea es “totalmente absurda”. Según él, la IA es menos inteligente que un gato y no tiene la capacidad de planear o desear nada, mucho menos acabar con nuestra especie.
LeCun tiene razón al decir que la IA no va a conspirar para eliminar a la humanidad, pero eso no significa que no haya motivos de preocupación. Me preocupa más que las personas confíen en que la IA sea más inteligente de lo que realmente es. La IA es solo otra tecnología, lo que significa que no es buena ni mala. Sin embargo, depender de la IA para decisiones importantes puede tener consecuencias no deseadas.
Pensemos en los desastres causados por confiar en la tecnología en lugar de en la toma de decisiones humanas. El comercio de acciones mediante máquinas ha provocado crisis económicas. Un incidente grave ocurrió cuando un sistema soviético de detección de misiles falló y alertó sobre un ataque nuclear. En ese caso, un humano valiente evitó un desastre global.
Imaginemos que la IA, como la conocemos hoy, continúa operando en el mercado de valores porque los humanos le han dado más control. Ahora, supongamos que la IA acepta una alerta de misil defectuosa y activa misiles sin intervención humana.
Aunque parece improbable que se confíe en una tecnología conocida por dar información errónea para manejar armas nucleares, no está tan lejos de lo que ya sucede. Por ejemplo, una IA en un servicio al cliente podría decidir si te devuelven el dinero sin que tú tengas la oportunidad de explicar tu caso, y no hay un humano que pueda cambiar esa decisión.
La IA solo hará lo que le enseñemos, utilizando datos proporcionados por humanos. Esto significa que refleja nuestras mejores y peores cualidades. Sin embargo, entregar demasiadas decisiones a la IA es un error. La IA puede ser útil, pero no debería decidir si alguien es contratado o si una póliza de seguro cubre una operación. Debemos preocuparnos de que los humanos usen la IA de manera incorrecta, ya sea accidentalmente o intencionalmente, reemplazando el juicio humano.
La forma en que Microsoft presenta a sus asistentes de IA como “Copilotos” es positiva, ya que sugiere que están ahí para ayudarte a alcanzar tus objetivos, pero sin tomar decisiones por ti. LeCun tiene razón al decir que la IA no es más inteligente que un gato, pero un gato con la capacidad de empujarte a ti o a la humanidad de un lugar seguro no es algo que debamos fomentar.