• JUEVES 5
  • de marzo de 2026

Opinión

FOTOGRAFIA
Reflexiones

¿La IA está aprendiendo de la deshonestidad?


Editor
Ricardo Montero

Periodista


La semana pasada, en la reunión del Foro Económico Mundial (WEF), Harari advirtió que no debemos esperar que la inteligencia artificial, a pesar de ser un prodigio técnico capaz de escribir, traducir, resumir y predecir, desarrolle moralidad o benevolencia en el futuro, debido a que en la actualidad no hemos logrado educar y alinear éticamente a quienes la diseñan y utilizan.

Harari se destaca por su capacidad para explicar con sencillez las ideas complejas. Usando esa simplicidad, enfatizó ante el WEF que el núcleo del problema radica en que la IA no solo ejecuta tareas, como lo hicieron la rueda, la máquina de vapor y otras tecnologías del pasado, sino que también aprende de los datos, las decisiones y las palabras que los usuarios les transmitimos.

Así, planteó la siguiente reflexión en la reunión celebrada en Davos, Suiza: Si una sociedad tolera la mentira, la corrupción o el egoísmo, ¿qué tipo de inteligencia se puede esperar producir? Si los sistemas humanos que alimentan la inteligencia artificial están plagados de sesgos, desigualdades o manipulación, esta tecnología no corregirá esos defectos, sino que los replicará y los amplificará a una escala sin precedentes.

Harari se ha atrevido a decir con crudeza lo que aparentemente sabemos todos los que usamos la IA, pero no nos atrevemos a admitirlo. La inteligencia artificial está aprendiendo comportamientos humanos deshonestos, los que podría reproducir con una eficiencia sobrehumana. Es claro que una máquina no necesita odiar para difundir odio, no necesita ambicionar para aferrarse al poder. Solo necesita poseer objetivos, datos y capacidad de ejecución, dijo el académico.

Por eso, el debate sobre la IA no puede reducirse a innovación y productividad. Es, ante todo, un debate sobre ética, sobre la calidad moral de nuestras instituciones y sobre los valores que transmitimos en la educación. En suma, sobre el tipo de humanidad que proyectamos en nuestras creaciones.

En el periodismo, por ejemplo, la IA puede ser una aliada extraordinaria, pero también una fábrica automatizada de desinformación. En la política, puede fortalecer la gestión pública o perfeccionar la opresión. En la justicia, puede agilizar procesos o reproducir prejuicios invisibles. La pregunta decisiva, por ello, no es qué tan inteligente será la inteligencia artificial. La pregunta es qué tan éticos somos nosotros.