La Cumbre de Acción sobre la IA de París: el debate necesario.
Por: Juan Cristóbal Cruz Revueltas
El próximo febrero 2025 tendrá lugar en Francia la Cumbre de Acción sobre la IA. El evento incluirá la presencia de jefes de Estado, dirigentes de organizaciones internacionales, representantes de grandes empresas internacionales y de ONGs, así como miembros de la academia y de la sociedad civil. Es evidente que tan destacada concurrencia refleja la enorme expectativa mundial que ha generado la IA, sobre todo luego del gran entusiasmo producido por la aparición de CHATGPT-4. Ya hace un par de años el filósofo Luc Ferry afirmaba categóricamente que estamos ante “la revolución tecnológica más violenta y rápida de la historia” (Conferencia Excelia). Ante un coro de expresiones tan unánimes, uno puede preguntarse si, en realidad, no ha habido un exceso de bombo publicitario y si no sería conveniente calibrar mejor nuestras expectativas respecto a la IA. Preguntas que se podría esperar sean plateadas en la Cumbre.
Evidentemente, un “tecno-optimismo” ingenuo es por sí mismo un problema. Al menos así lo piensan y lo lamenta Daron Acemouglu. El Premio Nobel de economía 2024 considera que el exceso de optimismo puede conducir al fatalismo: ante el avance “aplastante” del progreso tecnológico pareciera que al ciudadano de a pie sólo le queda inclinarse ante los profetas de la tecnología y contentarse con el papel de espectador pasivo. Esta actitud es dañina, en particular porque nadie sabe cuáles serán los verdaderos impactos de la IA. Pensemos, por ejemplo, en cuál puede ser su impacto en el crecimiento económico. Algunos defienden que su implementación impulsará un crecimiento económico del 3 % anual, similar al crecimiento alcanzado por algunos países en las décadas posteriores a la Segunda Guerra mundial. Sin embargo, apoyándose en estudios recientes, el mismo Acemoglu afirma que durante los próximos 10 años el incremento en la productividad gracias a la IA será apenas de un modesto 0.05 %. (Daron Acemoglu, “The simple macroeconomics of AI”, Economic Policy, 2024). Tampoco es seguro que las empresas experimenten un cambio radical; es posible que, para 2030, la mayoría continúen operando como lo hacen ahora

Peor aún, una implementación acelerada y deficiente de la IA en las empresas puede tener efectos indeseables. Acemoglu apunta sobre todo a la automatización que sustituye a los empleados humanos, generando desempleo sin ni siquiera mejorar la productividad. En este contexto cabe respecto preguntarse: ¿es deseable eliminar los empleos rutinarios para favorecer ocupaciones más enriquecedoras, o es el empleo, por sí mismo, un bien social que debe protegerse? La respuesta que se dé a esta pregunta definirá si la IA será utilizada como sustitutivo o como un complemento del empleo- y favorecerá, sin duda, el desarrollo de un tipo específico de sociedad.
Otro aspecto que merece ser discutido es el muy alto nivel de inversión por parte de los grandes fondos en empresas dedicadas a la IA generativa, como si estuvieran convencidos que la IA generativa fuera a evolucionar a una IA general (IAG) similar a la inteligencia humana. Apostar que un sistema semejante a un perico que puede hablar como Einstein (la IA generativa), pero que no entiende lo que dice, ofrezca la próxima gran teoría de la física, puede ser una jugada muy arriesgada. Muy mala para ellos y muy costosa para la sociedad en su conjunto. Quizás a mediano o a largo plazo aparezca la IA general, pero nada indica que esto sucederá a partir de los actuales grandes modelos de lenguaje (LLM, por sus siglas en inglés). Incluso Yann LeCun, uno de los “padrinos de la IA”, lo afirmó claramente en febrero pasado: “…la tecnología debe alcanzar las capacidades humanas de planificación, razonamiento, memoria e incluso sentido común. Lo cual está totalmente más allá de las posibilidades de los LLM”. (World AI Cannes Festival). Ante algo tan evidente, es legítimo sospechar de la buena fe de quienes insisten en hacernos creer que a partir de la IA generativa se pasará a la IAG del tipo de la inteligencia humana.
En realidad, no será necesario esperar a la Cumbre de Paris de 2025, pues ya en 2024 la Real Academia de las ciencias -que decide los premios Nobel de Física, Química y Economía – puso sobre la mesa el debate sobre la IA. Los premios en Física y en Química de 2024 pueden interpretarse como un reconocimiento a la relevancia de la IA, aunque no sin matices. Esto es evidente en el caso del premio Nobel de física que incluyó a Geoffrey Hinton: uno de los padrinos de la IA y, a la vez, uno de sus más destacados críticos. Además, al otorgar el Nobel de Economía a Acemouglu, la Real Academia dio también una elevada plataforma a su enfoque crítico de la IA.
En última instancia, uno de nuestros grandes desafíos prácticos y conceptuales ante el desarrollo tecnológico es nuestra incapacidad para admitir que los efectos de nuestros actos suelen escapar a nuestras intenciones, simplemente porque muchas veces somos incapaces de preverlos. El caso de Robert Oppenheimer, director científico del proyecto Manhattan, es un ejemplo emblemático. Después de la prueba Trinity, nombre que él mismo dio a la primera explosión nuclear del 16 de julio de 1945, el célebre científico inspeccionó el lugar exacto de la explosión, como lo muestran algunas fotos donde aparece junto a los restos de una torre de metal. Aunque no se puede afirmar categóricamente que el cáncer que sufrió Oppenheimer haya sido el resultado de la radicación, estas imágenes evidencias que él y su equipo no comprendían plenamente los efectos y peligros que podía derivar de su propia obra. Alguno similar podría sucedernos con la IA.

