29 de noviembre - 2024
A dos años del lanzamiento de ChatGPT y sus versiones competidoras, el debate se ha vuelto más complejo sobre la mitigación de sesgos en los modelos y la regulación ética para intentar garantizar que la IA beneficie a todos de manera equitativa.
Fuente: PROCESO
El hito marcó el inicio de una carrera tecnológica en la cual gigantes como Microsoft, Google, Meta, Apple y múltiples startups innovadoras ya participan. Microsoft lanzó Copilot, una integración de IA en su ecosistema Office. Google presentó Gemini, un modelo de lenguaje diseñado para ampliar las capacidades de búsqueda y análisis de datos.
Meta entró en la competencia con Meta IA, mientras que Anthropic introdujo Claude (ahora con financiamiento de Amazon). Plataformas como Perplexity también han demostrado el valor y la rápida adopción de estas tecnologías en la interacción diaria.
La irrupción de la IA generativa desató entusiasmo y preocupación. Estas tecnologías han mejorado la eficiencia y productividad en todos los sectores, pero han generado temores relacionados con la seguridad, la privacidad de los datos, los efectos en el empleo y la existencia misma de la humanidad.
El historiador Yuval Noah Harari, en su libro Nexus, subrayó un punto crucial visto desde la filosofía: “La IA no es una herramienta, es un agente”. Según Harari, la IA ya no es un simple instrumento que ejecuta órdenes, sino un actor capaz de tomar decisiones y aprender de manera autónoma, lo cual plantea riesgos existenciales, desde la manipulación de información hasta el potencial uso indebido en conflictos sociales, políticos y bélicos con las armas autónomas y los robots asesinos.
Harari. “La IA no es una herramienta, es un agente”. Foto: Facebook / Yuval Noah Harari
A estos riesgos se suman preocupaciones infundadas o no, como la explotación de datos personales y la falta de transparencia en los sistemas y algoritmos de IA. Los intentos de regulación global han sido variados, desde marcos estrictos en la Unión Europea hasta enfoques más abiertos en Estados Unidos, lo cual refleja la dificultad de equilibrar la innovación con la protección de derechos fundamentales.
Quienes minimizan la importancia emergente o la consideran una nueva moda, olvidan que el impacto económico de la IA generativa ha sido asombroso. Microsoft fue pionera al invertir 10 mil millones de dólares en OpenAI, al integrar ChatGPT en servicios como Azure y Microsoft 365. Google y Amazon han seguido su ejemplo al destinar recursos masivos a sus propios desarrollos de IA. Según Grandview Research, el mercado global de la IA generativa alcanzará 1.8 billones de dólares para 2030, una de las tecnologías más rentables y disruptivas de la historia… a sólo dos años de su lanzamiento.
Startups y empresas de todo el mundo han captado la atención de inversionistas, quienes ven en estas tecnologías el futuro de industrias como la educación, la salud y la manufactura. Obviamente, esta revolución magnificó los temores éticos y regulatorios.
Hace un año, OpenAI vivió su primera gran crisis cuando su CEO, Sam Altman, fue despedido abruptamente por decisiones internas que nunca fueron completamente reveladas. El evento conmocionó la industria tecnológica y reflejó las tensiones inherentes al liderazgo de una tecnología transformadora.
El caos fue breve: Altman regresó a su puesto días después, respaldado por Microsoft. Altman reafirmó su visión de una Inteligencia Artificial General, un sistema con capacidades comparables o superiores a las humanas en todos los aspectos. Esta perspectiva entusiasma a muchos, pero también genera escepticismo y preocupación sobre los límites y alcances de la IA.
En tan sólo dos años, la IA generativa ya ha dejado una huella profunda en múltiples sectores. Herramientas tipo ChatGPT ya son ampliamente utilizadas por estudiantes, con el evidente potencial y uso indebido en tareas.
AQUÍ LA NOTA COMPLETA: https://www.proceso.com.mx/opinion/2024/11/29/el-mundo-cambio-hace-dos-anos-chatgpt-ia-341186.html