“Las cosas mejorarán …pero primero se pondrán peor” - Mo Gawdat
Quise titular mi artículo de esta semana con la frase con la que comienza Alive (o Vivo) —aún no publicado—, el nuevo libro de Mo Gawdat, ex Chief Business Officer de Google X.
Hace casi dos años, cuando decidí registrarme para mi primer diplomado en MIT- ese mayo de 2023-, mi intención era entender, de la mano de los expertos, qué era lo que estaba ocurriendo en torno a la Inteligencia Artificial en el mundo. Junto con ese interés, tenía el profundo deseo de encontrar herramientas que facilitaran mi trabajo y me hicieran más competitiva en un entorno donde, a pesar de la tecnología y de las herramientas, las posibilidades sobran pero el tiempo sigue siendo un recurso limitado, que no hemos logrado hackear.
En ese momento, mi objetivo principal era utilizar la IA para desarrollar mi trabajo de tal manera, que pudiera tener una vida más allá de las pantallas. Delegar ciertos esfuerzos a un avatar virtual era una opción, siempre y cuando yo supervisara el contenido que marIA - así llamo yo a mi avatar virtual- comunicara. En ese entonces, Synthesia daba los primeros pasos, y aunque ya existía un abanico de avatares virtuales, disponibles para empresas, crear uno personalizado costaba más de mil dólares, sin garantía de movimientos ni voz hiperrealistas.
Era la época en la que Open AI había dado a conocer la nueva versión de ChatGPT, la inteligencia artificial generativa daba un salto cuántico, y con ello comenzaba el divorcio entre Sam Altman e Elon Musk. Por cierto hay un nuevo escándalo en relación a Open AI, más adelante les cuento.
Retomo lo anterior… en esa época, 2022-2023, programar mi avatar era una tarea cuesta arriba, me inscribí en un diplomado “sin código” , por lo que Phyton estaba fuera de mi alcance en ese momento.
50 años de avances de la computación tradicional vs 2.5 años de la inteligencia aumentada.
Hoy, dos años después, Syntesia tiene avatares personalizados mucho más realistas y accesibles para un público más amplio, HeyGen está a punto de cumplir 5 años -se fundó cuando la pandemia por COVID apenas llegaba a occidente-; ChatGPT está a punto de lanzar su versión 5.0, Grok de Elon Musk, surgió como alternativa a la versión de Altman; Meta acaba de lanzar su versión multimodal Llama 4, que razona y responde mejor que ChatGPT4, con resultados sorprendentes; se creó Colossus, la computadora para IA más potente del mundo; Sora genera videos hiperrealistas de cinco segundos a partir de texto; ElevenLabs ya ofrece más de 5000 voces en sus catálogos; Rapid Miner ha dado un salto cuántico, y no nada más este software, sino muchos desarrollos especializados en minería de datos.
Estos son algunos de los avances palpables para los usuarios finales, hay otros desarrollos que no son de uso cotidiano para la población general, pero que están permitiendo transformaciones empresariales importantes.
Redefinición de la política global de empresas tecnológicas
Hace dos años las restricciones eran considerables, pedirle al algoritmo que generara una imagen de un personaje conocido o que realizara un video “deepfake” era un verdadero desafío, todas las aplicaciones tenían candados, precisamente para proteger la identidad, reputación e imagen de los ciudadanos. Hoy, con la llegada de Donald Trump, muchos de esos candados han quedado en el olvido. Recientemente , Mark Zuckerberg, decidió cancelar su programa de verificación y relajar las políticas para la publicación de contenidos, un movimiento, que parece haber sido con la intención de congraciarse con el mandatario estadounidense.
A inicios de este 2025, Zuckerberg eliminó la regulación en torno a ciertas conductas inadecuadas en sus redes sociales, Grok de Musk, opera desde hace meses sin ningún tipo de restricción.
Hace algunos días Meta anunció el cierre de operaciones de su centro de moderación de contenidos en Barcelona. El 3 de abril, la empresa Telus International- compañía dedicada precisamente a moderar contenidos para Meta-dio a conocer la decisión del gigante tecnológico y comunicó que despedirá a sus 2000 trabajadores.
Las implicaciones de esta redefinición de la política global de muchas empresas tecnológicas, son devastadoras, nos hace aún más vulnerables ante el uso indiscriminado de la inteligencia artificial para fines deplorables: aumenta la diseminación de fake news y deepfakes , el bullying, la distribución de contenido sexual digital generado con IA, contenido violento, discriminatorio , y una infinidad de consecuencias que van mucho más allá de lo que podemos prever o anticipar.
Gary Marcus, una de las voces expertas en IA más escuchadas en los Estados Unidos - interpelado en el Congreso en 2023- junto a Sam Altman, me lo advirtió en una entrevista que le hice, el catedrático afirmó que la inteligencia artificial podría llevarnos al colapso de la democracia o incluso a nuestra extinción.
Ayer, el profesor de NYU, Gary Marcus, denunció un nuevo escándalo alrededor de OpenAI. Al parecer, ni Elon Musk ha logrado frenar el plan de Sam Altman para convertir la organización en una empresa con fines de lucro.
En febrero, Marcus y otros expertos firmaron una petición en apoyo al proyecto de ley AB-501, impulsado por Diane Papan, miembro de la Asamblea de California, con el objetivo de detener esta maniobra. Sin embargo, algo extraño ocurrió: el proyecto fue modificado por completo y su propósito original desapareció del texto. Desde la oficina de la asambleísta confirmaron que no se trató de un error.
A finales de marzo se anunció que la ronda de financiación de OpenAI podría recortarse en 10 mil millones de dólares si la conversión no se concreta antes de que termine el año.
Todo indica que, contra viento y marea, Altman logrará su objetivo.
Un nuevo orden…el ocaso de la democracia.
La IA ha demostrado ser una herramienta poderosa en la gestión de los datos para la toma de decisiones ; en la prevención, diseño de tratamientos y cura de enfermedades; en la educación, la agricultura, la industria aeroespacial, y muchas otras, sin embargo, las grandes empresas tecnológicas están en manos de unos pocos, todos se sientan a la misma mesa que Trump y muchos otros visitan con frecuencia Zhongnanhai. ¿Son ellos los que controlan- y controlarán- al mundo? ¿Qué pasará cuando alcancemos la singularidad?
Tal parece que la inteligencia artificial general nos va a llegar como le llegaría un Bugatti Chiron Super Sport 300+ a un adolescente de 14 años…
Creo que al paso que lleva el desarrollo de la IA si se puede caer en riesgos que no se pueden predecir hasta que los tengamos enfrente, debe ser prioridad crear un organismo que regule el desarrollo y uso de la IA en el mundo, así como está la agencia que en teoría controla la energía atómica.
Lo que en su momento eran cosas de ciencia ficción como la película Yo Robot o el personaje de Ultrón (Avengers), al ritmo que llevamos está cada vez más cerca que se vuelvan realidad y eso sería un peligro.
Si la IA se usara solamente para mejorar áreas como las que mencionas en tu artículo (medicina por ejemplo) sería increíble, pero desafortunadamente no todas las personas tienen ética, responsabilidad, escrúpulos y la están usando como dices para generar información falsa entre otras tonterías.
Parece que la IA está destinada como la energía atómica a convertirse o en un arma de destrucción o en algo que ayude a la evolución de la humanidad, se que es utópico pero ojalá se usara solo para eso último. Pero como dice la frase: El peor enemigo del hombre, de la humanidad, somos nosotros mismos.
En fin, la IA es un tema que apenas va agarrando impulso, está tomando una velocidad vertiginosa, gracias @Maria Alejandra Molina por sacar este artículo.