SERGIO ARMANDO López-Castillo
Sin duda que la narrativa sobre la Inteligencia Artificial (IA) en el mundo, es la moda de hoy, y está en todos lados; y más que para bien, puede decirse que todo ese fenómeno, será para mal.
El desarrollo de chatbots, como ChatGPT, o generadores de imágenes (Midjourney), han sido criticados duramente por científicos en los últimos meses, debido a los problemas que puede generar. Muestra de ello, es el contenido que puede engañar a las personas por el realismo que aparentan, como las imágenes del Papa Francisco, por ejemplo.
Curiosamente, algunos de estos críticos, participaron en el desarrollo de la Inteligencia Artificial, y recientemente se han mostrado preocupados por las consecuencias negativas que el desarrollo de este tipo de tecnología podría acarrear en nuestra vida cotidiana, tal es el caso de Geoffrey Hinton, también llamado “pionero de la IA”, quien colaboró para poner los cimientos de las actuales IAs.
Por otro lado, el millonario excéntrico Elon Musk, quiere desarrollar TruthGPT; su propia IA, que, según su visión y punto de vista, muy particular, “busque la verdad”.
Geoffrey Hinton es un científico estadounidense que siempre se opuso a utilizar recursos del estado para financiar las investigaciones en ese tema. Es por ello que en 1980, cuando fue profesor de Ciencias de la Computación en la Universidad Carnegie Mellon, decidió renunciar para que la Inteligencia Artificial no fuera utilizada en el campo de batalla, lo que él llamó “soldados robots”, y después decidió trasladarse a Canadá.
Ya en 2012, Hinton, radicado en Toronto, junto a dos de sus estudiantes, Ilya Sutskever y Alex Krishevsk, construyeron una “red neuronal” que era capaz de analizar miles de imágenes e identificar objetos comunes, como perros, y automóviles.
El proyecto les interesó sobremanera a los ejecutivos de Google en ese momento, que decidieron comprar la empresa de Hinton y a sus alumnos, por 44 millones de dólares. Sorprende que en muy poco tiempo, dicha red neuronal impulsó el desarrollo de tecnologías más sofisticadas como ChatGPT y Google Bard.
Uno de esos alumnos, Ilya Sutskever se convirtió en jefe científico de OpenAI, mientras que en el 2018, Hinton y otros dos colaboradores recibieron el Premio Turing, el llamado “el Premio Nobel de la Computación”, por su trabajo en redes neuronales, según relata el científico, en entrevista con The New York Times.
En un comienzo, Hinton creyó que la tecnología que estaban desarrollando era una forma de lenguaje inferior al que genera el humano, pero superior en la cantidad de datos que puede manejar, lo cual sonaba muy prometedor.
Sin embargo, su opinión cambió el año pasado, cuando Google y OpenAI, crearon sistemas utilizando cantidades de datos mucho mayores, lo que preocupó a Hinton, quien consideró que podría “eclipsar la mente humana”, y en este sentido, el científico presentó su renuncia a Google al considerar que la carrera por el desarrollo de las IA’s plantea varios dilemas de orden ético y moral.
“Mire cómo era hace cinco años y cómo es ahora. Vea la diferencia y continúe hacia adelante. Eso asusta”, señaló Hinton, en su oportunidad.
Además, expresó su preocupación por el uso que se le puede dar a la Inteligencia Artificial, ya que “se puede volver peligroso”, tanto para los trabajos -en los que una persona podrá ser reemplazada por un ordenador-, como para el contenido que consumen las masas, y que ya no podrán discernir por sí mismos, lo que es falso y sobre lo que es real.
La persona promedio ya no podrá saber qué es verdad y qué no lo es: Un gran riesgo y peligro esto, para la humanización, que cada vez se ve más amenazada y el peligro de extinción.
La idea de que estas cosas en realidad podrían volverse más inteligentes que las personas, algunos lo creen […] Pero la mayoría de la gente piensa que aún eso, está muy lejos. Yo no lo creo, la deshumanización, a causa de la tecnología, se cierne sobre el mundo con gran vertiginosidad.
En lo particular, pensaba que faltaban entre 30 y 50 años o incluso más, para que esta Inteligencia Artificial llegara con tal fuerza a nuestro mundo, pero obviamente, ya no pienso eso.
Volviendo a Hinton, él considera que tanto Google como Microsoft, que son las empresas que se encuentran impulsando el desarrollo de las IAs, deberían frenar los trabajos, hasta entender con claridad, si es posible controlar este tipo de tecnología, la cual podría tender a fallar y a operar por su cuenta; es decir, volverse incontrolable.
Como es sabido, hoy día, un nuevo decodificador puede traducir a texto el significado aproximado de lo que una persona escucha o imagina, a partir de imágenes de su actividad cerebral.
Así, un estudio publicado recientemente por la revista Nature Neuroscience, presenta un nuevo decodificador que funciona a partir de la resonancia magnética funcional (IRMf) y que, a diferencia de otros, no requiere de cirugía neuroinvasiva para su uso.
El objetivo de la decodificación del lenguaje es hacer grabaciones de la actividad cerebral del usuario, y con ellas predecir las palabras que estaba oyendo o imaginando, según explicó el coordinador del estudio, Alexander Huth, de la Universidad de Texas, en Austin.
El nuevo dispositivo “no recupera las palabras exactas, eso es muy difícil usando este enfoque, pero se puede recuperar la idea general”, agregó otro de los firmantes, Jerry Tang, de dicho centro universitario.
Aproximadamente la mitad de las veces, cuando el decodificador ha sido entrenado para monitorear la actividad cerebral de un participante, la máquina produce un texto que se acerca mucho, a veces con precisión, al significado previsto de las palabras originales.
El equipo espera que, con el tiempo, esta tecnología ayude a volver a comunicarse a las personas mentalmente conscientes, que han perdido la capacidad de hablar por un accidente cerebrovascular o por una enfermedad, hasta ahí, eso es bueno, pero desafortunadamente, la IA no para ahí.
Otros dispositivos que han usado grabaciones no invasivas de la actividad cerebral, sólo decodificaban palabras sueltas o frases cortas, pero este puede traducir el sentido del lenguaje continuo y natural.
El cerebro no puede ser decodificado sin su cooperación.
El nuevo decodificador, que requiere horas de entrenamiento previo con el usuario, parte de las representaciones semánticas corticales registradas mediante IRMf, y genera secuencias de palabras inteligibles que recuperan el sentido del habla percibida, imaginada o incluso de vídeos mudos.
Los autores realizaron análisis de privacidad del descodificador y abordaron cuestiones relacionadas con el posible uso indebido de este tipo de tecnología.
“El cerebro de nadie puede ser decodificado sin su cooperación”, la cual es necesaria durante las horas de entrenamiento del dispositivo y para hacerlo funcionar. Si los pacientes oponen resistencia, los resultados serán inutilizables.
Tampoco se puede entrenar el decodificador con las IRMf de una persona, e intentar usarlo con otra, pues los resultados serían inválidos.
Los autores de estas investigaciones indican que se tomaban “muy en serio” la preocupación de que un dispositivo de este tipo, pudiera llegar a usarse con fines perversos y dicen haber trabajado para evitarlo. Hacemos votos por ello…
Sin embargo, Tang reconoció que todo puede cambiar, dependiendo de hacia dónde avance la tecnología, y que por ello hay que seguir investigando las implicaciones para la privacidad mental y ser proactivos con políticas que la protejan.
El decodificador, que ha sido usado con tres personas hasta el momento, se basa, en parte, en un modelo de transformador similar a los que impulsan ChatGPT de Open AI y Bard de Google.
El soundtrack de un viaje a Júpiter. Sobre esto, los investigadores registraron datos de IRMf de los participantes mientras escuchaban 16 horas de relatos narrativos, por ejemplo, en podcast, para entrenar el modelo en el mapeo de la actividad cerebral y las características semánticas que captan los significados de ciertas frases y las respuestas cerebrales asociadas.
Posteriormente, el sujeto escuchaba una nueva historia o la contaba en su imaginación para que la máquina generara secuencias de texto a partir de la actividad cerebral, captando los significados de las nuevas historias, así como algunas palabras y frases exactas.
Por ejemplo, un participante que escuchó a un orador decir: “Todavía no tengo la tarjeta de conducir”, sus pensamientos se tradujeron como: “Ella todavía no ha empezado a aprender a conducir”.
Mientras tanto, la frase: “No sabía si gritar, llorar o salir corriendo. En lugar de eso, se dijo: ‘¡Déjame en paz!”. Eso fue decodificado como: “Empecé a gritar y a llorar, y entonces ella sólo dijo: ‘Te dije que me dejaras en paz'”.
Los participantes también vieron cuatro videos cortos sin sonido mientras estaban en el escáner y el decodificador semántico fue capaz de utilizar su actividad cerebral, para describir con precisión determinados acontecimientos de las imágenes.
Sin lugar a dudas estos grandes avances, como dijo alguien, nos hacen avanzar a pasos agigantados en la modernidad tecnológica hacia el futuro; pero nos hace retroceder descomunalmente en convivencia y calidad humana, pienso.








