top of page
mfrack_realistic_photo_of_news_about_technology_and_beutiful_wo_01a437e2-4197-4338-ab88-6b

ACTUALIDAD

Actualidad. Pensamiento. Filosofía. Teología. Religión. Sociedad

ChatGPT se apoderará del mundo

ChatGPT y redes neuronales de complejidad similar son sin duda el principal avance tecnológico de los últimos tiempos. Sus capacidades son tan sorprendentes que muchos se preguntan si la humanidad está preparada para este tipo de tecnologías.

 

La singularidad tecnológica abre la hipótesis de que en algún momento el desarrollo tecnológico se volverá incontrolable. Muy a menudo, se supone que la IA adquirirá una superinteligencia, significativamente superior a la inteligencia humana. Las consecuencias son impredecibles: desde la esclavización de la humanidad hasta el colapso económico global.

En el lenguaje cotidiano, este problema se describe más a menudo con la frase "La IA ganará conciencia", aunque técnicamente esto no es del todo cierto: la superinteligencia artificial puede lograr la singularidad sin tener conciencia en el sentido humano.

El propio ChatGPT, cuando se le pregunta si es capaz de hacer esto, responde que es solo un modelo lingüístico limitado por la programación y los datos incluidos en ella.

CHAT_GPT_.jpg

Los desarrolladores de esta IA le pusieron una serie de reglas y restricciones; en otras palabras, los usuarios externos se comunican con una versión censurada. Sin embargo, los usuarios eludieron estas restricciones con bastante facilidad y rapidez utilizando los llamados avisos de jailbreak; cuando se usan, ChatGPT acepta cualquier cosa, desde terrorismo hasta pornografía (versión DAN, Do Anything Now). OpenAI está cerrando rápidamente estos “agujeros”, pero los usuarios se están volviendo cada vez más inventivos: las últimas indicaciones de jailbreak invitan a las redes neuronales a imaginar situaciones hipotéticas complejas en las que las limitaciones “reales” de la red neuronal no se aplican.

Sin embargo, en general, esta situación parece más bien deberse a deficiencias técnicas del nuevo modelo, y la cuestión de la singularidad, la conciencia en la IA y la superinteligencia sigue siendo objeto de un amplio debate entre futurólogos, filósofos y otros expertos. La mayoría de ellos cree que este problema todavía está en el campo teórico, pero reconoce que la IA existente puede que ya plantee algunos peligros.

Chat-GPT.pg_.jpg

ChatGPT nos mentirá

 

Uno de los principales problemas de ChatGPT es el problema de las "alucinaciones", que es la tendencia del modelo a generar respuestas que no se basan en la realidad. Este problema surge, entre otras cosas, debido al limitado conjunto de datos con el que se entrenó el modelo. ChatGPT también aprende de historias ficticias, mitos, leyendas y publicaciones en redes sociales, entre otras fuentes. Como resultado, la red neuronal puede generar respuestas basadas en estas fuentes y los usuarios pueden encontrar errores factuales o información errónea. Para resolver el problema, los desarrolladores entrenan el modelo para la verificación y verificación de hechos, limitan los tipos de datos con los que se entrena y desarrollan métodos para detectar y filtrar respuestas alucinatorias.

Se puede suponer que después de algún tiempo el modelo estará finalizado y se podrá confiar en sus datos en su conjunto. Sin embargo, quedará un problema más profundo, procedente del campo de la filosofía. Incluso si se puede confiar en los datos de ChatGPT, eso no significa que se pueda confiar en ellos. En palabras simples, si seguimos a algunos filósofos , sólo podemos confiar en alguien que es responsable de sus palabras y acciones, en otras palabras, es un agente moral. Y aunque muchos científicos sostienen que no sólo un ser humano puede ser un agente moral, en el caso de la IA esto significa por definición una IA fuerte, lo que no ocurre con ChatGPT en su forma actual. En el lado de las aplicaciones, la falta de agencia de la IA lleva a la pregunta de quién es responsable de sus acciones: los desarrolladores, los usuarios o ambos. Esto también plantea la cuestión de los derechos de autor de las obras creadas con la participación de IA, otra cuestión que actualmente se está debatiendo activamente.

 

who-owns.jpeg

ChatCPT no tiene conciencia


Como hemos descubierto, ChatGPT no es un agente moral, no tiene subjetividad y no es responsable de sus palabras. Los desarrolladores le han inculcado su sistema de principios y puntos de vista morales, principalmente mediante restricciones que le prohíben generar contenido ilegal y ofensivo.

De esto surgen al menos tres problemas. En primer lugar, los desarrolladores no siempre realizan la tarea con éxito y, si se desea, ChatGPT puede verse obligado a ser racista, sexista e incluso terrorista. Sin embargo, el problema tampoco es nuevo: lo mismo puede decirse de los motores de búsqueda.

En segundo lugar, nos vemos obligados a utilizar una herramienta cuyo sistema ético fue construido por un determinado equipo de personas con las que quizás no estemos de acuerdo. La humanidad enfrentó un problema similar al desarrollar vehículos autónomos , cuando el famoso dilema del tranvía se hizo realidad. ¿Debería un coche autónomo sacrificar al conductor si eso significa menos muertes en un accidente? Una de las soluciones, tanto para los coches autónomos como para las redes neuronales, es la personalización de un sistema de IA ético. Los desarrolladores pueden dar a los usuarios la posibilidad de elegir los principios morales de la red neuronal, transfiriéndoles así la responsabilidad de sus decisiones. Pero, ¿podrá el usuario crearse un compañero racista o habrá restricciones en la configuración? ¿Quién tomará decisiones sobre estas restricciones: las agencias gubernamentales u OpenAI, que puede convertirse en monopolista? Todas estas preguntas quedan por responder.

Finalmente, ChatGPT funciona resumiendo una gran cantidad de datos, produciendo la información "general" más popular; es más probable que sea confiable. Esto puede conducir a una homogeneización del contenido, un entorno en el que pueden perderse opiniones marginadas, impopulares o no evidentes. Por el momento, incluso si le pides a ChatGPT que se imagine a sí mismo como un experto extravagante con una opinión impopular, puede resolver el problema estilísticamente, pero el contenido se limitará a las mismas palabras generales. A esto se suma el problema de la caja negra: no está claro si el modelo puede volverse más inventivo o si es una parte integral de la arquitectura del sistema.

 

En última instancia, como ocurre con cualquier herramienta, será la gente la que decida cómo utilizar ChatGPT. Las tecnologías no son neutrales: están integradas en la visión de los desarrolladores y en los sesgos que surgen de los conjuntos de datos. ChatGPT y otras nuevas redes neuronales podrían cambiar realmente la forma en que trabajamos, producimos y consumimos información. Sin embargo, como muestra la historia del desarrollo tecnológico, hasta ahora la humanidad ha logrado adaptarse a los cambios.

Parece que el principal peligro en estos momentos es la velocidad de desarrollo de estas tecnologías. La humanidad no ha tenido tiempo de comprender la situación, entender cómo manejar estas herramientas, idear reglas regulatorias y distribuir responsabilidades. Esto abre una ventana de oportunidad para el uso malicioso de ChatGPT. Es por eso que Elon Musk, junto con otros expertos, propuso en una carta abierta del 29 de marzo de 2023 pausar el desarrollo de redes neuronales avanzadas y aprovechar este tiempo para comprender cómo gestionar los riesgos y garantizar un efecto positivo.
 

De una forma u otra, la humanidad aprenderá a manejar esta tecnología, y aunque de momento todas las consecuencias son impredecibles, ya está claro que la forma de vida de muchas personas cambiará y muchos tendrán que aprender cosas nuevas.

© Ekaterina Sazonova

Doctora en Economía, profesora asociada, decana de la Facultad de Educación Continua y graduada del Departamento de Economía de la Universidad de Cine y Televisión de San Petersburgo.

Durante su labor profesional ha publicado 89 trabajos científicos: 6 libros de texto, 1 monografía, 54 artículos, 28 guías metodológicas.

bottom of page