ChatGPT es una aplicación de mensajería automática basada en un modelo de lenguaje de  inteligencia artificial. El uso de la plataforma ha sido de controversia no solo por el uso que le pueden dar los estudiantes para hacer sus tareas escolares, sino por su imprecisión en datos, falta de citas, racismo, de sexismo y homofobia.

Fue creada por Open AI, una organización que inicialmente se presentó como sin fines de lucro en el 2015 cuando fue fundada por Elon Musk, Sam Altman y otros empresarios, pero luego hizo su transición a con fines de lucro en 2019. Desde entonces, la misma ha acogido a inversionistas millonarios como Microsoft y han introducido varios modelos, entre ellos GPT-3, DALL-E y el más reciente GPT-4.

Estas plataformas se pueden usar para traducir textos de un idioma a otro, hacer códigos de programación y resolución de errores, generar diálogos o textos de un máximo de 4,000 carácteres y respuestas rápidas a preguntas, entre otros usos. 

ChatGPT específicamente está disponible al público desde noviembre del año pasado. Desde entonces, su uso ha sido un tema de controversias en muchos ámbitos, específicamente en espacios académicos y de instrucción pública.

“Digamos que las personas pasen de usar Google a ChatGPT y de la misma manera que un usuario le pide a Google recomendaciones de restaurantes, le pide a ChatGPT información sobre las próximas elecciones o sus candidatos. ¿Puede esta herramienta ofrecer detalles objetivos o corremos el riesgo de que las respuestas de esta plataforma estén configuradas en base a los intereses políticos de los desarrolladores de esta plataforma o incluso sus inversionistas?”, planteó el experto en tecnología Obed Borrero Nogueras en relación a las preocupaciones existentes. 

Se ha comprobado que estas aplicaciones, en ocasiones, han hecho comentarios racistas o homofóbicos, explicó Borrero Nogueras. 

Dado a las controversias provocadas por el programa GPT3, OpenAI utilizó trabajadores subcontratados de Kenia que ganaban menos de $2 por hora para mejorar la plataforma y evitar “toxicidad” en ChatGPT, según un artículo de Times Magazine.

No obstante, según la empresa de inteligencia artificial, como la herramienta fue entrenada en cientos de miles de millones de palabras extraídas de Internet, que representan un vasto repositorio de lenguaje humano, los prejuicios que lo acompañan son inevitables y difíciles de corregir. Por esta razón, a pesar de sus esfuerzos por corregir las tendencias misóginas, racistas, homófobas, entre otras, no ha sido posible eliminarlo del todo.

“Ese enorme conjunto de datos de entrenamiento fue la razón de las impresionantes capacidades lingüísticas de GPT, pero también fue quizás su mayor maldición”, establece el artículo de Times.

Asimismo, en consonancia con las declaraciones de Borrero y el artículo Times, la psicóloga industrial y organizacional, Lucía Betancourt Ward, describió al proyecto como uno que está aún en una fase exploratoria y advirtió sobre el peligro que pudiesen implicar los sesgos de la plataforma. 

“ChatGPT es una oportunidad para potenciar ideas humanas. No obstante, es necesario que se cree la debida legislación y regulación de esta herramienta para poder obtener un aprovechamiento adecuado y cónsono con el crecimiento humano”, comentó Betancourt Ward.

En este marco, Italia fue el primer país occidental en prohibir el uso de la plataforma a partir de marzo 31 como medida temporal. La iniciativa italiana fue apoyada por políticos de España y Francia que consideraron imponer la misma limitación. Al día de hoy la plataforma se usa en los tres países tras las promesas de la Unión Europea (UE) por limitar el uso de la inteligencia artificial y ChatGPT. La UE anunció en febrero un proyecto de ley “más rígido” al indicar que estarán estableciendo restricciones.

Por su parte, el Reino Unido y Estados Unidos han sido más conservadores a la hora de ofrecer declaraciones sobre cómo manejar la inteligencia artificial. A pesar de que algunos sistemas de educación pública, tal como el de Nueva York, han optado por restringir el uso de estas plataformas, el gobierno ha evitado implementar sanciones a nivel nacional. 

A su vez, el Reino Unido propuso que hayan reguladores que supervisen en compañías de distintos sectores que usen la inteligencia artificial, sin especificar a Chat GPT. Sin embargo, no han expresado tener planes para establecer legislaciones que lo limiten. Mientras, la herramienta no está disponible en Corea del Norte, Irán, Cuba, Siria, Rusia, China, entre otros países con mayores controles de Internet.  

“Es muy alarmante, más aún con la desinformación. Tiene que haber un equipo de personas cotejando estos datos. Crea malos entendidos en la comunicación al repetir tantas cosas. También, hay un tema de plagio, cuando le pides que te cree algo, lo está creando o está tomando pedazos de artículos ya publicados sobre el tema y plagiando a otro u otros autores. No creo que se tenga que prohibir, es buscar la manera de usarlo éticamente, mejorar sus retos. Esto también va a traer nuevas legislaciones”, sostuvo.

Asimismo, según la empresa española de transparencia y acceso a la información Newtral

ChatGPT ha sido entrenada plagiando artículos de medios como El País, elDiario.es, Marca, Infobae, El Universal, Reuters, The New York Times, The Guardian, BBC News, The Wall Street Journal, CNN, The Washington Post, Associated Press, entre otros. Tanto El País como elDiario.es afirmaron a Newtral no tener ningún acuerdo con OpenAI para ingerir sus contenidos. Mientras, en febrero el Wall Street Journal y CNN criticaron que OpenAI utilizaran artículos de sus periodistas para entrenar su IA sin pagar las licencias correspondientes.

Esta situación, subraya aún más los problemas de propiedad intelectual que tiene la plataforma. Por encima de esto, la plataforma no cita a los autores de sus escritos o trabajos.

También, la plataforma ha sido criticada por muchos artistas, como Santiago Caruso, ilustrador argentino con legado de 22 años, cuyo nombre es usado como premisa para crear arte semejante a su trabajo para el beneficio de otras personas. En este momento, hay cuatro demandas legales contra empresas de IA por violar derechos de propiedad intelectual en el entrenamiento de sus sistemas.  

Por estas razones, aunque para muchos usuarios, esta herramienta de mensajería automática puede parecer real, los expertos entrevistados por Es Mental aseguran que no llega a tener la capacidad necesaria para ejercer muchos trabajos. De hecho, según Business Insider, ChatGPT representa lo último en tecnología, conocido como «herramientas modelo de lenguaje grande», pero no habla con sensibilidad ni «piensa» como una persona. 

Eso significa que, a pesar de que ChatGPT puede explicar la física cuántica o escribir un libro con un comando, la conquista completa de inteligencia artificial en las tareas humanas no es inminente ni total, según los expertos entrevistados por Es Mental. 

Por un lado, tiene muchos beneficios, como crear código, evaluación de desempeño, escribir correos electrónicos, estableció Betancourt Ward. No obstante, aunque pudiesen ser consideradas una oportunidad para hacer trampa para hacer las tareas diarias y posiblemente crear muletillas dentro del aprendizaje de las personas, no puede competir con la creatividad y el desempeño humano, concluyó la experta.

“Queda claro que aún falta por ser trabajada y mejorada, pero representa un avance importante. Estos errores son parte del proceso de adiestramiento”, añadió Borrero Nogueras.