Al principio, se elogiaba su inmenso potencial y sus impresionantes capacidades: podía escribir una tesis en cuestión de segundos, redactar guiones para vídeos, resolver problemas de código e incluso dar recetas de cocina. Sin embargo, a medida que pasa el tiempo, hemos comenzado a descubrir las deficiencias de ChatGPT, y gran parte del entusiasmo inicial ha ido desvaneciéndose.

Límite de usuarios

Si eres de los que usa habitualmente ChatGPT, probablemente te hayas encontrado el infame aviso «ChatGPT está al máximo de su capacidad en este momento«. Esta herramienta de inteligencia artificial ha aumentado su popularidad en poco tiempo, y eso ha provocado una mala gestión del tráfico de usuarios. En abril de 2023, el tráfico se disparó a alrededor de 1760 millones de visitas diarias, por lo que es normal que en ocasiones se muestre sin acceso.

No obstante, ChatGPT Plus es su versión premium que promete acceso incluso durante las horas pico. De hecho, esa podría ser la razón principal de sus limitaciones de capacidad, por lo que no es un problema que vaya a desaparecer pronto.

Información plagiada

Desde que los estudiantes comenzaran a usar ChatGPT, se ha revelado que existe la posibilidad de que proporcione respuestas similares a preguntas iguales o parecidas. Esto significa que los usuarios corren el riesgo de plagio si usan las respuestas del chatbot con poca o ninguna modificación. No obstante, el chatbot de IA principalmente crea contenido original; puede ser idéntico, pero nunca palabra por palabra. Los casos de contenido plagiado coincidían con declaraciones genéricas en lugar de copiar y pegar de fuentes existentes.

Aun así, según los modelos de aprendizaje de ChatGPT, las respuestas no pueden considerarse «originales». Más bien, serán paráfrasis o reestructuraciones de fuentes existentes, lo que significa que el plagio sigue estando en el punto de mira.

Problemas de privacidad

Muchos acusan de que OpenAI puede haber recopilado información de los usuarios sin su consentimiento, lo cual infringe el Reglamento General de Protección de Datos. Además, parece que ChatGPT no ha alertado a las personas cuyos datos se utilizaron para entrenar la herramienta de IA, lo cual también constituye una violación de la privacidad. Los responsables del tratamiento de datos están legalmente obligados a proporcionar a los usuarios información sobre la recopilación y el uso de sus datos personales, para que puedan elegir no participar si lo desean.

Esta misma violación llevó a la prohibición temporal de ChatGPT en Italia. Sin embargo, OpenAI ha resuelto el problema mediante la implementación de un formulario que permite a los usuarios de la Unión Europea optar por no utilizar sus datos con fines de entrenamiento.

Datos inexactos

ChatGPT ha mostrado varias deficiencias y errores en su funcionamiento. En ocasiones, el chatbot proporciona respuestas incorrectas a preguntas básicas de matemáticas y lógica, así como comete errores en hechos históricos, médicos y tecnológicos. OpenAI reconoce estas limitaciones y advierte que el chatbot tiene un «conocimiento limitado de los eventos mundiales después de 2021» y que a veces puede ofrecer respuestas que suenan plausibles, pero son incorrectas o carecen de sentido.

El problema radica en el modelo de entrenamiento utilizado por OpenAI. A diferencia de otros asistentes de IA como Siri o Alexa, ChatGPT no consulta directamente Internet para obtener respuestas. En su lugar, genera respuestas paso a paso, basándose en suposiciones sobre qué palabras son más probables en función de los patrones aprendidos durante el entrenamiento con datos.

 

Fuente: Slash Gear | adslzone