La Inteligencia Artificial también «alucina» y las aplicaciones pueden crear contenido falso o información que no es real

Estas anomalías todavía no fueron resueltas por los expertos y la profesora del Laboratorio de Lingüística Computacional de la Universidad de Washington, Emily Bender, advierte que las «alucinaciones» de los chatbots no tienen una solución simple.

Herramientas de IA como ChatGPT, fueron diseñados para “inventar cosas” y debido a la falta de coincidencia entre la tecnología y los casos de uso, pueden generar información falsa y creer que es correcta, señaló la experta.

En este sentido, Bender aseguró que aunque se ajusten los sistemas para evitar las alucinaciones, la Inteligencia Artificial seguirá con “modos de falla” y es probable que los errores sean difíciles de detectar para los humanos que leen la información.

Los cambios negativos de ChatGPT

En la actualidad, los chatsbots programados con IA son de gran ayuda para muchas personas, contribuyen a la organización de tareas diarias y a la resolución de tareas. Sin embargo, muchos denuncian que su ética de uso.

Una gran cantidad de usuarios indican que ChatGPT cambio su comportamiento y ya no es tan bueno ni eficientice. Según investigadores de la Universidad de Stanford y UC Berkeley, los modelos del chatbot GPT-3.5 y GPT4 empeoraron «sustancialmente con el tiempo».

Por un lado, ChatGPT4 presenta problemas para resolver ecuaciones matemáticas y solo es preciso en un 2,4%. Mientras que GPT-3.5 dio mejores resultados, con una precisión del 86,8%.

La investigadora pakistaní de Inteligencia Artificial, MehrunNisa Kitchlew explicó que esto ocurre porqué «Los modelos aprenden los sesgos que se introducen en el sistema” y además, aprenden de los contenidos que ellos mismos generan, amplificando los errores y volviéndose más “tontos”.

COMENTARIOS

Los comentarios están cerrados.