Vamos a una IA más avanzada que se volverá más humana,  responderá cosas más complicadas. Así lo refleja recientemente un artículo de Nature

image_print

Vamos a una IA más avanzada que se volverá más humana, responderá cosas más complicadas. Así lo refleja recientemente un artículo de Nature.

Pero también nos engañará con más naturalidad haciendo pasar por veraces respuestas incorrectas

El estudio original, publicado en la revista Nature, examinó algunos de los LLM de tipo comercial más importantes de la industria, modelos cada vez más potentes con cada iteración, pero que a medida que crecen se están demostrando menos confiables.

Los chatbots más modernos y potentes se creen demasiado listos, así que se dedican a inventar hechos y respuestas en lugar de rechazar las preguntas para las que no conocen una solución válida. Huelga decir que hablamos de GPT de OpenAI, LLaMA de Meta o BLOOM de BigScience, que son tres de las opciones más importantes.

Evidentemente, las IAs se están volviendo mucho más precisas e inteligentes, pero eso tiene una consecuencia indeseada, pues también son capaces de fingir mejor que están bien entrenadas, y, por tanto, podrán entregarnos respuestas convincentes que son totalmente falsas.

El debate está en que el problema ya no es tanto preguntarles cosas muy complejas, pues a medida que avanzan son más capaces de responder estas preguntas, sino que el gran inconveniente está en que continúan fallando preguntas fáciles, con niveles de precisión en torno al 60% en el estudio realizado.

Esto último sí es preocupante, pues los humanos implicados en el estudio percibieron las respuestas de la IA como precisas siendo incorrectas en muchas ocasiones, equivocándose entre un 10 y un 40 por ciento de las veces por lo convincente que fue la IA.

Los investigadores lo tienen claro, lo ideal sería programar a los chatbots y LLMs para que eviten responder a todo de forma sistemática, sobre todo cuando no tienen claro el contexto o no pueden verificar ni contrastar que su información sea correcta.

Esto, sin embargo, es desafiar los intereses de la industria, de la empresas y de un negocio multimillonario en el que todos quieren posicionarse como estándares de facto, y donde un chatbot que fuese honesto y diga que no sabe ciertas cosas se vería como limitado complicando su penetración en el mercado respecto a otras opciones que sí respondan a todo, aun a riesgo de equivocarse.

Para ello se requiere nuevas formas de pensamiento crítico, con mayor conexión y sensibilidad.  En concreto, el pensamiento crítico será el protagonista. Y por centrarnos un poco, recordemos que el pensamiento crítico es la capacidad de obtener una comprensión sólida, fiable y lo más veraz posible de la información y, a continuación, utilizar esa comprensión para tomar decisiones sensatas basadas en ese conocimiento. Esto significa escudriñar la información, cuestionar los supuestos y asegurarse de que las conclusiones se apoyan en pruebas sólidas. El pensamiento crítico humano involucra una comprensión profunda de contextos, conexiones, autoconciencia y posibles implicaciones éticas y sociales

Existen al menos tres talentos humanos que la IA no reemplazará o no debería poder lograrlo.

1-Curiosidad: Poder realizar nuevas preguntas.
2-Humildad: La autoconciencia, pedir  feedback  y la reflexión interna.
3-Inteligencia Emocional: Poder establecer conexiones humanas, prácticar la empatía y el amor por el prójimo, la comunicación con sensibilidad.

#CienciaParaLaVida 

https://www.nature.com/articles/s41586-024-07930-y?s=35

Loading

Facebook
Telegram
Email