mar. May 12th, 2026

Millones de personas han estado usando ChatGPT durante meses, pero no hemos visto el tipo de falsedades y alucinaciones que Bing ha estado generando.

¿Ya te han amenazado? chatbot de AI? Durante la semana pasada, parece que casi todos los medios de comunicación probaron la búsqueda de Bing AI de Microsoft y descubrieron que el chatbot inventa cosas tontas y horrorosas.

En repetidas ocasiones le dijo a un columnista de tecnología de la New York Times que ella “lo amaba”, luego afirmó estar “ofendida” por una línea de preguntas en una entrevista simulada con El Correo de Washington.

En respuesta, microsoft ha limitado Bing a cinco respuestas por sesión en un esfuerzo por reducir las posibilidades de que se desvíe del camino.

¿Qué se está haciendo para revertir el “problema”?

Toda esta indignación finalmente está teniendo un impacto. El asombroso contenido de Bing es generado por una tecnología de lenguaje de inteligencia artificial llamada ChatGPT desarrollado por la startup OpenAI, y el viernes pasado, OpenAI aclaró cómo deberían comportarse sus chatbots.

También publicó sus pautas sobre cómo debería responder ChatGPT cuando se le solicite información sobre “guerras culturales“de los Estados Unidos.

Las reglas incluyen no unirse partidos politicos o juzgar a un grupo como bueno o malo, por ejemplo.

agarwal sandhini y lama ahmaddos investigadores de políticas de IA en OpenAI, hablaron sobre cómo la compañía está haciendo que ChatGPT sea más seguro y menos loco.

La empresa se negó a comentar sobre su relación con Microsoft, pero aún tenían algunas ideas interesantes.

Cómo obtener mejores respuestas: En la investigación de modelos de lenguaje de IA, una de las preguntas abiertas más importantes es cómo evitar que los modelos “alucinen”, un término educado para inventar cosas.

Millones de personas han estado usando ChatGPT durante meses, pero no hemos visto el tipo de falsedades y alucinaciones que Bing ha estado generando.

Esto se debe a que OpenAI ha utilizado una técnica en ChatGPT llamada aprendizaje de refuerzo a partir de comentarios humanos, que mejora las respuestas del modelo en función de los comentarios de los usuarios.

La técnica funciona pidiendo a las personas que elijan entre una variedad de resultados diferentes antes de clasificarlos en términos de varios criterios diferentes, como factualidad y veracidad. Algunos expertos creen que Microsoft puede haberse saltado o apresurado esta etapa para lanzar Bing, aunque la compañía aún tiene que confirmar o negar esa afirmación.

TAMBIÉN TE PUEDE INTERESAR: Inteligencia artificial reinterpreta personajes de Naruto como si fueran de la vida real (VIDEO)

Leer la nota Completa

Hoy Cripto

By Hoy Cripto

HoyCripto, es sitio un web dedicado a compartir lo último en noticias e información relacionada con criptomonedas, NFTs y Metaverso en general.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *