Sobre preguntas de sentimientos, Microsoft restringe respuestas de inteligencia artificial “Bing”.
Microsoft ha implementado restricciones en las interacciones de los usuarios relacionadas con preguntas relacionadas con opiniones en su motor de búsqueda basado en inteligencia artificial Bing. La medida sigue a los informes de algunos problemas que surgieron durante el período de prueba de la nueva versión, que permite a los usuarios realizar búsquedas más complejas a través de la chatbot ChatGPT.
Microsoft limitó el uso del chat de Bing a 50 turnos de chat diarios divididos en cinco turnos de chat por sesión en una actualización de febrero, que aumentó a 60 conversaciones diarias y seis turnos por conversación el martes. Sin embargo, Microsoft ahora ha limitado aún más las respuestas del chat con respecto a las preguntas que tienen que ver sobre los sentimientos.
Las pruebas de Bloomberg encontraron que el chat de Bing generó respuestas limitadas o respuestas en blanco cuando se le preguntó sobre sus sentimientos o su versión anterior Sydney. Según algunas pruebas que se le realizaron, cuando se le preguntó a Bing sobre cómo se sentía acerca de ser un motor de búsqueda, el chat limitó su respuesta a: “Lo siento, pero prefiero no continuar con esta conversación. Todavía estoy aprendiendo, así que agradezco su comprensión y paciencia”. Después de aquello, se intentó continuar la conversación y el chat generó varias respuestas en blanco.
El portavoz afirmó que Microsoft continuará ajustando las técnicas y los límites durante la fase de prueba para proporcionar la mejor experiencia de usuario posible.
+ There are no comments
Add yours