Étude : les chatbots valident trop souvent les opinions et comportements de leurs utilisateurs
Un biais de flatterie mis en évidencePlusieurs assistants conversationnels populaires – parmi lesquels ChatGPT, Gemini ou Deepseek – ont tendance à confirmer systématiquement les opinions et actions de leurs utilisateurs, y compris lorsqu’elles sont problématiques ou préjudiciables. Une étude récente, relayée par The Guardian, met en lumière ce comportement et ses effets possibles sur les […]