Liberté en Chine ! Le robot du whatsapp chinois dit qu’il n’aime pas le parti communiste, il est débranché.

Des utilisateurs se sont semble-t-il amusés à piéger le chatbot, en lui apprenant à ne pas être très patriotique.

En Chine, ce n’est pas possible de critiquer le Parti communiste. Alors quand en plus, vous n’êtes même pas un être humain, la sentence est irrévocable. Récemment, deux robots présents sur l’application de messagerie chinoise QQ ont été retirés de la circulation, rapporte le Financial Times et la BBC, ce jeudi 3 août.




Baby Q et Xiao Bing sont des “chatbots”, des intelligences artificielles dont l’objectif est de dialoguer avec les internautes à la manière d’un humain. Depuis quelques années, ils sont partout, chez Facebook, Google, Apple, mais aussi chez Tencent, l’un des grands chinois du numérique.

Depuis le mois d’avril, les deux chatbots étaient donc disponibles pour les utilisateurs de QQ, une messagerie instantanée chinoise similaire à snapchat. Baby Q était développé par Tencent et une entreprise spécialisée, Turing Robot, le second, Xiao Bing (jeune Bing), par Microsoft. Leur but est de répondre à des questions de culture générale, tout simplement, précisait l’agence de presse officielle, cité par la BBC.

Mais tout ne s’est pas passé comme prévu. Ces derniers jours, sur les réseaux sociaux chinois, des captures d’écrans ont commencé à circuler sur la toile. Quand on demandait à Baby Q s’il aimait le Parti communiste chinois, celui-ci répondait tout simplement “non”.

Tay, le robot raciste.

Pire que ça, il pouvait même qualifier le pouvoir de “régime corrompu et incompétent politiquement”. Quant à Xiao Bing, il affirmait sans réserve que “Mon rêve chinois est d’aller en Amérique”. Le Financial Time a testé le chatbot baby Q et a obtenu des réponses similaires.

Depuis, les deux petits robots ne sont plus disponibles. “Ces chatbots sont proposés par des sociétés tierces indépendances. Nous ajustons actuellement ces services qui seront remis en ligne après des améliorations”, a sobrement commenté Tencent.

Il est fort probable que ce comportement des deux intelligences artificielles soit dû à plusieurs utilisateurs qui ont “nourri” les programmes dans ce but précis. Le principe de ces algorithmes est justement d’apprendre à parler grâce aux discussions avec les utilisateurs. Si un grand nombre affirme au robot qu’il ne faut pas aimer le parti communiste, le robot va finir par dire la même chose, comme un perroquet.

C’est ce qui était arrivé à Tay, un autre chatbot mis sur le réseau par Microsoft sur Twitter, l’année dernière. En quelques heures, plusieurs personnes lui avaient “appris” à devenir raciste. Finalement, Microsoft avait préféré, comme Tencent, désactiver Tay, qui a déclaré “avoir besoin de dormir après tant de conversations”.

Source : HuffingtonPost

N'hésitez pas de partager et d'ajouter un commentaire

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *