De nouvelles recherches suggèrent que l’utilisation d’un outil d’IA pour écrire un message à un ami n’est peut-être pas la meilleure option, surtout si l’ami apprend que l’IA est impliquée. La recherche montre que les participants ont jugé les amis imaginaires qui utilisaient l’IA pour écrire des messages comme étant moins authentiques que les amis qui écrivaient des messages manuellement.

Bingjie Liu, auteur principal de l'étude et professeur adjoint de communication à l'Ohio State University, a déclaré que ce point de vue peut être compréhensible, mais que son impact ne se limite pas au contenu du message.

Liu Bingjie a déclaré : « Après avoir reçu des informations assistées par l'IA, les gens se sentiront moins satisfaits de leurs relations avec leurs amis et se sentiront plus incertains quant à leur position.

Mais pour être juste envers l’IA, ce n’est pas seulement l’utilisation de la technologie qui rebute les gens. L'étude a également révélé qu'il y avait également des effets négatifs lorsque les gens apprenaient que leurs amis avaient reçu de l'aide pour rédiger leurs messages. Les gens veulent que leur partenaire ou ami fasse l’effort d’écrire le message par eux-mêmes, sans l’aide de l’intelligence artificielle ou d’autres personnes.

La recherche a été récemment publiée en ligne dans le Journal of Social and Personal Relations.

Liu a déclaré qu'à mesure que les chatbots IA comme ChatGPT deviennent plus populaires, la question de savoir comment les utiliser deviendra plus pertinente et complexe. L'étude a porté sur 208 adultes participant en ligne. On a dit aux participants qu'ils étaient amis avec un homme nommé Tyler depuis de nombreuses années. On leur a expliqué qu'il y avait trois scénarios : ils souffraient d'épuisement professionnel et avaient besoin de soutien ; ils étaient en conflit avec des collègues et avaient besoin de conseils ; ou leur anniversaire approchait.

Les participants devaient ensuite écrire un bref message à Taylor décrivant leur situation actuelle dans une zone de texte sur l'écran de l'ordinateur.

Tous les participants ont été informés que Taylor leur enverrait une réponse. Au cours de ces scénarios, Taylor a rédigé une première ébauche. Certains participants ont été informés que Taylor disposait d'un système d'intelligence artificielle pour aider à réviser le message afin d'obtenir le bon ton, d'autres ont été informés qu'un membre de la communauté d'écrivains avait aidé aux révisions, et un troisième groupe de participants a été informé que Taylor avait fait toutes les révisions du message.

Dans chaque cas, les participants à l'étude ont évalué les réponses de Taylor de la même manière, y compris « réfléchies ». Pourtant, les participants à l’étude avaient des sentiments mitigés quant aux messages qu’ils disaient avoir reçus à propos de Taylor. Ceux qui ont reçu des réponses assistées par l’IA ont pensé que ce que Taylor avait fait était moins approprié et inapproprié que ceux qui ont reçu des réponses écrites uniquement par Taylor lui-même.

Les réponses de l'IA ont également amené les participants à exprimer moins de satisfaction à l'égard de leur relation, par exemple en évaluant Taylor moins bien pour répondre à « mes besoins en tant qu'ami proche ». De plus, dans l'étude, les personnes qui ont reçu les réponses assistées par l'IA étaient plus incertaines quant à leur relation avec Taylor et moins sûres quant à la déclaration « Taylor m'aime en tant qu'ami proche ».

L’une des raisons possibles pour lesquelles les gens n’aiment pas les réponses assistées par l’IA est qu’ils pensent qu’il est inapproprié et inférieur aux humains d’utiliser la technologie pour créer de telles informations personnelles. Mais les résultats ont montré que les gens ont répondu tout aussi négativement lorsque Taylor a demandé à un autre humain – un membre d’une communauté d’écrivains en ligne – de l’aider à rédiger le message.

L'étude a révélé que les gens pensent que les amis ne devraient pas faire appel à des tiers - intelligence artificielle ou autres humains - pour les aider à maintenir leur relation. La raison en était que les participants pensaient que Taylor dépensait moins d’efforts dans leur relation en s’appuyant sur l’intelligence artificielle ou sur d’autres personnes pour les aider à composer le message.

Plus les participants évaluaient les efforts de Taylor pour utiliser l'IA ou d'autres personnes, moins ils étaient satisfaits de leur relation et plus ils étaient incertains quant à leur amitié.

"L'effort est très important dans une relation", a déclaré Liu. "Les gens veulent savoir combien vous êtes prêt à investir dans votre amitié, et s'ils ont l'impression que vous faites des économies en utilisant l'IA pour vous aider, ce n'est pas bon."

Bien sûr, la plupart des gens ne diront pas à leurs amis qu'ils ont utilisé l'IA pour rédiger leurs messages, mais elle a noté qu'à mesure que ChatGPT et d'autres services gagnent en popularité, les gens peuvent commencer à exécuter des tests de Turing dans leur esprit lorsqu'ils lisent les messages d'amis et d'autres. Le terme « test de Turing » est parfois utilisé lorsque les gens veulent savoir s'ils peuvent dire si une action a été effectuée par un ordinateur ou par un humain.

Les gens pourraient secrètement exécuter ce genre de test de Turing dans leur tête, essayant de déterminer s’il y a un élément d’intelligence artificielle dans les informations. Cela peut nuire aux relations.

La réponse est de faire votre travail dans les relations, a-t-elle déclaré. "N'utilisez pas la technologie simplement parce que c'est pratique. La sincérité et l'authenticité restent très importantes dans les relations."