Presque à l’improviste, il est devenu populaire d’utiliser l’intelligence artificielle pour générer des histoires au coucher, des lettres d’amour, des essais de lycée, même des conseils en santé mentale (sans parler des œuvres d’art primées). De nombreuses personnes ne sont pas à l’aise avec le contenu créé par des robots et peuvent se sentir trompées.
Les chercheurs et autres programmeurs ont pris sur eux de créer des outils pour aider les gens à comprendre ce qui est sorti de l’esprit d’un humain et ce qui a été bricolé par un bot. Mais dans une période d’avancement rapide comme celle-ci, tout outil peut avoir du mal à suivre.
Daniel Morgan, qui souffre de dyslexie, dit qu’il a utilisé AI-сhat pour l’aider à rédiger des articles de blog pour sa société d’investissement et de courtage immobilier, Marterra Group.
AI-chat a fait craindre que les étudiants ne l’utilisent pour rédiger des dissertations et d’autres travaux d’écriture – bien que les enseignants soient toujours susceptibles de repérer les erreurs et autres fautes. Le ministère de l’Éducation de la ville de New York, par exemple, a récemment interdit l’accès au produit pour ses réseaux et appareils. Les gens d’autres industries craignent également que les travailleurs l’utilisent comme raccourci pour les affectations de travail.
Et, par exemple, l’existence d’un tas de programmes et de chats pour trouver les marques de l’IA dans le texte vous montre la probabilité que le texte soit faux ou réel. Le logiciel évalue le texte en fonction d’une poignée de facteurs. Une mesure clé qu’il utilise est la tendance des gens à utiliser une plus grande variation dans le choix des mots et la longueur des phrases, tandis que le texte de l’IA est plus cohérent.
Ainsi, la meilleure solution est une plate-forme qui peut combiner une variété de résultats différents pour déterminer le degré d’authenticité d’un contenu.