Il y a quelques années, un client m’a demandé de former une IA de contenu pour faire mon travail. J’étais en charge du contenu d’une newsletter envoyée à plus de 20 000 dirigeants C-suite. Chaque semaine, j’ai organisé 20 articles bien écrits et pertinents pour le sujet à partir de dizaines de publications tierces.

Mais le client a insisté sur le fait qu’il voulait que l’IA de contenu sélectionne les articles à la place, dans le but ultime d’automatiser entièrement la newsletter.

J’étais légitimement curieux de savoir si nous pouvions le faire et combien de temps cela prendrait. Au cours de l’année suivante, j’ai travaillé avec un partenaire commercial et un scientifique des données pour déconstruire ce qui rend les articles « bons » et « intéressants ». Notre résultat final était… médiocre.

L’IA pouvait faire apparaître des articles similaires à ceux avec lesquels le public s’était engagé dans le passé, réduisant ainsi le temps dont j’avais besoin pour organiser le contenu d’environ 20 %. Il s’avère qu’il y avait beaucoup de choses que nous pouvions enseigner à une IA sur la “bonne” écriture (phrases actives, verbes variés), mais nous ne pouvions pas la rendre intelligente – ce qui est une autre façon de dire que nous ne pouvions pas lui apprendre à reconnaître la nature ineffable d’une nouvelle idée ou d’une façon dynamique d’en parler.

En fin de compte, mon client a mis fin au projet d’IA et finalement à la newsletter elle-même. Mais j’ai pensé à cette expérience au cours des derniers mois en tant que grands modèles de langage (LLM) comme GPT-3 par OpenAI ont attiré l’attention du grand public.

Je me demande si nous aurions mieux réussi aujourd’hui en utilisant une API dans GPT-3 ?

GPT-3 est la base de produits plus familiers comme ChatGPT et Jasper, qui ont une capacité impressionnante à comprendre les invites linguistiques et à rédiger un texte pertinent à la vitesse de l’éclair sur presque tous les sujets.

Jasper prétend même il permet aux équipes de « créer du contenu 10 fois plus rapidement ». Mais la grammaire problématique d’obtenir 10 fois plus vite à quelque chose (je pense qu’ils veulent dire que cela prend un dixième du temps ?) Met en évidence le revers négatif de l’IA de contenu.

j’ai écrit sur le substance superficielle du contenu généré par l’IA et comment ces outils invente souvent des trucs. Aussi impressionnants soient-ils en termes de rapidité et de fluidité, les grands modèles de langage d’aujourd’hui ne pensent pas ou ne comprennent pas la façon dont les humains le font.

Et s’ils le faisaient ? Et si les limitations actuelles de l’IA de contenu – les limitations qui maintiennent fermement le stylo entre les mains des écrivains et des penseurs humains, tout comme je m’y suis accroché dans ce travail de newsletter – étaient résolues ? Ou plus simplement : et si l’IA de contenu était réellement intelligente ?

Passons en revue quelques façons dont l’IA de contenu est déjà devenue plus intelligente et comment les professionnels du contenu peuvent utiliser ces avancées de l’IA de contenu à leur avantage.

5 façons dont l’IA de contenu devient plus intelligente

Pour comprendre pourquoi l’IA de contenu n’est pas encore vraiment intelligente, il est utile de récapituler comment fonctionnent les grands modèles de langage. GPT-3 et “modèles de transformateurs” (comme Palm de Google ou AlexaTM 20B par Amazon) sont des réseaux de neurones d’apprentissage en profondeur qui évaluent simultanément toutes les données (c’est-à-dire les mots) dans une séquence (c’est-à-dire une phrase) et les relations entre elles.

Pour les former, les développeurs d’Open.ai, dans le cas de GPT-3, ont utilisé du contenu Web, qui a fourni beaucoup plus de données de formation avec plus de paramètres qu’auparavant, permettant des sorties plus fluides pour un ensemble plus large d’applications. Cependant, les transformateurs ne comprennent pas ces mots ni à quoi ils se réfèrent dans le monde. Les modèles peuvent simplement voir comment ils sont souvent ordonnés dans les phrases et la relation syntaxique entre elles.

Par conséquent, l’IA de contenu d’aujourd’hui fonctionne en prédisant les mots suivants dans une séquence basée sur des millions de phrases similaires qu’elle a vues auparavant. C’est une des raisons pour lesquelles les “hallucinations” – ou informations inventées – ainsi que la désinformation sont si courantes avec les grands modèles de langage. Ces outils créent simplement des phrases qui ressemblent à d’autres phrases qu’ils ont vues dans leurs données de formation. Les inexactitudes, les informations non pertinentes, les faits démystifiés, les fausses équivalences – tout cela – apparaîtront dans le langage généré s’il existe dans le contenu de la formation.

Et pourtant, ce ne sont pas forcément des problèmes insolubles. En fait, les scientifiques des données disposent déjà de plusieurs moyens pour résoudre ces problèmes.

Solution n°1 : Invite de contenu par IA

Quiconque a essayé Jaspe, Copie.ai, ou une autre application d’IA de contenu est familière avec les invites. En gros, vous dites à l’outil ce que vous voulez écrire et parfois comment vous voulez l’écrire. Il y a des invites simples – comme dans “Énumérez les avantages de l’utilisation de l’IA pour écrire des articles de blog”.

Les invites peuvent également être plus sophistiquées. Par exemple, vous pouvez saisir un exemple de paragraphe ou de page de texte rédigé selon les règles et la voix de votre entreprise, et demander à l’IA de contenu de générer des lignes d’objet, une copie sociale ou un nouveau paragraphe dans la même voix et en utilisant le même style.

Les invites sont une méthode de première ligne pour définir des règles qui limitent la sortie de l’IA de contenu. Garder vos invites ciblées, directes et spécifiques peut aider à limiter les risques que l’IA génère des copies hors marque et mal informées. Pour plus de conseils, Découvrez les neuf règles du chercheur en intelligence artificielle Lance Elliot pour composer des invites afin de limiter les hallucinations.

Solution n° 2 : Invite de « chaîne de pensée »

Réfléchissez à la manière dont vous résoudriez un problème de mathématiques ou donneriez à quelqu’un des indications dans une ville inconnue sans panneaux de signalisation. Vous décomposeriez probablement le problème en plusieurs étapes et résoudriez pour chacune, en tirant parti du raisonnement déductif pour trouver votre chemin vers la réponse.

Chaîne de pensée incitant exploite un processus similaire consistant à décomposer un problème de raisonnement en plusieurs étapes. L’objectif est d’amorcer le LLM pour produire un texte qui reflète quelque chose ressemblant à un processus de raisonnement ou de pensée de bon sens.

Les scientifiques ont utilisé des techniques de chaîne de pensée pour améliorer les performances du LLM sur des problèmes mathématiques ainsi que sur des tâches plus complexes, telles que l’inférence – que les humains font automatiquement en fonction de leur compréhension contextuelle du langage. Des expériences montrent qu’avec une chaîne d’incitations à la pensée, les utilisateurs peuvent produire des résultats plus précis à partir des LLM.

Certains chercheurs s’efforcent même de créer des modules complémentaires aux LLM avec une chaîne d’invites de pensée pré-écrites, de sorte que l’utilisateur moyen n’ait pas besoin d’apprendre à les faire.

Solution n°3 : affiner le contenu de l’IA

Le réglage fin consiste à prendre un grand modèle de langage pré-formé et le former pour accomplir une tâche spécifique dans un domaine spécifique en l’exposant à des données pertinentes et en éliminant les données non pertinentes.

Un modèle de langage de données affiné possède idéalement toute la reconnaissance linguistique et la fluidité générative de l’original, mais se concentre sur un contexte plus spécifique pour de meilleurs résultats. Manuscritle dérivé OpenAI de GPT-3 pour l’écriture de code informatique, est un modèle affiné.

Il existe des centaines d’autres exemples d’ajustements pour des tâches telles que la rédaction juridique, les rapports financiers, les informations fiscales, etc. En affinant un modèle à l’aide de copies de cas juridiques ou de déclarations de revenus et en corrigeant les inexactitudes dans les résultats générés, une organisation peut développer un nouvel outil qui peut rédiger du contenu de manière fiable avec moins d’hallucinations.

S’il semble invraisemblable que ces domaines contrôlés par le gouvernement ou réglementés utilisent une telle technologie non testée, considérons le cas d’un Juge colombien qui aurait utilisé ChatGPT de rédiger son mémoire de décision (sans raffinement).

Solution #4 : Développement de modèles spécialisés

Beaucoup considèrent le réglage fin d’un modèle pré-formé comme un moyen rapide et relativement peu coûteux de créer de nouveaux modèles. Ce n’est pas le seul moyen, cependant. Avec un budget suffisant, les chercheurs et les fournisseurs de technologie peuvent tirer parti des techniques des modèles de transformateur pour développer des modèles de langage spécialisés pour des domaines ou des tâches spécifiques.

Par exemple, un groupe de chercheurs travaillant à l’Université de Floride et en partenariat avec Nvidia, un fournisseur de technologie d’IA, a développé un grand modèle de langage axé sur la santé évaluer et analyser les données linguistiques dans les dossiers de santé électroniques utilisés par les hôpitaux et les pratiques cliniques.

Le résultat aurait été le plus grand LLM connu conçu pour évaluer le contenu des dossiers cliniques. L’équipe a déjà développé un modèle associé basé sur des données synthétiquesce qui atténue les soucis de confidentialité liés à l’utilisation d’une IA de contenu basée sur des dossiers médicaux personnels.

Solution #5 : Fonctionnalité complémentaire

La génération de contenu fait souvent partie d’un flux de travail plus large au sein d’une entreprise. Ainsi, certains développeurs ajoutent des fonctionnalités en plus du contenu pour une plus grande valeur ajoutée.

Par exemple, comme indiqué dans la section sur la chaîne d’invites de pensée, les chercheurs tentent de développer des modules complémentaires d’invite pour GPT-3 afin que les utilisateurs quotidiens n’aient pas à apprendre à bien inviter.

Ce n’est qu’un exemple. Un autre vient de Jasper, qui a récemment annoncé une série de Jaspe pour les entreprises améliorations dans une offre claire pour les contrats au niveau de l’entreprise. Celles-ci incluent une interface utilisateur qui permet aux utilisateurs de définir et d’appliquer la « voix de la marque » de leur organisation à toutes les copies qu’ils créent. Jasper a également développé des bots qui permettent aux utilisateurs d’utiliser Jasper dans des applications d’entreprise nécessitant du texte.

Un autre fournisseur de solutions appelé ABtesting.ai couches les capacités de test A/B Web en plus de la génération de langage pour tester différentes variantes de copie Web et CTA pour identifier les plus performants.

Prochaines étapes pour tirer parti de l’IA de contenu

Les techniques que j’ai décrites jusqu’à présent sont des améliorations ou des solutions de contournement des modèles fondamentaux d’aujourd’hui. Cependant, à mesure que le monde de l’IA continue d’évoluer et d’innover, les chercheurs construiront une IA avec des capacités plus proches de la pensée et du raisonnement réels.

Le Saint Graal de “l’intelligence de génération artificielle” (AGI) – une sorte de méta-IA qui peut remplir une variété de tâches de calcul différentes – est toujours en vie et en bonne santé. D’autres explorent façons de permettre à l’IA de s’engager dans l’abstraction et l’analogie.

Le message pour les humains dont la vie et les passions sont liées à la création de contenu est : l’IA va continuer à devenir plus intelligente. Mais nous pouvons aussi « devenir plus intelligents ».

Je ne veux pas dire que les créateurs humains essaient de battre une IA pour le type de tâches qui nécessitent une puissance de calcul massive. Avec l’avènement des LLM, les humains n’écriront plus d’e-mails et de messages sociaux nourris qu’une IA de contenu.

Mais pour le moment, l’IA a besoin d’invites et d’entrées. Considérez-les comme les idées de base sur ce qu’il faut écrire. Et même lorsqu’une IA de contenu fait apparaître quelque chose de nouveau et d’original, elle a toujours besoin d’humains qui reconnaissent sa valeur et l’élèvent au rang de priorité. En d’autres termes, l’innovation et l’imagination restent fermement entre les mains de l’homme. Plus nous passons de temps à utiliser ces compétences, plus notre avance s’élargit.

En savoir plus sur la stratégie de contenu chaque semaine. Abonnez-vous à la newsletter The Content Strategist pour plus d’articles comme celui-ci envoyés directement dans votre boîte de réception.


Image par
PhonlamaiPhoto



Source link