28/06/2024 • 10 h 00 HAE
Ce webinaire a été conçu pour l’équipe interne de dirigeants d’une organisation établie à Toronto dans le secteur des services d’emploi. La séance a mis l’accent sur l’amélioration de la compréhension par les participants des outils d’IA générative et des cas d’utilisation. Elle a également permis de tirer des enseignements concrets et d’acquérir des compétences.
Si vous souhaitez organiser une séance MagnetAI pour votre équipe interne, envoyez-nous un courriel à magnetai@magnetnetwork.ca.
Lors d’une conférence technologique en novembre 2022, une directrice principale et moi-même avons assisté à une conférence à Lisbonne. Nous avons retenu ces idées et lancé un défi à notre équipe de direction pour qu’elle reste à la pointe de cette tendance importante. Dans le cas de mon ChatGPT, nous lui avons fourni nos documents stratégiques (ceux qui ne posaient pas de problème en étant intégrés aux données de formation), pour l’adapter à notre façon de nous exprimer. Grâce à une formation plus approfondie, il commence de plus en plus à rédiger selon mon style. Je lui demande comment cadrer ce que nous faisons en interne, et cela permet de gagner du temps sur une grande partie du travail.
Il s’agit d’un processus de travail, de personnalisation et de formation. Comme dans le cas d’une collaboration avec un employé, cela consiste en un processus interactif visant à améliorer les réponses.
Lors d’une séance que j’ai organisée à l’intention des nouveaux arrivants, ces derniers m’ont fait part de leurs difficultés à poser de bonnes questions en anglais. L’avantage de ces grands modèles de langage est qu’ils vous permettent de poser des questions dans n’importe quelle langue, et de les traduire. Cela peut être un grand avantage pour les employés progressistes qui deviennent plus productifs après avoir été correctement formés.
Même lorsque quelqu’un apprend une langue étrangère, il existe de nombreux outils - y compris des outils de formation linguistique plus anciens - qui permettent d’améliorer la traduction, et d’accélérer considérablement le travail d’une équipe interne.
Ce problème est toujours d’actualité, et de nombreuses entreprises de GML s’efforcent d’y remédier. Il existe même des exemples publics de surcharge potentielle, comme dans le cas de la création d’images génératives.
Il est important de comprendre comment les GML sont formés. Le fait de savoir comment leur envoyer des requêtes peut réduire considérablement les préjugés - vous pouvez leur demander d’adopter un certain point de vue. La meilleure solution est d’utiliser les outils plus verticalisés qui disposent d’un contenu dans lequel le GML est tenu de puiser. C’est ce qu’on appelle la génération augmentée d’extraction. Le plus important est de comprendre l’outil et la base de connaissances dans laquelle il puise. Vous pouvez lui demander de créer du contenu, et de traduire des connaissances à partir d’un contenu qui a été approuvé. De cette façon, ses connaissances seront limitées à un contenu particulier.
Le fait d’avoir peur ou d’ignorer ce problème n’est pas une solution, mais il s’agit plutôt d’apprendre et de comprendre comment fonctionne ce type de technologie. La mise en œuvre de l’IA générative permet de supprimer les activités secondaires, telles que les tâches administratives qui n’apportent pas de valeur ajoutée, et choisir de se concentrer sur le renforcement des liens et de la communication. Les organisations, les organismes de financement, les gouvernements, etc., exercent des pressions pour que l’on ne s’intéresse qu’à l’efficacité, par exemple à la manière de développer ou d’automatiser les services d’orientation professionnelle, de conseil et de soutien. Mais l’IA ne pourra jamais remplacer un être humain, même si elle peut être perçue comme plus empathique.
Utilisez les outils de manière appropriée, mais consacrez du temps à travailler avec vos interlocuteurs, afin de les aider à surmonter les situations difficiles.
Oui, il s’appuie sur l’un des GML fondamentaux les plus importants. Tout ce que vous introduisez dans CoPilot ou dans un outil similaire sera probablement intégré dans ses données de formation.
Il est très important de savoir formuler des requêtes. Pour définir le contexte, vous pouvez demander à GPT d’adopter le point de vue d’un expert en EDI. Vous pouvez ainsi restreindre son champ d’action, même à partir d’un volume important de données de formation. Des études récentes montrent que les GML peuvent obtenir des résultats élevés aux tests de théorie de l’esprit, ce qui signifie qu’ils peuvent comprendre le point de vue d’autres personnes. Ils peuvent même obtenir de meilleurs résultats que certains êtres humains aux tests de théorie de l’esprit.
Cela prouve qu’ils ont un certain point de vue, et vous pouvez leur demander d’adopter le point de vue que vous voulez.
On observe une augmentation considérable des vecteurs d’attaque. Il ne s’agit pas seulement des problèmes actuels de cybersécurité et des violations de données, mais aussi de l’augmentation des vecteurs d’attaque. Par exemple, sur World News, il a été question d’un cadre supérieur qui aurait convoqué une réunion d’urgence un soir pour effectuer un virement international de 30 millions de dollars. Les cadres supérieurs présents à cet appel Zoom ont été synthétisés. Il ne s’agissait pas d’un piratage technique, mais d’une utilisation de la technologie vocale et vidéo.
C’est également un problème en ce qui concerne les escroqueries visant les personnes âgées. La technologie de l’IA capable d’imiter les individus peut avoir d’énormes répercussions sur les élections. Il est particulièrement important de faire preuve de diligence raisonnable en période électorale.
Pour une entreprise qui travaille sur des plateformes techniques et d’arrière-plan, il est nécessaire d’être au courant des politiques. À l’heure actuelle, il n’existe pas de moyen infaillible de se protéger contre les plateformes, quelles qu’elles soient, mais vous devrez veiller à ce que vos plateformes soient approuvées par votre organisation selon des protocoles de pointe en matière de cybersécurité et de sécurité des données.
Il existe plusieurs domaines dans lesquels le moissonnage peut être utilisé, par exemple le moissonnage d’offres d’emploi affichées publiquement pour effectuer une analyse du marché du travail, ou regrouper des offres d’emploi dans un flux d’offres d’emploi. Il s’agit d’une technologie qui existe depuis longtemps.
Le moissonnage dont je parle actuellement avec OpenAI consiste en des robots qui parcourent les sites Web, et qui extraient toutes les informations possibles sur Internet. Le grand modèle de langage d’IA générative recueille des informations extrêmement détaillées sur la source de données provenant du Web, sur la personne qui a téléchargé les données, sur la signification des données, sur ce à quoi elles sont connectées, sur la manière dont elles sont utilisées par d’autres personnes sur Internet, etc. - Cela peut être une source de préoccupation en matière de sécurité. Les services de sûreté et de sécurité peuvent bloquer certaines techniques de moissonnage sur certains éléments de leur site Web, mais ces technologies vont essayer d’effectuer des recherches sur tous les sites Web et tous les contenus disponibles sur Internet.
De nombreux procès ont été intentés pour savoir si les informations ont été obtenues de manière appropriée pour former les GML. Par exemple, on a découvert qu'OpenAI récupérait le contenu de YouTube. La société Google ne s’en est jamais plainte parce qu’elle le faisait elle-même, même si cela va à l’encontre de sa politique en matière de protection de la vie privée. Étant donné les milliards de dollars en jeu, des conflits et des procès auront lieu par la suite. À l’heure actuelle, les sociétés de GML ont désespérément besoin de données, même si cela implique de collecter beaucoup plus de données qu’il n’est nécessaire ou requis.
Financé en partie par :