Intervenant : Jeff Schwartzentruber, conseiller principal pour l’IA et l’apprentissage automatique, Rogers Cybersecure Catalyst
05/06/2024 • 12 h 00 HAE
Ce webinaire était consacré à l’évolution et à l’adoption de l’IA générative, en particulier à ses implications pour les petites entreprises. Les préoccupations relatives à l’IA, et la nécessité d’une mise en œuvre responsable ont également été abordées. Le webinaire a traité des réactions émotionnelles suscitées par l’IA, de l’impact de l’IA générative sur la main-d’œuvre et sur divers secteurs d’activité, de la formation et des outils adaptés aux petites entreprises, des questions de sécurité et d’éthique, de la verticalisation, et des mises en œuvre pratiques par le biais de l’interaction avec le public.
Les petites entreprises commencent à explorer les avantages des outils d’IA générative. Si l’utilisation initiale peut manquer de directives, la personnalisation de ces outils pour répondre aux besoins spécifiques de l’entreprise peut entraîner des gains de productivité considérables. En offrant aux chefs d’entreprise la possibilité d’adapter les outils d’IA à leur domaine, il est possible d’améliorer les processus, et de remédier aux aspects problématiques. Les capacités multimodales offrent une polyvalence pour différents ensembles de compétences et besoins commerciaux. Malgré l’enthousiasme suscité par les améliorations de la productivité, des défis subsistent. En effet, les entreprises se heurtent à des problèmes de plus en plus complexes. Les discussions en cours et l’exploration itérative peuvent mener à des solutions innovantes et à des progrès opérationnels.
Du point de vue de la sécurité, différents niveaux sont à prendre en compte, en particulier la gouvernance, le risque et la conformité (GRC). Une nouvelle approche consiste à nommer des gouverneurs de données pour chaque service afin d’adapter les mesures de sécurité à leurs besoins spécifiques, garantissant ainsi une meilleure adéquation aux différentes tailles et structures des organisations. De plus, il est indispensable de surveiller l’activité des employés avec les outils d’IA pour détecter les failles de sécurité, et y remédier. L’exploitation de ces données permet de connaître en temps réel les schémas d’utilisation, et de prendre des mesures proactives pour protéger les informations à caractère sensible. Les organisations peuvent efficacement mettre en œuvre des mesures de sécurité au sein de leur écosystème de données en centralisant les flux de données, et en appliquant des systèmes de contrôle de l’accès basés sur les différents postes de travail.
En ce qui concerne la prévention des pertes de données et la protection de la propriété intellectuelle interne lors de l’utilisation d’outils d’IA, les petites entreprises sont confrontées à des difficultés liées à leurs ressources limitées. Toutefois, il est essentiel de garantir la protection des données. Par exemple, l’utilisation de l’outil OpenAI soulève des problèmes de confidentialité des données, mais l’interface de protocole d’application supprime les données au bout de 30 jours. Toutefois, les petites entreprises ne sont pas toujours conscientes de la manière dont leurs données contribuent à la formation des modèles, ce qui fait ressortir le besoin de formation cybernétique. Si les outils de sécurité proactifs sont rares, la mise en œuvre de contrôles et de politiques s’avère indispensable. L’utilisation de projets et d’outils ouverts tels que Private AI et Portkey peut faciliter le nettoyage des requêtes, et reconnaître les renseignements permettant d’identifier une personne. Malgré le vaste champ d’application des réglementations en matière d’IA, il est utile de disposer d’une forme quelconque de contrôle ou de politique, en particulier dans un contexte réglementaire en constante évolution.
Les organisations abordent les risques de cybersécurité liés à l’adoption de l’IA générative en donnant la priorité à la sensibilisation et aux discussions sur les points faibles. Il est essentiel d’énumérer les services et d’effectuer dès le départ des analyses approfondies sur les fournisseurs. La surveillance de ces systèmes est fondamentale, car elle témoigne d’une bonne compréhension des problèmes de sécurité. Les vérifications de références et les outils tels que le guide Okay peuvent aider à adopter les meilleures pratiques. Il est essentiel de privilégier la transparence, l’explicabilité et le suivi, en particulier pour l’IA des infrastructures stratégiques. Les investisseurs examinent de plus en plus attentivement les mesures de cybersécurité, ce qui influence les cycles de financement des jeunes entreprises. C’est la raison pour laquelle il est impératif que les organisations établissent des bases solides dès le départ.
La lutte contre la mésinformation et les hypertrucages créés à l’aide de l’IA générative pose de sérieux problèmes en raison de l’ampleur de la récupération et du traitement des données qu’elle nécessite. La question se pose de savoir si la mésinformation relève de la cybersécurité au sein des organisations. Il s’agit d’une question complexe, dont les répercussions potentielles sont considérables, et pour laquelle les exigences en matière de données sont minimes. Même s’il n’existe pas encore de solution technologique, les organisations devront élaborer des politiques et des plans d’action pour lutter contre la mésinformation. Cette approche suppose des discussions sur les relations publiques et la gouvernance interne, bien qu’il n’existe toujours pas de cadre global du point de vue de la gouvernance, du risque et de la conformité (GRC).
Financé en partie par :