SÉCURITÉ : statuer et communiquer à propos de l'IA

Ce qui est appelé Intelligence Artificielle (IA) fait les gros titres. Elle fascine tant elle donne l’impression que des appareils numériques peuvent interagir avec les humains comme des humains. Tous les acteur·trice·s de la société doivent se positionner, que ce soit sur les aspects éthiques, environnementaux, économiques ou encore sécuritaires.

Et comme tout va beaucoup trop vite, les organisations ne prennent pas le temps nécessaire pour statuer et prendre des mesures.

Les organisations malveillantes, elles, n’attendent pas. Un exemple parmi d’autres :

En effet, on peut installer, sans avoir besoin de privilèges d’administrateur, des extensions basées sur des IA dans nos navigateurs web. Or, il semble que nombre d’entre elles ne sont rien d’autres que des malwares.

Et même s’il ne s’agit pas formellement de malware, l’usage individuel de l’IA peut entraîner des effets imprévisibles au sein de l’équipe, dans la communication et dans les documents que l’organisation produit.

Ce sujet pourrait représenter un groupe de travail itopie pour établir des lignes directrices, des conseils et mise en garde concernant des applications basées sur l’IA en entreprise ou pour des particuliers.

1 « J'aime »

Je pense que le côté malware va disparaître, c’est l’effet de mode, un peu comme les toolbars qui prenaient la moitià de l’écran dans les navigateurs web y’a une quinzaine d’années.

Par contre, les questions de l’accès à, et de la régulation de l’IA restent encore très largement ouvertes et pas suffisemment discutées. Si un tel groupe de discussion se créait, je serais ravi d’en faire partie.

1 « J'aime »