À l’ère des réseaux sociaux et les algorithmes d’IA ont le pouvoir de décider de tout, de nos listes de lecture aux vidéos que nous regardons, en passant par les nouvelles que nous consommons et les offres spéciales d’achat qui nous sont proposées, et celles qui nous sont refusées.
Malgré tout le bien que les technologies et les algorithmes d’apprentissage automatique font pour améliorer et personnaliser l’expérience en ligne de chacun d’entre nous, ils représentent également une grandes menaces pour la sécurité en ligne, avec des implications négatives réelles pour la santé et le bien-être de tous les internautes.
Utilisés sans précaution et en l’absence de garde-fous et de programmes de sécurité, les algorithmes nuisent souvent aux utilisateurs qu’ils sont censés servir. Les algorithmes prédictifs peuvent inciter les plateformes à diffuser continuellement des contenus liés à la minceur et aux troubles de l’alimentation, vous suggérer de regarder davantage de contenus extrémistes ou amplifier les croyances polarisées.
Les effets de la partialité du Machine Learning sont tout aussi effrayants. La partialité affecte négativement la gauche et la droite, les libéraux et les conservateurs aucun groupe n’est épargné et les effets des contenus extrémistes, polarisants et malsains en ligne sur le comportement humain dans le monde réel ont été bien documentés.
Interdire les recommandations algorithmiques comme celles faites par TikTok ou encore Instagram pour les enfants et en faire un choix « opt-in » pour les adultes. Nous comprenons encore trop peu la façon dont les algorithmes poussent les contenus nuisibles et les dommages qu’ils causent. Une approche plus prudente, en particulier pour les groupes vulnérables, devrait être une priorité en matière de sécurité.
Intégrer des tests systémiques et de routine dans le processus de développement. Certifier de manière indépendante les nouveaux systèmes de recommandation algorithmique avant leur lancement afin de confirmer la correspondance entre l’intention et l’impact positif. La preuve scientifique qu’un système technique fait ce pour quoi il a été conçu sans effets secondaires négatifs pour les utilisateurs est un garde-fou standard pour la protection des consommateurs dans presque tous les secteurs.
Soyez transparent quant à l’état des systèmes et aux risques pour les utilisateurs. Les systèmes de recommandation ont un impact énorme sur un très grand nombre d’utilisateurs. À ce titre, il est impératif que le grand public comprenne le comportement de ces systèmes. Les mesures, les tests, les compromis, les entrées et l’impact observé doivent être mis à la disposition des utilisateurs, des régulateurs et des universitaires pour analyse.
L’impact est trop important et le risque de préjudice trop grave pour qu’il reste un espace non réglementé. De la même manière que nous testons les nouveaux médicaments, les voitures ou les centrales nucléaires, nous avons besoin d’une réglementation sensée qui protège le grand public des dommages.
L’intelligence artificielle est la technologie la plus importante de notre génération. Ce n’est pas la responsabilité d’une seule organisation ou entité de guider un développement responsable et d’assurer le contrôle et la mesure. Il faudra la collaboration combinée des entreprises privées, des entités publiques, des défenseurs et des décideurs politiques.