La loi britannique sur la sécurité en ligne crée un cadre pour aborder les préjudices en ligne qui inclut des dispositions potentiellement applicables à l'usage compulsif de l'IA. À mesure que l'Ofcom développe des orientations pour la mise en œuvre de la loi, le traitement des services d'IA — en particulier ceux conçus pour la connexion émotionnelle — déterminera comment l'usage compulsif de l'IA est traité par le droit britannique.
Le cadre du devoir de diligence
La loi établit un devoir de diligence pour les services en ligne, exigeant des plateformes qu'elles évaluent et atténuent les risques de préjudice aux utilisateurs. Si l'usage compulsif de l'IA est reconnu comme une forme de préjudice en ligne, les plateformes d'IA devraient mettre en place des mesures pour identifier et réduire les dynamiques addictives.
Les dispositions de protection des enfants
La loi inclut des dispositions fortes pour protéger les enfants en ligne. Les services de compagnons d'IA utilisés par des mineurs pourraient être soumis à des exigences de design adapté à l'âge, de contrôle du contenu et de fonctionnalités de limitation d'usage qui abordent directement les préoccupations de dépendance.
Transparence et redevabilité
La loi exige certaines mesures de transparence et de redevabilité qui pourraient s'étendre aux services d'IA. Les rapports réguliers sur les préjudices aux utilisateurs, les audits indépendants des mesures de sécurité et la redevabilité pour les décisions de design sont des dispositions qui pourraient s'appliquer au design addictif de l'IA.
Les défis de mise en œuvre
Appliquer la loi sur la sécurité en ligne aux services d'IA présente des défis pratiques : définir ce qui constitue un engagement nocif avec l'IA, mesurer les préjudices liés à l'usage compulsif et établir des standards appropriés pour les risques spécifiques à l'IA.
Rester informé
À mesure que la mise en œuvre de la loi progresse, les utilisateurs de services d'IA au Royaume-Uni devraient rester informés de leurs droits et des protections qui leur sont disponibles. Les cadres réglementaires ne protègent que les utilisateurs qui savent qu'ils existent.
Comprenez comment l'IA vous affecte. Notre autoévaluation offre un regard personnel.