L’intelligence artificielle… Est-ce une bombe à retardement ? Les risques de l’IA, selon Anthropic

0

Tunisie-Tribune (L’intelligence artificielle) – À quelques jours de l’élection présidentielle américaine, Anthropic, l’une des entreprises phares de l’IA, plaide pour sa propre réglementation, avant qu’il ne soit trop tard.

Elle a publié une série de recommandations adressées aux gouvernements afin de les enjoindre à mettre en œuvre une « réglementation ciblée » accompagnées de données potentiellement inquiétantes sur la montée de ce qu’elle appelle des risques « catastrophiques » liés à l’intelligence artificielle.

Les risques de l’IA, selon Anthropic

Dans un billet de blog, Anthropic souligne les progrès réalisés par les modèles d’IA dans les domaines du codage et de la cybercriminalité en seulement un an. « Sur la tâche d’ingénierie logicielle SWE-bench, les modèles sont passés de leur capacité à résoudre 1,96 % d’un ensemble de tests de problèmes de codage du monde réel (Claude 2, octobre 2023) à 13,5 % (Devin, mars 2024) et à 49 % (Claude 3.5 Sonnet, octobre 2024) », écrit l’entreprise.

« En interne, notre Frontier Red Team a constaté que les modèles actuels peuvent déjà aider à un large éventail de tâches liées à la cybercriminalité, et nous nous attendons à ce que la prochaine génération de modèles, qui sera capable de planifier des tâches longues et en plusieurs étapes, soit encore plus efficace. »

  • Comment fonctionne Claude ? Anthropic révèle ses secrets

Anthropic note que les systèmes d’IA ont amélioré leur compréhension scientifique de près de 18 % entre juin et septembre de cette année seulement, selon le test de référence GPQA. OpenAI o1 a obtenu 77,3 % dans la partie la plus difficile du test ; les experts humains ont obtenu 81,2 %.

Apprendre pour le pire

Anthropic s’appuie également sur un test de risque de l’Institut britannique de sécurité de l’IA sur plusieurs modèles pour les abus chimiques, biologiques, radiologiques et nucléaires (CBRN), qui a révélé que « les modèles peuvent être utilisés pour obtenir des connaissances de niveau expert sur la biologie et la chimie ». Il a également constaté que les réponses de plusieurs modèles aux questions scientifiques « étaient comparables à celles données par des experts de niveau doctorat ».

Ces données éclipsent la prédiction d’Anthropic pour 2023 selon laquelle les risques cybernétiques et CBRN seraient pressants dans deux à trois ans.

« Sur la base des progrès décrits ci-dessus, nous pensons que nous sommes désormais sensiblement plus proches de ces risques ».

Lignes directrices pour les gouvernements

« Une réglementation judicieuse et étroitement ciblée peut nous permettre de tirer le meilleur parti des deux mondes : tirer les avantages de l’IA tout en atténuant les risques », explique Anthropic. « Traîner les pieds pourrait nous conduire au pire des deux mondes : une réglementation mal conçue et instinctive qui entrave les progrès tout en n’étant pas efficace. »

Anthropic suggère des lignes directrices pour l’action gouvernementale afin de réduire les risques sans entraver l’innovation dans les domaines de la science et du commerce, en utilisant sa propre politique de mise à l’échelle responsable (RSP –  Responsible Scaling Policy) comme « prototype ». Reconnaissant qu’il peut être difficile d’anticiper le moment de mettre en œuvre des garde-fous, Anthropic décrit sa RSP comme un cadre de gestion des risques proportionnel qui s’adapte aux capacités croissantes de l’IA grâce à des tests de routine.

« La structure « si-alors » nécessite que des mesures de sécurité et de sûreté soient appliquées, mais seulement lorsque les modèles deviennent suffisamment performants pour les justifier », détaille Anthropic.

Transparence, sécurité, simplicité et concentration

L’entreprise a identifié des éléments pour une réglementation réussie de l’IA :

  • La transparence
  • L’incitation à la sécurité
  • La simplicité
  • La concentration

Actuellement, le public ne peut pas vérifier si une entreprise d’IA adhère à ses propres directives de sécurité. Selon Anthropic, les gouvernements devraient exiger que les sociétés « aient et publient des politiques de type RSP », définissent quelles mesures de protection seront déclenchées à quel moment et publient des évaluations des risques pour chaque génération de leurs systèmes. Bien entendu, les gouvernements doivent également disposer d’une méthode permettant de vérifier que toutes ces déclarations sont avérées.

Anthropic recommande aussi aux gouvernements d’encourager des pratiques de sécurité de meilleure qualité. « Les régulateurs pourraient identifier les modèles de menace que les RSP doivent traiter, selon une certaine norme de raisonnabilité, tout en laissant les détails aux entreprises. Ou ils pourraient simplement spécifier les normes qu’un RSP doit respecter ».

Les réglementations idéales sont « chirurgicales »

Anthropic exhorte les gouvernements à savoir se montrer flexibles. « Il est important que les processus réglementaires s’inspirent des meilleures pratiques au fur et à mesure de leur évolution, plutôt que de rester statiques ».

Décrivant les réglementations idéales comme « chirurgicales », Anthropic plaide pour « la simplicité et la concentration », encourageant les gouvernements à ne pas créer de « fardeaux » inutiles pour les entreprises d’IA.

« L’une des pires choses qui puissent arriver à la cause de la prévention des risques catastrophiques est un lien se formant entre la réglementation nécessaire pour prévenir les risques et des règles lourdes ou illogiques ».

Anthropic en appelle à la responsabilité collective

Anthropic exhorte ses homologues à mettre en œuvre des RSP qui soutiennent la réglementation afin de mettre la sécurité informatique et la sûreté en amont, et non après que les risques ont causé des dommages.

« Correctement mises en œuvre, les RSP déterminent la structure et les priorités de l’organisation. Elles deviennent un élément clé des feuilles de route des produits, plutôt que de n’être qu’une simple politique sur le papier », estime Anthropic.

« Il est essentiel que les décideurs politiques, le secteur de l’IA, les défenseurs de la sécurité, la société civile et les législateurs travaillent ensemble au cours de l’année à venir pour élaborer un cadre réglementaire efficace qui réponde aux conditions ci-dessus », conclut l’entreprise.