Une centaine de chercheurs réclament de restreindre l’accès des IA à certaines données scientifiques pour prévenir les risques bactériologiques

Plus de 100 chercheurs demandent un encadrement strict de l’accès des IA aux ensembles de données biologiques, notamment celles relatives aux maladies infectieuses, craignant que les modèles entraînés ne servent à produire des armes bactériologiques.
Faut-il craindre qu’une IA puisse concevoir demain son propre virus mortel ? Cette interrogation, partagée par une centaine de chercheurs des universités Johns Hopkins University, University of Oxford, Stanford University, Columbia University et New York University, les pousse à alerter autorités et entreprises tech pour éviter tout scénario catastrophique.
Selon eux, il est urgent de mettre en place des garde-fous avant que les données biologiques ne deviennent accessibles sur le web et ingérées par les IA génératives.
éviter que des acteurs malveillants créent le virus de demain
Le projet vise à mieux réguler l’accès des IA aux données de santé, alors que l’administration américaine a lancé la mission Genesis, destinée à entraîner des IA sur d’immenses ensembles de données scientifiques pour accélérer la recherche.
Les chercheurs soulignent qu’il ne s’agit pas de freiner le développement de l’IA, mais de restreindre l’accès aux données les plus sensibles, afin qu’aucun acteur malveillant ne puisse les utiliser pour générer un virus dangereux.
« La gouvernance responsable et le progrès scientifique ne sont pas des contradictions », note le rapport adopté à l’unanimité.
Entraîner des IA sur des données comme le génome d’un virus, incluant transmissibilité et immunités, pourrait abaisser considérablement la barrière à l’entrée pour créer des agents pathogènes dangereux.
des limitations pour éviter le pire
Les inquiétudes ne concernent pas les IA grand public comme ChatGPT, Claude ou Gemini, mais bien les modèles utilisés en recherche biologique, capables de traiter des données ADN comme un grand modèle de langage traite du texte. Certains chercheurs refusent donc de les appliquer aux données virologiques, de peur de voir leur travail accessible à tous.
Le rapport recommande de limiter l’entraînement des IA sur des données sensibles aux seuls chercheurs légitimes et de manière encadrée. « Pour l’instant, il n’existe aucune directive proposée par des experts sur des données représentant un risque réel », explique Jassi Pannu.
Il justifie cette régulation par la difficulté croissante de prévoir les capacités de l’IA : « Nous sommes constamment surpris. Pour éviter des risques à grande échelle, nous devons nous tenir prêts. »

SOURCE : BFMTV

Nos réalisations
Découvrez nos références, nos réalisations et nos travaux pour des établissements.
C'est tout frais de nos experts

Intelligence artificielle dans les EPLE : comment la piloter ?

Spécialités au lycée : les filles moins nombreuses en mathématiques

