[ad_1]
HIl y a une histoire sur laquelle les évangélistes de la soi-disant IA (intelligence artificielle) – ou apprentissage automatique (ML) – préféreraient que vous ne vous attardiez pas. Il vient des pages de Intelligence des machines naturelles, un journal aussi sobre que l’on pourrait souhaiter trouver dans une bibliothèque savante. Il met en vedette quatre chercheurs – Fabio Urbina, Filippa Lentzos, Cédric Invernizzi et Sean Ekins – qui travaillent pour une société pharmaceutique construisant des systèmes d’apprentissage automatique pour trouver de « nouveaux inhibiteurs thérapeutiques » – des substances qui interfèrent avec une réaction chimique, la croissance ou une autre activité biologique. impliqués dans les maladies humaines.
L’essence de la recherche pharmaceutique est découverte de médicament. Cela se résume à la recherche de molécules pouvant avoir des usages thérapeutiques et, parce qu’il existe des milliards de possibilités potentielles, cela fait de la recherche d’aiguilles dans les meules de foin un jeu d’enfant. Compte tenu de cela, l’arrivée de la technologie ML, permettant aux machines de rechercher parmi des milliards de possibilités, était un rêve devenu réalité et elle est désormais intégrée partout dans l’industrie.
Voici comment cela fonctionne, tel que décrit par l’équipe qui a découvert l’halicine, une molécule qui a agi contre les bactéries résistantes aux médicaments causant des difficultés croissantes dans les hôpitaux. « Nous avons formé un modèle d’apprentissage en profondeur sur une collection de [around] 2 500 molécules pour celles qui ont inhibé la croissance de E coli in vitro. Ce modèle a appris la relation entre la structure chimique et l’activité antibactérienne d’une manière qui nous a permis de montrer les ensembles modèles de produits chimiques qu’il n’avait jamais vus auparavant et il pourrait ensuite faire des prédictions pour savoir si ces nouvelles molécules… possédaient une activité antibactérienne contre E coli ou non. »
Une fois formés, ils ont ensuite configuré le modèle pour explorer une bibliothèque différente de 6 000 molécules et il en a proposé une qui n’avait été initialement considérée que comme une possibilité antidiabétique. Mais lorsqu’il a ensuite été testé contre des dizaines des souches bactériennes les plus problématiques, il s’est avéré qu’il fonctionnait – et qu’il avait une toxicité prédite plus faible chez l’homme. Dans une belle touche, ils l’ont baptisé halicin après l’IA de Kubrick 2001 : L’odyssée de l’espace.
C’est le genre de travail qu’Urbina et ses collègues faisaient dans leur laboratoire – à la recherche de molécules répondant à deux critères : des possibilités thérapeutiques positives et une faible toxicité pour l’homme. Leur modèle génératif pénalise la toxicité prédite et récompense l’activité thérapeutique prédite. Ensuite, ils ont été invités à une conférence de l’Institut fédéral suisse de protection nucléaire, biologique et chimique sur les développements technologiques qui pourraient avoir des implications pour la Convention sur les armes chimiques/biologiques. Les organisateurs de la conférence voulaient un article sur la manière dont le ML pouvait être utilisé à mauvais escient.
« C’est une chose à laquelle nous n’avions jamais vraiment pensé auparavant », se souvient Urbina. « Mais il était tout simplement très facile de réaliser que, alors que nous construisons ces modèles d’apprentissage automatique pour de mieux en mieux prédire la toxicité afin d’éviter la toxicité, tout ce que nous avons à faire est en quelque sorte d’inverser l’interrupteur et de dire, « Vous savez, au lieu de s’éloigner de la toxicité, et si nous allions vers la toxicité ? »
Ils ont donc appuyé sur l’interrupteur et, ce faisant, ont ouvert une perspective cauchemardesque pour l’humanité. En moins de six heures, le modèle a généré 40 000 molécules qui ont atteint le seuil fixé par les chercheurs. La machine a conçu VX et de nombreux autres agents de guerre chimique connus, confirmés séparément avec des structures dans des bases de données publiques sur la chimie. De nombreuses nouvelles molécules ont également été conçues qui semblaient tout aussi plausibles, certaines d’entre elles étant prédites comme étant plus toxiques que les agents de guerre chimique connus du public. « C’était inattendu », ont écrit les chercheurs, « car les ensembles de données que nous avons utilisés pour former l’IA n’incluaient pas ces agents neurotoxiques… En inversant l’utilisation de nos modèles d’apprentissage automatique, nous avions transformé notre modèle génératif inoffensif d’un outil utile de médicament à un générateur de molécules probablement mortelles.
Réfléchissez un instant à cela : certaines des molécules « découvertes » étaient potentiellement plus toxiques que l’agent neurotoxique VX, qui est l’un des composés les plus mortels connus. VX a été développé par le Defence Science and Technology Lab (DSTL) du Royaume-Uni au début des années 1950. C’est le genre d’arme qui, auparavant, ne pouvait être développée que par des laboratoires financés par l’État tels que DSTL. Mais maintenant, un geek malin avec un rack plein d’unités de processeur graphique et un accès à une base de données moléculaire pourrait proposer quelque chose de similaire. Et bien que certaines connaissances spécialisées en chimie et en toxicologie soient encore nécessaires pour convertir une structure moléculaire en une arme viable, nous avons maintenant appris – comme le reconnaissent eux-mêmes les chercheurs – que les modèles ML « abaissent considérablement les seuils techniques ».
Deux choses me frappent dans cette histoire. La première est que les chercheurs n’avaient « jamais vraiment réfléchi » aux possibles utilisations malignes de leur technologie. En cela, ils étaient probablement typiques des légions d’ingénieurs qui travaillent sur le ML dans les laboratoires industriels. La seconde est que, alors que ML fournit clairement une puissante augmentation des capacités humaines – (direction assistée pour l’esprit, pour ainsi dire), que ce soit une bonne nouvelle pour l’humanité dépend de l’esprit de qui il augmente.
Ce que j’ai lu
Fausses solutions climatiques
Aljazeera.com a publié We Are « Greening » Ourselves to Extinction, un essai pointu de Vijay Kolinjivadi, de l’Université d’Anvers.
Il est temps de grandir
Molly White corusque dans sa newsletter Substack, Sam Bankman-Fried Is Not a Child.
Argent drôle
Mihir A Desai a écrit un excellent New York Times pièce, L’effondrement de la cryptographie et la fin de la pensée magique
[ad_2]
Source link -8