Customize this title in frenchLes protocoles de sécurité de l’IA pourraient passer à côté de la plus grande menace

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

L’ère de l’intelligence artificielle a commencé et elle apporte son lot de nouvelles inquiétudes. Beaucoup d’efforts et d’argent sont consacrés pour garantir que l’IA fera uniquement ce que veulent les humains. Mais ce dont nous devrions avoir le plus peur, c’est l’IA qui fera ce que veulent les humains. Le vrai danger, c’est nous.

Ce n’est pas le risque que l’industrie s’efforce de gérer. Dans Février, une entreprise entière – nommée Synth Labs – a été fondée dans le but exprès de « l’alignement de l’IA », la faisant se comporter exactement comme les humains le souhaitent. Ses investisseurs comprennent M12, propriété de Microsoft, et First Start Ventures, fondée par l’ancien PDG de Google, Eric Schmidt. OpenAI, le créateur de ChatGPT, a promis 20 % de sa puissance de traitement à «superalignement» qui « dirigerait et contrôlerait les systèmes d’IA beaucoup plus intelligemment que nous ». La grande technologie est partout dans tout ça.

Et c’est probablement une bonne chose à cause du clip rapide du développement technologique de l’IA. Presque toutes les discussions sur le risque portent sur les conséquences potentielles des systèmes d’IA poursuivant des objectifs qui s’écartent de ce pour quoi ils ont été programmés et qui ne sont pas dans l’intérêt des humains. Tout le monde peut soutenir cette notion d’alignement et de sécurité de l’IA, mais ce n’est qu’un aspect du danger. Imaginez ce qui pourrait se produire si l’IA fait faire ce que veulent les humains.

« Ce que veulent les humains » n’est bien sûr pas un monolithe. Différentes personnes veulent des choses différentes et ont d’innombrables idées sur ce qui constitue « le bien commun ». Je pense que la plupart d’entre nous s’inquiéteraient à juste titre si une intelligence artificielle était alignée sur les visions de Vladimir Poutine ou de Kim Jong Un d’un monde optimal.

Même si nous pouvions amener tout le monde à se concentrer sur le bien-être de l’espèce humaine dans son ensemble, il est peu probable que nous puissions nous mettre d’accord sur ce à quoi cela pourrait ressembler. Elon Musk l’a clairement indiqué la semaine dernière lorsqu’il a partagé sur X, sa plateforme de médias sociaux, qu’il était concerné à propos de l’IA qui pousse à la « diversité forcée » et qui est trop « éveillée ». (Cela fait suite au dépôt par Musk d’une action en justice contre OpenAI, arguant que l’entreprise ne respectait pas ses engagements.) promesse développer l’IA au profit de l’humanité.)

Les personnes ayant des préjugés extrêmes pourraient sincèrement croire qu’il serait dans l’intérêt général de l’humanité de tuer toute personne qu’elles jugent déviante. L’IA « alignée sur l’humain » est essentiellement aussi bonne, mauvaise, constructive ou dangereuse que les personnes qui la conçoivent.

Cela semble être la raison pour laquelle Google DeepMind, la branche de développement de l’IA de la société, a récemment fondé une organisation interne axé sur la sécurité de l’IA et sur la prévention de sa manipulation par de mauvais acteurs. Mais il n’est pas idéal que ce qui est « mauvais » soit déterminé par une poignée d’individus au sein d’une entreprise particulière (et une poignée d’autres similaires) – avec leurs angles morts et leurs opinions personnelles et personnelles. préjugés culturels.

Le problème potentiel va au-delà du fait que les humains nuisent à d’autres humains. Ce qui est « bon » pour l’humanité est venu, à maintes reprises au cours de l’histoire. au dépend des autres êtres sensibles. Telle est la situation aujourd’hui.

Aux États-Unis seulement, nous avons des milliards d’animaux soumis à la captivité, à des pratiques de torture et au déni de leurs droits fondamentaux psychologique et physiologiques à un moment donné. Des espèces entières sont soumises et systématiquement abattues afin que nous puissions avoir des omelettes, des hamburgers et des chaussures.

Si l’IA fait exactement ce que « nous » (ceux qui programment le système) voulons qu’elle fasse, cela signifierait probablement mettre en œuvre cette cruauté de masse plus efficacement, à une échelle encore plus grande et avec plus de moyens. automatisation et moins d’opportunités pour les humains sympathiques d’intervenir et de signaler quelque chose de particulièrement horrible.

En effet, dans l’élevage industriel, c’est déjà se produit, quoique à une échelle beaucoup plus petite que ce qui est possible. Les principaux producteurs de produits d’origine animale, tels que Tyson Foods, basé aux États-Unis, CP Foods, basé en Thaïlande, et Mowi, basé en Norvège, ont commencé à expérimenter des systèmes d’IA destinés à rendre la production et la transformation des animaux plus efficaces. Ces systèmes sont testés pour, entre autres activités, nourrir les animaux, surveiller leur croissance, tracer des marques sur leur corps et interagir avec les animaux en utilisant des sons ou des chocs électriques pour contrôler leur comportement.

Un meilleur objectif que d’aligner l’IA sur les intérêts immédiats de l’humanité serait ce que j’appellerais l’alignement sensible – une IA agissant conformément aux intérêts de tous les êtres sensibles, y compris les humains, tous les autres animaux et, si elle existe, l’IA sensible. En d’autres termes, si une entité peut éprouver du plaisir ou de la douleur, son sort doit être pris en compte lorsque les systèmes d’IA prennent des décisions.

Cela semblera radical à certains, car ce qui est bon pour toute vie sensible peut ne pas toujours correspondre à ce qui est bon pour l’humanité. Cela peut parfois, voire souvent, aller à l’encontre de ce que veulent les humains ou de ce qui serait le mieux pour le plus grand nombre d’entre nous. Cela pourrait signifier, par exemple, que l’IA élimine les zoos, détruire des écosystèmes non essentiels pour réduire souffrance des animaux sauvages ou interdire les tests sur les animaux.

S’exprimant récemment sur le podcast « Tout pense bien », Peter Singer, philosophe et auteur du livre historique de 1975 « Animal Liberation », a soutenu que les objectifs et les priorités ultimes d’un système d’IA sont plus importants que son alignement sur les humains.

« La question est vraiment de savoir si cette IA superintelligente sera bienveillante et voudra produire un monde meilleur », a déclaré Singer, « et même si nous ne la contrôlons pas, elle produira quand même un monde meilleur dans lequel nos intérêts prendront le dessus ». pris en compte. Ils pourraient parfois être contrebalancés par l’intérêt des animaux non humains ou par ceux de l’IA, mais ce serait quand même un bon résultat, je pense.

Je suis d’accord avec Singer sur ce point. Il semble que la chose la plus sûre et la plus compatissante que nous puissions faire est de prendre en considération la vie sensible non humaine, même si les intérêts de ces entités peuvent se heurter à ce qui est le mieux pour les humains. Décentrer l’humanité dans quelque mesure que ce soit, et particulièrement jusqu’à cette extrême, est une idée qui mettra les gens au défi. Mais c’est nécessaire si nous voulons empêcher notre spécisme actuel de proliférer de manière nouvelle et horrible.

Ce que nous devrions vraiment demander, c’est que les ingénieurs élargissent leurs propres cercles de compassion lorsqu’ils conçoivent des technologies. Lorsque nous pensons « sûr », réfléchissons à ce que « sûr » signifie pour tous les êtres sensibles, pas seulement pour les humains. Lorsque nous visons à rendre l’IA « bienveillante », veillons à ce que cela signifie bienveillance envers le monde dans son ensemble – et pas seulement envers une seule espèce qui y vit.

Brian Kateman est co-fondateur de la Reductiontarian Foundation, une organisation à but non lucratif dédiée à la réduction de la consommation sociétale de produits d’origine animale. Son dernier livre et documentaire est «Viande-moi à mi-chemin



Source link -57