Customize this title in frenchLe propriétaire de Facebook, Meta, présente un modèle d’IA capable d’identifier des objets dans des images

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

La société mère de Facebook, Meta, a lancé mercredi un nouveau modèle d’intelligence artificielle capable d’identifier des objets dans des images.

Appelé « segmenter n’importe quoi », il vise à accélérer les recherches sur la segmentation et à offrir une compréhension plus générale de l’image et de la vidéo.

La segmentation fait référence à la capacité d’identifier les pixels d’une image qui appartiennent à un objet spécifique.

Meta a déclaré que son initiative vise à « démocratiser » la segmentation, qui est utilisée dans diverses applications, de l’analyse d’images scientifiques à l’édition de photos.

Habituellement, cela nécessite un travail hautement spécialisé par des experts techniques ayant accès à une infrastructure formée à l’IA et à de grands volumes de données pour créer un modèle de segmentation précis pour des tâches spécifiques.

Dans le cadre du nouveau projet, Meta a publié son modèle général Segment Anything Model (SAM) et son ensemble de données de masque Segment Anything 1-Billion (SA-1B).

Les deux visent à permettre un large éventail d’applications et à favoriser la poursuite de la recherche sur les modèles de base pour la vision par ordinateur.

SAM couvre un large éventail d’utilisations et peut même être utilisé pour les photos sous-marines.

Il peut améliorer les applications créatives telles que l’extraction de parties d’image pour les collages ou le montage vidéo. Il pourrait également être utilisé pour stimuler les études scientifiques sur les phénomènes naturels sur terre ou même dans l’espace.

« Nous pensons que les possibilités sont vastes et nous sommes enthousiasmés par les nombreux cas d’utilisation potentiels que nous n’avons même pas encore imaginés », a déclaré Meta.

L’ensemble de données SA-1B est disponible à des fins de recherche et SAM est disponible dans un cadre de licence ouverte permissive.

« Notre objectif était de construire un modèle de base pour la segmentation d’images… un modèle incitatif qui est formé sur diverses données et qui peut s’adapter à des tâches spécifiques, analogue à la façon dont l’invite est utilisée dans les modèles de traitement du langage naturel », a déclaré Meta.

« Cependant, les données de segmentation nécessaires pour former un tel modèle ne sont pas facilement disponibles en ligne ou ailleurs, contrairement aux images, aux vidéos et au texte.

« Ainsi, avec Segment Anything, nous avons entrepris de développer simultanément un modèle de segmentation général et rapide et de l’utiliser pour créer un ensemble de données de segmentation d’une ampleur sans précédent. »

Auparavant, pour résoudre tout type de problème de segmentation, il existait deux classes d’approches : la segmentation interactive qui nécessitait qu’une personne guide la méthode ; et la segmentation automatique qui nécessitait des quantités substantielles d’objets annotés manuellement pour s’entraîner.

« Aucune approche n’a fourni une approche générale et entièrement automatique de la segmentation », a déclaré Meta.

L’ensemble de données SA-1B que Meta a publié mercredi est le plus important à ce jour, a affirmé la société.

Il a collecté ces données à l’aide de SAM.

« Les annotateurs ont utilisé SAM pour annoter des images de manière interactive, puis les données nouvellement annotées ont été utilisées pour mettre à jour SAM à leur tour », a déclaré Meta.

« Nous avons répété ce cycle plusieurs fois pour améliorer de manière itérative à la fois le modèle et l’ensemble de données. »

L’ensemble de données final comprend plus de 1,1 milliard de masques de segmentation collectés sur environ 11 millions d’images sous licence et préservant la confidentialité.

Mis à jour : 05 avril 2023, 18 h 23



Source link -57