Le capteur/caméra inspiré du cerveau de l’IISc peut détecter de minuscules nanoparticules | Nouvelles de l’Inde

[ad_1]

BENGALURU : Dans une nouvelle étude, IISc des chercheurs ont montré comment une image inspirée par le cerveau capteur peut aller au-delà de la limite de diffraction de la lumière pour détecter minuscule des objets tels que des composants cellulaires ou nanoparticules invisible aux microscopes actuels.
Leur nouvelle technique, qui combine la microscopie optique avec un neuromorphique (une approche de l’informatique inspirée de la structure et de la fonction du cerveau humain) caméra et les algorithmes d’apprentissage automatique, présente une avancée majeure dans la localisation d’objets de moins de 50 nanomètres, a déclaré l’IISc, ajoutant que les résultats ont été publiés dans Nanotechnologie de la nature.
Expliquant l’importance, IISc a déclaré que depuis l’invention des microscopes optiques, les scientifiques se sont efforcés de dépasser une barrière appelée la limite de diffraction, ce qui signifie que le microscope ne peut pas distinguer deux objets s’ils sont plus petits qu’une certaine taille (généralement 200-300 nanomètres ).
Leurs efforts, a-t-il déclaré, se sont largement concentrés soit sur la modification des molécules en cours d’imagerie, soit sur le développement de meilleures stratégies d’éclairage – dont certaines ont conduit au prix Nobel de chimie 2014.
« Mais très peu ont réellement essayé d’utiliser le détecteur lui-même pour essayer de dépasser cette limite de détection », explique Deepak Nair, professeur agrégé au Center for Neuroscience (CNS), IISc, et auteur correspondant de l’étude.
Mesurant environ 40 mm (hauteur) sur 60 mm (largeur) sur 25 mm (diamètre) et pesant environ 100 grammes, la caméra neuromorphique utilisée dans l’étude imite la façon dont la rétine humaine convertit la lumière en impulsions électriques et présente plusieurs avantages par rapport aux caméras conventionnelles.
« Dans un appareil photo typique, chaque pixel capture l’intensité de la lumière qui tombe dessus pendant toute la durée d’exposition pendant laquelle l’appareil photo se concentre sur l’objet, et tous ces pixels sont regroupés pour reconstruire une image. Dans les caméras neuromorphiques, chaque pixel fonctionne de manière indépendante et asynchrone, générant des événements ou des pointes uniquement lorsqu’il y a un changement dans l’intensité de la lumière tombant sur ce pixel », a déclaré IISc.
Cela, dit-il, génère des quantités de données clairsemées et inférieures par rapport aux caméras traditionnelles, qui capturent chaque valeur de pixel à un taux fixe, qu’il y ait ou non un changement dans la scène. Et ce fonctionnement d’une caméra neuromorphique est similaire au fonctionnement de la rétine humaine, et lui permet « d’échantillonner » l’environnement avec une résolution temporelle beaucoup plus élevée – car il n’est pas limité par une fréquence d’images comme les caméras normales – et également d’effectuer une suppression d’arrière-plan.
« Ces caméras neuromorphiques ont une plage dynamique très élevée, ce qui signifie que l’on peut passer d’un environnement très peu éclairé à des conditions très lumineuses. La combinaison de la nature asynchrone, de la plage dynamique élevée, des données rares et de la résolution temporelle élevée des caméras neuromorphiques les rend bien adaptées à une utilisation en microscopie neuromorphique », explique Chetan Singh Thakur, professeur adjoint, département d’ingénierie des systèmes électroniques (DESE) et coauteur.
Dans l’étude actuelle, le groupe a utilisé sa caméra pour localiser des billes fluorescentes individuelles plus petites que la limite de diffraction, en faisant briller des impulsions laser à des intensités élevées et faibles, et en mesurant la variation des niveaux de fluorescence.
Lorsque l’intensité augmente, la caméra capture le signal comme un événement « ON », tandis qu’un événement « OFF » est signalé lorsque l’intensité lumineuse diminue. Les données de ces événements ont été regroupées pour reconstruire les cadres, a déclaré IISc.
Pour localiser avec précision les particules fluorescentes dans les cadres, l’équipe a utilisé deux méthodes. Le premier était un algorithme d’apprentissage en profondeur, formé sur environ un million et demi de simulations d’images qui représentaient étroitement les données expérimentales, pour prédire où pourrait se trouver le centroïde de l’objet, explique Rohit Mangalwedhekar, ancien stagiaire de recherche au CNS et premier auteur du étude. Un algorithme de segmentation en ondelettes a également été utilisé pour déterminer les centroïdes des particules séparément pour les événements ON et OFF. La combinaison des prédictions des deux a permis à l’équipe de se concentrer sur l’emplacement précis de l’objet avec une plus grande précision que les techniques existantes.
« Dans les processus biologiques comme l’auto-organisation, vous avez des molécules qui alternent entre des mouvements aléatoires ou dirigés, ou qui sont immobilisées. Par conséquent, vous devez avoir la capacité de localiser le centre de cette molécule avec la plus grande précision possible afin que nous puissions comprendre les règles empiriques qui permettent l’auto-organisation », explique Nair.
L’équipe a pu suivre de près le mouvement d’une perle fluorescente se déplaçant librement dans une solution aqueuse en utilisant cette technique. Cette approche peut donc avoir de nombreuses applications dans le suivi et la compréhension précis des processus stochastiques en biologie, chimie et physique.



[ad_2]

Source link -36