Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Les militants de la justice pénale et de la lutte antiraciste ont fait part de leurs inquiétudes concernant une application utilisée par les écoles de Bristol pour « surveiller et profiler » les élèves et leurs familles.
L’application, utilisée par plus de 100 écoles, permet aux responsables de la protection d’accéder rapidement et facilement aux contacts des élèves et de leurs familles avec la police, la protection de l’enfance et les services sociaux.
L’une des principales préoccupations des militants est que l’application Think Family Education (TFE) inclut l’analyse des enfants susceptibles d’être exposés à la criminalité, ce qui, selon eux, risque de conduire à davantage de discrimination à l’encontre des élèves issus de minorités ethniques ou de la classe ouvrière.
Le personnel utilisant l’application a déclaré à Fair Trials, une organisation caritative de campagne pour la justice pénale, qu’ils la gardaient secrète pour les parents et les tuteurs, et a admis que beaucoup s’en inquiéteraient s’ils en avaient connaissance.
Le conseil municipal de Bristol et la police d’Avon et du Somerset, qui ont travaillé ensemble sur le système, insistent sur le fait qu’il est en place pour protéger les enfants, et non pour les criminaliser, et nient qu’il soit secret, soulignant que les informations sur son existence sont accessibles au public.
Mais Fair Trials a déclaré que la grande majorité des parents ne sauraient rien de l’application. Griff Ferris, responsable juridique et politique principal de l’association, a déclaré : « Les écoliers ne devraient pas être surveillés, profilés et criminalisés par des bases de données secrètes de la police. La surveillance n’est pas la protection.
« Des systèmes comme celui-ci perpétuent la discrimination existante à l’encontre des enfants et des familles issus de milieux ethniques minoritaires et plus défavorisés. Ce système élargit le réseau de surveillance. Il faudrait le fermer. »
Un porte-parole de l’organisation antiraciste No More Exclusions Bristol a déclaré : « Les technologies qui collectent et utilisent des informations au nom de la « sécurité publique » reproduisent massivement des idées racialisées de comportement problématique.
Liz Fekete, directrice de l’Institut des relations raciales, a vivement critiqué certains éléments de l’application, affirmant que cette approche « stigmatise des familles entières et laisse même les enfants des écoles primaires vulnérables à la surveillance policière et à la collecte de renseignements ».
Lorsqu’il a été consulté, le Bristol City Youth Council, un groupe élu de jeunes, a exprimé des réserves sur le fait que si le système n’était pas utilisé correctement, il pourrait conduire à « des préjugés et des jugements ».
Des systèmes permettant de rassembler des informations sur les enfants sont utilisés dans d’autres régions d’Angleterre, mais le conseil municipal de Bristol décrit Think Family comme « innovant » et un certain nombre d’autorités locales surveillent le fonctionnement de l’application.
Sur son site Internet, le conseil indique que la base de données Think Family, sur laquelle s’appuie l’application, comprend des informations provenant d’environ 50 000 familles à travers la ville, collectées auprès d’agences telles que les services sociaux, la police et le ministère du Travail et des Retraites. Il affirme mettre en évidence « les vulnérabilités ou les besoins » et utiliser des « analyses ciblées » pour aider à identifier les enfants exposés au risque d’exploitation sexuelle ou criminelle.
Les critiques affirment que la réalité est que cela risque d’entraîner des enfants issus de minorités ethniques ou de milieux plus pauvres comme étant impliqués dans des gangs ou dans des opérations à la frontière des comtés.
Les écoles utilisant l’application TFE reçoivent des alertes sur les contacts des enfants et des membres de leur famille avec la police, les comportements antisociaux et les incidents de violence domestique. Le système permet également aux écoles d’accéder à des informations personnelles sensibles sur la situation financière des familles.
Les responsables de la protection des écoles ont déclaré à Fair Trials qu’ils gardaient le système secret pour les enfants et leurs familles. L’un d’eux a déclaré : « Ils [parents and carers] ne le sauraient pas… les parents n’en auront aucune trace… Ils ne connaissent tout simplement pas son existence.
Ils ont décrit le système comme « un processus d’alerte précoce » et ont admis : « Je pense qu’il y a un certain risque que les écoles détiennent ce type de banque centrale d’informations. »
Un porte-parole du conseil municipal de Bristol a déclaré que la base de données Think Family avait été introduite pour contrer la tendance des agences à travailler en silos à une époque de « compression générationnelle » des finances publiques.
Le porte-parole a déclaré : « L’introduction de l’application Think Family Education signifie que les écoles… ont accès à des informations appropriées de manière sécurisée et restreinte pour prendre des décisions sur la manière dont elles soutiennent les enfants. Des contrôles stricts sont en place pour déterminer qui peut accéder à ces informations, comment ils le font et les raisons pour lesquelles.
Un porte-parole de la police d’Avon et du Somerset a déclaré que la base de données fournissait aux professionnels travaillant avec des enfants des informations conjointes pour identifier et protéger ceux qui risquent d’être exploités criminellement et sexuellement.
« L’application TFE donne aux professionnels un accès immédiat à ces informations, les aidant ainsi à agir rapidement face aux risques identifiés. » Le porte-parole a déclaré que ni l’application ni la base de données n’évaluaient la probabilité qu’un individu commette un crime.
La force a déclaré que « des accords robustes de confidentialité et de partage » avaient été approuvés par le Bureau du commissaire à l’information et que le développement du système avait été réalisé en collaboration avec le Centre pour l’éthique et l’innovation des données.