Make this article seo compatible, Let there be subheadings for the article, be in french, create at least 700 words
Alors que les ventes de maisons existantes continuent de baisser et que les taux hypothécaires augmentent de plus en plus, éliminant pratiquement tout espoir de transactions de refinancement, le secteur de l’assurance titres redouble d’efforts en matière de technologie. Au premier plan se trouve l’intelligence artificielle, ou IA.
Au Association américaine des titres fonciers Lors de la conférence annuelle ALTA One, plusieurs experts et analystes du secteur ont analysé le battage médiatique, les cas d’utilisation et les risques posés par l’utilisation de l’IA.
« L’IA a permis à chacun d’entre nous, quelle que soit la taille de notre entreprise, de pouvoir agir en grand », Sam Trimble, vice-président de WFGa déclaré aux participants d’ALTA One.
En utilisant l’IA, les sociétés de titres peuvent réduire considérablement le temps nécessaire pour accomplir des tâches telles que la création de supports marketing, notamment du texte, de l’audio et de la vidéo.
Au cours d’une présentation d’une heure, Trimble, accompagné de Bill Svoboda, co-fondateur de FermerSimplea créé une fausse société de titres pour Snoop Dogg, appelée Fouiller les coloniesainsi qu’une variété de supports marketing, dont 52 citations inspirantes, un énoncé de mission, des valeurs fondamentales et un site Web.
Svoboda et Trimble ont utilisé diverses applications d’IA gratuites ou peu coûteuses, notamment Toile, ChatGPT, Lumen5 et Synthésie pour créer les matériaux.
« L’IA ne prendra pas votre travail, mais les gens qui savent comment l’utiliser le feront », a déclaré Svoboda.
En plus d’utiliser ces outils d’IA pour eux-mêmes, Svoboda et Trimble ont demandé aux participants de partager ces informations avec leurs partenaires prêteurs et agents immobiliers.
« Avec des choses comme celle-ci, les gens ne les connaissent pas encore vraiment et si vous êtes le fournisseur de ce genre d’informations, vous allez absolument attirer leur attention et gagner une conversation et un marché en évolution est une bataille pour les conversations », » dit Trimble.
L’IA simplifie le travail, mais peut freiner les compétences en résolution de problèmes
Même si les outils d’IA peuvent être incroyablement utiles, les experts ont mis en garde contre les divers risques juridiques et réglementaires qui pourraient survenir s’ils ne sont pas utilisés de manière responsable.
Dans son discours à l’Omni Session jeudi matin, Rahaf Harfoush, anthropologue numérique, a noté que la plupart des entreprises se concentrent sur l’IA en ce qui concerne l’impact de son utilisation sur leurs efforts de marketing ou de recrutement.
Dans le même temps, les entreprises négligent l’impact culturel que pourraient avoir les technologies, ce qui nous amène à sous-estimer leur impact sur la société.
Avec l’introduction de plateformes d’IA générative telles que ChatGPT, Harfoush a déclaré que la société passe d’une « culture de recherche de résolution de problèmes à une culture de génération de résolution de problèmes ».
Dans le passé, lorsqu’ils étaient confrontés à un problème, les gens tapaient des requêtes dans Google et configuraient lentement une solution à un problème. Mais désormais, grâce à l’IA générative, les gens demandent à un chatbot de trouver une solution à leur problème. Harfoush a déclaré que cela fait en sorte que les gens « risquent de perdre la maîtrise de leur pensée ».
« Nous risquons de perdre notre capacité à comprendre et à essayer de résoudre certains de nos propres problèmes si nous ne faisons pas attention à la manière dont nous appliquons ces outils », a déclaré Harfoush. « Cela signifie donc que nous devons investir dans le développement d’une expertise intentionnelle. »
Harfoush a déclaré que c’était extrêmement important car toute technologie est construite à partir d’un système de croyance et que l’IA est une manifestation d’un système de croyance spécifique.
« Chaque outil technologique est quelqu’un qui dit ‘voici à quoi je pense que le monde devrait ressembler’, qui programme ces attentes, ces croyances et ces idées, et qui dispose ensuite d’une technologie qui exécute cela », a déclaré Harfoush.
Bien qu’il puisse être très facile de créer du contenu à l’aide de plates-formes d’IA générative, Harfoush a déclaré que les utilisateurs devraient se demander s’ils savent quel système de croyance est intégré à l’outil et s’ils, en tant qu’utilisateur, sont d’accord avec ces croyances.
Soyez conscient de la désinformation et du risque de biais
D’un point de vue réglementaire, Elizabeth Riley, vice-présidente principale et responsable de la protection de la vie privée chez Fidelity Financière Nationaleet Genady Vishnevetsky, responsable de la sécurité de l’information chez Stewartil est impératif que les utilisateurs d’IA en soient conscients et gardent un œil sur les biais potentiels, ainsi que sur les fausses informations générées par les robots IA.
« Il est vraiment important de se rappeler qu’avec l’IA générative, il n’y a pas de source fondamentale de vérité », a déclaré Riley. « Ils fonctionnent parce qu’ils ont consommé une tonne de données et qu’ils ont appris à identifier des modèles. »
À titre d’exemple, Riley a souligné comment des antécédents de redlining ou de clauses discriminatoires dans les registres fonciers pourraient avoir un impact sur la capacité d’un outil de prise de décision basé sur l’IA à évaluer correctement si une transaction particulière aura des problèmes à conclure.
« S’il est formé sur des données plus anciennes qui contiennent des preuves de ces choses, vous pourriez alors vous retrouver avec un résultat discriminatoire sans même vous en rendre compte », a déclaré Riley.
Outre les problèmes discriminatoires potentiels, Riley et Vishnevetsky ont averti que l’IA pourrait facilement être utilisée par des fraudeurs et d’autres acteurs malveillants pour créer des escroqueries plus crédibles et plus complètes.
« Nous entrons dans une ère où les communications personnelles et interpersonnelles seront plus importantes que jamais », a déclaré Vishnevetsky après avoir montré aux participants à quel point il est facile de cloner des voix et de créer de faux messages vocaux authentiques. « On ne peut plus faire confiance à rien. »
Malgré son avertissement inquiétant, Vishnevetsky a déclaré que l’IA offre de nombreuses opportunités.
« L’IA est là pour rester », a déclaré Vishnevetsky. « Je vous encourage à l’essayer, mais comprenez les risques de l’écosystème. »