Microsoft lance Azure AI Content Safety pour filtrer les contenus nuisibles des utilisateurs et de l’IA Dans le but d’amliorer l’exprience utilisateur et de protger son image de marque

un ingnieur Microsoft s'est fait pirater son compte et a expos des utilisateurs de haut niveau, des hackers ont vol une cl de signature dans un crash dump



Microsoft a annonc la disponibilit gnrale de son service Azure AI Content Safety. Ce systme est conu pour aider les oprateurs de plateformes dtecter et filtrer les contenus nuisibles gnrs par les utilisateurs et ceux gnrs par l’intelligence artificielle dans leurs services et applications.

Azure AI Content Safety peut tre utilis pour analyser et bloquer les contenus textuels et imags, et Microsoft l’a rendu hautement personnalisable afin qu’il puisse tre adapt diffrentes modalits. L’entreprise prcise que le service peut tre utilis pour liminer les contenus offensants, risqus ou indsirables, tels que les blasphmes, les contenus pour adultes, le gore, la violence, les discours de haine, etc.

En annonant la disponibilit d’Azure AI Content Safety, Microsoft souligne que les avantages d’un tel contrle des contenus sont multiples. En plus de contribuer amliorer l’exprience des utilisateurs en liminant les contenus indsirables ou nuisibles, l’image de marque est galement protge en vitant d’tre associe de tels contenus.

L’entreprise met en avant plusieurs caractristiques d’Azure AI Content Safety, notamment sa capacit grer plusieurs langues. Microsoft parle de « scurit globale 360 degrs » en ce qui concerne les capacits d’analyse de texte et d’image du service. cela s’ajoute la possibilit de catgoriser le contenu pour le filtrer de diffrentes manires, et l’indication de la gravit pour permettre une meilleure analyse des menaces.

Dans un billet de blog consacr au service, Louise Han, de Microsoft, dclare :

Nous sommes ravis d’annoncer la disponibilit gnrale d’Azure AI Content Safety, un nouveau service qui vous aide dtecter et filtrer les contenus nuisibles gnrs par l’utilisateur et l’IA dans vos applications et services. Content Safety comprend la dtection de texte et d’image pour trouver le contenu offensant, risqu ou indsirable, tel que le blasphme, le contenu pour adultes, le gore, la violence, le discours de haine, et plus encore.

Elle ajoute :

L’impact des contenus nuisibles sur les plateformes va bien au-del de l’insatisfaction des utilisateurs. Il peut nuire l’image d’une marque, roder la confiance des utilisateurs, compromettre la stabilit financire long terme et exposer la plateforme des responsabilits juridiques potentielle.

Il est essentiel de ne pas se limiter aux contenus gnrs par les humains, d’autant plus que les contenus gnrs par l’IA sont de plus en plus rpandus. Il est essentiel de s’assurer de l’exactitude, de la fiabilit et de l’absence d’lments nuisibles ou inappropris dans les rsultats gnrs par l’IA. La scurit du contenu ne protge pas seulement les utilisateurs contre la dsinformation et les dommages potentiels, mais elle permet galement de respecter les normes thiques et de renforcer la confiance dans les technologies d’IA. En nous concentrant sur la scurit du contenu, nous pouvons crer un environnement numrique plus sr qui favorise une utilisation responsable de l’IA et prserve le bien-tre des individus et de la socit dans son ensemble.

C’est prcisment pour ces raisons que l’quipe Microsoft Responsible AI construit un systme plusieurs niveaux avec des modles et des technologies de scurit robustes.

Source : Microsoft Azure

Et vous ?

Quel est votre avis sur cette annonce de Microsoft ?

Voir aussi :

La nouvelle alternative open-source ChatGPT de Microsoft permet aux entreprises de dployer des chatbots privs et personnalisables avec des garanties de confidentialit

Le Parlement britannique adopte Online Safety Bill, son projet de loi sur la scurit en ligne. La clause espion visant scanner les tlphones la recherche de CSAM n’est pas supprime

Microsoft licencie son quipe charge de l’thique IA, tandis que l’entreprise acclre son avance dans les produits d’IA



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.