Les dveloppeurs et les responsables de la scurit des applications se tournent vers l’IA gnrative Malgr les risques de scurit identifis, selon une tude de Sonatype

Les textes gnrs par l'IA pourraient accrotre l'exposition aux menaces L'identification des contenus malveillants ou abusifs deviendra plus difficile pour les fournisseurs de plateformes



Selon 800 dveloppeurs (DevOps) et responsables de la scurit des applications (SecOps) interrogs, 97 % d’entre eux utilisent aujourd’hui la technologie GenAI, 74 % d’entre eux dclarant qu’ils se sentent contraints de l’utiliser malgr les risques de scurit identifis.

L’tude de la socit de gestion de la chane d’approvisionnement logicielle Sonatype montre que 45 % des responsables SecOps ont dj mis en uvre l’IA gnrative dans le processus de dveloppement logiciel, contre seulement 31 % pour les DevOps.

Cela peut s’expliquer par le fait que les responsables SecOps constatent des gains de temps plus importants que leurs homologues DevOps, 57 % d’entre eux dclarant que l’IA gnrative leur permet d’conomiser au moins six heures par semaine, contre seulement 31 % des rpondants DevOps.

Interrogs sur les impacts les plus positifs de cette technologie, les responsables DevOps font tat d’un dveloppement logiciel plus rapide (16 %) et d’un logiciel plus sr (15 %). Les responsables SecOps citent l’augmentation de la productivit (21 %) et l’identification/rsolution plus rapide des problmes (16 %) comme leurs principaux avantages.

En revanche, plus des trois quarts des responsables DevOps estiment que l’utilisation de l’IA gnrative entranera une augmentation des vulnrabilits dans le code source ouvert. Il est peut-tre surprenant de constater que les responsables SecOps sont moins inquiets (58 %). Par ailleurs, 42 % des rpondants DevOps et 40 % des responsables SecOps affirment que l’absence de rglementation pourrait dissuader les dveloppeurs de contribuer des projets open source.

Les responsables des deux domaines souhaitent davantage de rglementation. la question de savoir qui, selon eux, est responsable de la rglementation de l’utilisation de l’IA gnrative, 59 % des responsables DevOps et 78 % des responsables SecOps dclarent que le gouvernement et les entreprises individuelles devraient tre responsables de la rglementation.

« L’re de l’IA ressemble aux premiers jours de l’open source, comme si nous construisions l’avion au fur et mesure que nous le pilotons en termes de scurit, de politique et de rglementation« , dclare Brian Fox, cofondateur et directeur technique de Sonatype. « L’adoption a t gnralise, et le cycle de dveloppement des logiciels ne fait pas exception. Si les dividendes de la productivit sont vidents, nos donnes rvlent galement une ralit proccupante et indissociable : les menaces de scurit poses par cette technologie encore naissante. Chaque cycle d’innovation s’accompagne de nouveaux risques, et il est primordial que les dveloppeurs et les responsables de la scurit des applications envisagent l’adoption de l’IA en tenant compte de la sret et de la scurit.« 

La question des licences et de la rmunration des contenus gnrs par l’IA est galement proccupante. Notamment, les dcisions contre la protection du droit d’auteur pour les uvres d’art gnres par l’IA ont dj suscit un dbat sur la quantit d’apport humain ncessaire pour rpondre ce que la loi actuelle dfinit comme une vritable paternit de l’uvre. Les personnes interroges sont d’accord pour dire que les crateurs devraient dtenir les droits d’auteur sur les rsultats gnrs par l’IA en l’absence de loi sur les droits d’auteur (40 %), et les deux groupes sont massivement d’accord pour dire que les dveloppeurs devraient tre indemniss pour le code qu’ils ont crit s’il est utilis dans des artefacts open source dans les LLM.

Source : Sonatype

Et vous ?

Quelle lecture faites-vous de cette situation ?

Trouvez-vous que les conclusions de cette tude de Sonatype sont crdibles et pertinentes ?

Qu’en est-il au sein de votre organisation ?

Voir aussi

92 % des dveloppeurs utiliseraient des outils d’intelligence artificielle, selon une enqute de GitHub auprs des dveloppeurs

L’intelligence artificielle gnrative boosterait la productivit des travailleurs de 14 %, selon une tude mene par l’Universit de Stanford

34 % des dveloppeurs d’applications utiliseraient dsormais l’IA, d’aprs Sensor Tower

L’IA va-t-elle liminer des emplois, en particulier pour les dveloppeurs ? Non, selon une enqute qui estime que l’intelligence artificielle pourrait crer plus d’emplois qu’elle n’en supprime



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.