L’intelligence artificielle générative (Gen AI), capable de produire du contenu à partir d’entrées spécifiques, est sur le point de transformer divers secteurs comme la science, l’économie, l’éducation et l’environnement. Des recherches approfondies visent à comprendre l’étendue de ses implications, tout en reconnaissant les risques et les opportunités. Un débat persiste autour de l’ouverture des modèles Gen AI. Certains soutiennent une divulgation ouverte pour un bénéfice universel.
Les chercheurs, notamment de l’Université d’Oxford et de l’Université de Californie à Berkeley, plaident pour un développement et un déploiement responsables de l’open-source, comparant son potentiel à celui des logiciels traditionnels open-source. Une étude classe les modèles en fermés, semi-ouverts et totalement ouverts, évaluant à la fois les avantages et les risques à court et long terme. Par exemple, les modèles fermés surpassent encore les modèles ouverts, mais l’écart se réduit.
L’analyse souligne également les risques existentiels, comme la possibilité que l’IA de niveau AGI (intelligence générale artificielle) puisse causer l’extinction humaine ou une catastrophe irréversible. Bien que ce risque soit spéculatif, il suscite un débat intense sur l’impact potentiel de l’open-source dans ce contexte. En outre, l’étude recommande des politiques équilibrées pour maximiser les avantages de la recherche et de l’innovation tout en minimisant les risques associés à une IA centralisée.
En conclusion, le fossé diminuant entre les modèles fermés et ouverts alimente les discussions sur les meilleures pratiques pour atténuer les risques. Les préoccupations liées à la sécurité de l’IA augmentent, nécessitant des modèles ouverts pour réduire les risques de centralisation, même si cela accroît le potentiel de mauvaise utilisation.