OpenAI publie ses intentions dans le domaine de la sécurité en Intelligence artificielle, cela sera-t'il suffisant ?

OpenAI, la société à l'origine de ChatGPT, vient de publier la manière dont elle entend garantir la sécurité de l'intelligence artificielle (IA). L'entreprise explique que la sécurité est un élément central de la conception de ses produits d'IA et que les mesures de sécurité sont continuellement améliorées sur la base des retours d'expérience dans le monde réel. OpenAI souligne son engagement en faveur de la protection des enfants et de la vie privée des utilisateurs et confirme les efforts qu'elle déploie pour que son outil ChatGPT fournisse, dans la mesure du possible, des résultats factuellement corrects. Enfin, l'entreprise précise qu'elle continuera à renforcer ces mesures de protection au fur et à mesure de l'évolution de ses systèmes d'IA.

Nom : open ai.png
Affichages : 1704
Taille : 5,2 Ko

OpenAI s'engage à ce que l'IA puissante reste sûre et largement bénéfique. Nous savons que nos outils d'IA apportent de nombreux avantages aux gens d'aujourd'hui. Nos utilisateurs du monde entier nous ont dit que ChatGPT les aidait à augmenter leur productivité, à améliorer leur créativité et à offrir des expériences d'apprentissage personnalisées. Nous reconnaissons également que, comme toute technologie, ces outils comportent des risques réels. C'est pourquoi nous veillons à ce que la sécurité soit intégrée à notre système à tous les niveaux.

Construire des systèmes d'IA de plus en plus sûrs

Avant de lancer un nouveau système, nous procédons à des tests rigoureux, faisons appel à des experts externes pour obtenir un retour d'information, travaillons à l'amélioration du comportement du modèle à l'aide de techniques telles que l'apprentissage par renforcement avec retour d'information humain, et mettons en place de vastes systèmes de sécurité et de surveillance.

Par exemple, une fois que notre dernier modèle, GPT-4, a terminé sa formation, nous avons passé plus de six mois à travailler dans toute l'organisation pour le rendre plus sûr et mieux aligné avant de le rendre public.

Nous pensons que les systèmes d'IA puissants devraient faire l'objet d'évaluations de sécurité rigoureuses. Une réglementation est nécessaire pour garantir l'adoption de telles pratiques, et nous nous engageons activement auprès des gouvernements sur la meilleure forme que pourrait prendre une telle réglementation.

Tirer les leçons du monde réel pour améliorer les mesures de protection

Nous travaillons dur pour prévenir les risques prévisibles avant le déploiement, mais il y a une limite à ce que nous pouvons apprendre dans un laboratoire. Malgré des recherches et des essais approfondis, nous ne pouvons pas prédire toutes les façons dont les gens utiliseront notre technologie, ni toutes les façons dont ils en abuseront. C'est pourquoi nous pensons que l'apprentissage par l'utilisation réelle est un élément essentiel de la création et de la mise à disposition de systèmes d'IA de plus en plus sûrs au fil du temps.

Nous diffusons prudemment et progressivement de nouveaux systèmes d'IA - en mettant en place d'importantes mesures de protection - auprès d'un groupe de personnes de plus en plus large, et nous apportons des améliorations constantes en fonction des enseignements que nous tirons.

Nous mettons à disposition nos modèles les plus performants par le biais de nos propres services et d'une API afin que les développeurs puissent intégrer cette technologie directement dans leurs applications. Cela nous permet de surveiller les abus et d'agir en conséquence, et de mettre en place en permanence des mesures d'atténuation qui répondent à la façon dont les gens utilisent nos systèmes, et pas seulement à des théories sur ce à quoi les abus pourraient ressembler.

L'utilisation dans le monde réel nous a également conduits à élaborer des politiques de plus en plus nuancées contre les comportements qui représentent un véritable risque pour les personnes, tout en permettant les nombreuses utilisations bénéfiques de notre technologie.

Nous sommes convaincus que la société doit avoir le temps de se mettre à jour et de s'adapter à une IA de plus en plus performante, et que tous ceux qui sont concernés par cette technologie devraient avoir leur mot à dire sur la façon dont l'IA se développe. Le déploiement itératif nous a permis d'associer diverses parties prenantes à la conversation sur l'adoption de la technologie de l'IA plus efficacement que si elles n'avaient pas eu d'expérience directe avec ces outils.

Protéger les enfants

La protection des enfants est l'une des priorités de nos efforts en matière de sécurité. Nous exigeons que les personnes soient âgées de 18 ans ou plus - ou de 13 ans ou plus avec l'accord de leurs parents - pour utiliser nos outils d'IA et nous étudions des options de vérification.

Nous ne permettons pas que notre technologie soit utilisée pour générer des contenus haineux, harcelants, violents ou pour adultes, entre autres. Notre dernier modèle, GPT-4, est 82 % moins susceptible de répondre à des demandes de contenu interdit que GPT-3.5, et nous avons mis en place un système robuste de surveillance des abus. GPT-4 est désormais disponible pour les abonnés de ChatGPT Plus et nous espérons le rendre accessible à un plus grand nombre de personnes au fil du temps.

Nous avons déployé des efforts considérables pour minimiser le risque que nos modèles génèrent des contenus préjudiciables aux enfants. Par exemple, lorsque des utilisateurs tentent de télécharger du matériel pédopornographique dans nos outils d'imagerie, nous le bloquons et le signalons au National Center for Missing and Exploited Children (Centre national pour les enfants disparus et exploités).

Outre nos garde-fous par défaut, nous travaillons avec des développeurs tels que l'organisation à but non lucratif Khan Academy, qui a mis au point un assistant doté d'une intelligence artificielle servant à la fois de tuteur virtuel pour les élèves et d'assistant de classe pour les enseignants, sur des mesures de sécurité adaptées à leur cas d'utilisation. Nous travaillons également sur des fonctionnalités qui permettront aux développeurs de définir des normes plus strictes pour les résultats des modèles afin de mieux soutenir les développeurs et les utilisateurs qui souhaitent une telle fonctionnalité.

Respect de la vie privée

Nos grands modèles de langage sont formés sur un vaste corpus de textes comprenant des contenus accessibles au public, des contenus sous licence et des contenus générés par des évaluateurs humains. Nous n'utilisons pas les données pour vendre nos services, faire de la publicité ou établir des profils de personnes. Nous utilisons les données pour rendre nos modèles plus utiles pour les personnes. ChatGPT, par exemple, s'améliore en s'entraînant davantage sur les conversations que les gens ont avec lui.

Bien que certaines de nos données d'entraînement comprennent des informations personnelles disponibles sur l'internet public, nous voulons que nos modèles apprennent à connaître le monde, et non des personnes privées. Nous nous efforçons donc de supprimer les informations personnelles de l'ensemble des données de formation lorsque cela est possible, d'affiner les modèles afin de rejeter les demandes d'informations personnelles des personnes privées et de répondre aux demandes des personnes souhaitant supprimer leurs informations personnelles de nos systèmes. Ces mesures minimisent la possibilité que nos modèles génèrent des réponses contenant des informations personnelles sur des personnes privées.

Améliorer l'exactitude des faits

Les grands modèles linguistiques actuels prédisent la prochaine série de mots en se basant sur des modèles qu'ils ont déjà vus, y compris les données textuelles fournies par l'utilisateur. Dans certains cas, les prochains mots les plus probables peuvent ne pas être exacts sur le plan factuel.

L'amélioration de l'exactitude des faits est un objectif important pour OpenAI et de nombreux autres développeurs d'IA, et nous faisons des progrès. En exploitant les commentaires des utilisateurs sur ChatGPT qui ont été signalés comme incorrects comme source principale de données, nous avons amélioré l'exactitude factuelle de GPT-4. GPT-4 est 40 % plus susceptible de produire un contenu factuel que GPT-3.5.

Lorsque les utilisateurs s'inscrivent pour utiliser l'outil, nous nous efforçons d'être aussi transparents que possible sur le fait que ChatGPT peut ne pas toujours être exact. Cependant, nous reconnaissons qu'il reste encore beaucoup à faire pour réduire davantage la probabilité d'hallucinations et pour éduquer le public sur les limites actuelles de ces outils d'intelligence artificielle.

Poursuite de la recherche et de l'engagement

Nous pensons qu'une approche pratique pour résoudre les problèmes de sécurité de l'IA consiste à consacrer plus de temps et de ressources à la recherche de techniques d'atténuation et d'alignement efficaces et à les tester contre les abus dans le monde réel.

Il est important de noter que nous pensons également que l'amélioration de la sécurité et des capacités de l'IA doit aller de pair. À ce jour, nos meilleurs résultats en matière de sécurité ont été obtenus en travaillant avec nos modèles les plus performants, car ils suivent mieux les instructions des utilisateurs et sont plus faciles à diriger ou à "guider".

Nous serons de plus en plus prudents lors de la création et du déploiement de modèles plus performants, et nous continuerons à renforcer les mesures de sécurité au fur et à mesure de l'évolution de nos systèmes d'IA.

Bien que nous ayons attendu plus de six mois pour déployer GPT-4 afin de mieux comprendre ses capacités, ses avantages et ses risques, il peut parfois être nécessaire de prendre plus de temps que cela pour améliorer la sécurité des systèmes d'IA. Par conséquent, les décideurs politiques et les fournisseurs d'IA devront veiller à ce que le développement et le déploiement de l'IA soient régis de manière efficace à l'échelle mondiale, afin que personne ne prenne de raccourcis pour prendre de l'avance. Il s'agit d'un défi de taille qui nécessite des innovations techniques et institutionnelles, mais nous sommes impatients d'y contribuer.

La résolution des problèmes de sécurité nécessite également un débat, une expérimentation et un engagement approfondis, notamment sur les limites du comportement des systèmes d'intelligence artificielle. Nous avons encouragé et continuerons d'encourager la collaboration et le dialogue ouvert entre les parties prenantes afin de créer un écosystème d'IA sûr.
Source : OpenAI

Et vous ?

Quelle lecture en faites-vous ?

Selon vous, cette publication des intentions d'OpenAI sur la sécurité sera-t-elle suffisante pour rassurer ses détracteurs ?

Voir aussi

Le PDG d'OpenAI craint que les autres développeurs d'IA qui travaillent sur des outils de type ChatGPT ne mettent pas de limites de sécurité, il estime que cela pourrait créer une IA plus diabolique

Le PDG d'OpenAI affirme qu'il "se sent mal" après que ChatGPT a divulgué l'historique des conversations et des informations de paiement, la sécurité de chatbot suscite toujours des inquiétudes

Le PDG d'OpenAI affirme que l'IA donnera du pouvoir aux gens sur le plan économique, mais ne leur volera pas leur emploi, suite à la crainte de nombreux utilisateurs