Nottingham Guardian - OpenAI affirme que l'IA est "suffisamment sûre" malgré les scandales

Euronext
AEX 1.58% 879.8
BEL20 1.67% 4228.29
PX1 0.58% 7255.01
ISEQ 0.18% 9613.97
OSEBX 0.26% 1468.66 kr
PSI20 0.76% 6409
ENTEC -0.41% 1416.23
BIOTK 2.98% 2989.04
N150 0.75% 3295.3
OpenAI affirme que l'IA est "suffisamment sûre" malgré les scandales
OpenAI affirme que l'IA est "suffisamment sûre" malgré les scandales / Photo: Jason Redmond - AFP

OpenAI affirme que l'IA est "suffisamment sûre" malgré les scandales

Sam Altman, le patron d'OpenAI (ChatGPT), a défendu mardi l'intelligence artificielle (IA) générative conçue par son entreprise comme "suffisamment sûre", et encouragé le secteur à avancer rapidement dans cette technologie, malgré les controverses actuelles autour de sa start-up.

Taille du texte:

GPT-4, le modèle d'IA d'OpenAI, "est loin d'être parfait. Nous avons encore du travail, mais il est généralement considéré comme suffisamment solide et suffisamment sûr pour un grand nombre d'usages", a-t-il déclaré à Seattle sur la scène de "Build", la conférence annuelle de Microsoft, son principal investisseur.

Après les annonces flamboyantes d'OpenAI et de Google la semaine dernière, et bien avant celles très attendues d'Apple en juin, c'était au tour de Microsoft cette semaine d'étaler ses innovations dans la technologie considérée comme une nouvelle révolution industrielle.

Mais l'accumulation des polémiques a quelque peu volé la vedette au géant informatique, auto proclamé "leader de l'industrie dans l'IA".

Sam Altman vient en effet de présenter des excuses à l'actrice Scarlett Johansson, qui l'accuse d'avoir copié sa voix pour le tout nouveau mode vocal de ChatGPT.

Il a aussi suspendu Sky, la voix en question générée par l'IA, utilisée lors d'une démonstration des capacités de son nouveau modèle multimodal, GPT-4o.

Dans un communiqué lundi, l'actrice a raconté avoir refusé au dirigeant le droit d'utiliser sa voix, et s'est dite "choquée" par la forte ressemblance.

"J'ai été très surpris par à quel point j'aime le nouveau mode vocal", a cependant confié Sam Altman, tout sourire, sur scène mardi.

- "Produits tape-à-l'œil" -

Il a encouragé les milliers de développeurs qui suivent la conférence à "profiter" de cette "période spéciale", "la plus excitante depuis l'avènement du mobile, voire d'internet".

"Ce n'est pas le moment de remettre vos idées à plus tard ou d'attendre les prochaines évolutions", a-t-il insisté.

Il a aussi vanté les performances son nouveau modèle : "la vitesse et le coût sont très importants. Avec GPT-4o, nous avons réussi à diviser le prix par deux tout en doublant la vitesse".

Et à l'avenir, "les modèles vont devenir encore plus intelligents", a-t-il promis, assurant que "c'est ce qui compte le plus".

De nombreux observateurs et élus s'inquiètent de la vitesse ultra rapide à laquelle les géants de la tech déploient des outils d'IA toujours plus perfectionnés et humanisés.

Les groupes, eux, se félicitent de leurs progrès exponentiels, et assurent que "ce n'est que le début".

Hormis les voix dissonantes, comme Jan Leike, ancien responsable de l'équipe d'OpenAI chargée d'encadrer les éventuels dangers à long terme d'une "super IA", aux capacités cognitives semblables à celles des humains.

Il a démissionné la semaine dernière, estimant sur X (ex-Twitter) que l'entreprise donnait la priorité aux "nouveaux produits tape-à-l'œil" plutôt qu'à la sécurité.

Son co-directeur, Ilya Sutskever, un cofondateur de l'entreprise, est aussi parti. OpenAI a dissous l'équipe et dispatché ses membres dans d'autres groupes.

- "Comme un médicament" -

Mardi, Sam Altman a assuré prendre au sérieux les enjeux de sécurité des modèles d'IA, de plus en plus utilisés à grande échelle malgré l'opacité de leur fonctionnement.

"C'est comme quand vous prenez un médicament, vous voulez être sûr qu'il ne présente pas de danger", a-t-il noté.

"Je tiens à remercier l'équipe d'OpenAI pour son partenariat et son approche responsable de l'innovation, qui permet à notre industrie de progresser", a déclaré Satya Nadella, le patron de Microsoft, lors de son discours d'ouverture.

Le fabricant de Windows a dévoilé lundi les PC "Copilot+", des nouveaux ordinateurs où son interface d'IA Copilot et d'autres outils sont intégrés par défaut pour aider l'utilisateur dans toutes ses tâches, des emails aux réunions professionnelles et aux projets personnels.

Comme "Recall", qui permet à l'utilisateur de remonter dans le temps sur son PC, voir toutes les fenêtres qu'il a ouvert, ou demander à Copilot de lui retrouver un document.

L'outil a fait bondir le spécialiste de l'IA Gary Marcus, qui y voit une "fonction orwellienne" et surtout une "super cible" pour des cyberatttaques.

Sur X, l'expert a rappelé que Microsoft a récemment été accusé par le gouvernement américain d'avoir commis des erreurs graves de cybersécurité, qui ont contribué à l'intrusion d'un groupe de pirates chinois dans ses serveurs pour accéder aux courriels de plusieurs hauts fonctionnaires.

O.Somerville--NG