Pourquoi Mark Zuckerberg demande à Meta d'offrir ses modèles d'IA les plus avancés
MaisonMaison > Nouvelles > Pourquoi Mark Zuckerberg demande à Meta d'offrir ses modèles d'IA les plus avancés

Pourquoi Mark Zuckerberg demande à Meta d'offrir ses modèles d'IA les plus avancés

May 20, 2023

Classé sous :

Le débat sur l’IA divise le monde de la technologie, expliqué.

La semaine dernière, Meta a changé la donne dans le monde de l’IA.

À une époque où d'autres grandes sociétés d'IA comme Google et OpenAI gardent de près leur sauce secrète, Meta a décidé de distribuer gratuitement le code qui alimente son nouveau modèle innovant de grand langage d'IA, Llama 2. Cela signifie que d'autres entreprises peuvent désormais l'utiliser. Le modèle Llama 2 de Meta, qui, selon certains technologues, est comparable à ChatGPT dans ses capacités, pour créer leurs propres chatbots personnalisés.

Llama 2 pourrait contester la domination de ChatGPT, qui a battu des records en étant l'une des applications à la croissance la plus rapide de tous les temps. Mais plus important encore, sa nature open source ajoute une nouvelle urgence à un débat éthique important sur qui devrait contrôler l’IA – et si elle peut être sécurisée.

À mesure que l’IA devient plus avancée et potentiellement plus dangereuse, est-il préférable pour la société que le code soit secret – limité au personnel d’un petit nombre d’entreprises – ou devrait-il être partagé avec le public afin qu’un groupe plus large de personnes puisse l’avoir ? un rôle dans l’élaboration de la technologie transformatrice ?

Dans l'annonce de Meta's Llama 2, Mark Zuckerberg a publié un Instagram de lui-même souriant avec le PDG de Microsoft, Satya Nadella, annonçant le partenariat des deux sociétés lors de la sortie. Zuckerberg a également expliqué pourquoi il est préférable que les principaux modèles d'IA soient « open source », ce qui signifie rendre le code sous-jacent de la technologie largement accessible à tous.

"L'Open Source stimule l'innovation car il permet à beaucoup plus de développeurs de construire avec les nouvelles technologies", a écrit Zuckerberg dans un autre article sur Facebook. « Cela améliore également la sûreté et la sécurité, car lorsque le logiciel est ouvert, davantage de personnes peuvent l'examiner pour identifier et résoudre les problèmes potentiels. »

Cette décision est saluée par de nombreux développeurs, chercheurs et universitaires en IA qui affirment que cela leur donnera un accès sans précédent pour créer de nouveaux outils ou systèmes d'étude qui, autrement, seraient d'un coût prohibitif à créer. Les grands modèles linguistiques de pointe comme ceux qui alimentent ChatGPT peuvent coûter des dizaines de millions de dollars à créer et à maintenir.

"Je me prépare simplement au genre de progrès qui peut se produire", a déclaré Nazneen Rajani, responsable de la recherche sur la plateforme d'IA open source Hugging Face, qui a collaboré avec Meta sur la publication. Rajani a écrit un article sur Twitter évaluant les capacités de Llama 2 lors de sa première sortie et a déclaré à Vox : « Nous serons en mesure de découvrir des ingrédients plus secrets sur ce qu'il faut réellement pour construire un modèle comme GPT-4. »

Mais l’IA open source comporte des risques majeurs. Certains des plus grands acteurs du domaine, notamment OpenAI et Google, soutenus par Microsoft, ont limité la part de leurs systèmes d'IA rendus publics en raison de ce qu'ils citent comme les graves dangers de ces technologies.

Certains technologues s'inquiètent de plus en plus des scénarios hypothétiques apocalyptiques dans lesquels une IA pourrait déjouer les êtres humains pour infliger des dommages, comme lancer une super arme biologique ou causer d'autres ravages d'une manière que nous ne pouvons pas vraiment imaginer. Le co-fondateur d'OpenAI, Ilya Sutskever, a déclaré à The Verge en février que son entreprise avait « complètement tort » lorsqu'elle partageait plus ouvertement des détails sur ses modèles dans le passé, car si l'IA devenait un jour aussi intelligente que les humains, elle atteindrait ce que certains appellent AGI ou intelligence artificielle générale, il serait imprudent de partager cela avec les masses.

« Si vous pensez, comme nous, qu’à un moment donné, l’IA – AGI – va être extrêmement, incroyablement puissante, alors l’open source n’a tout simplement pas de sens. C’est une mauvaise idée », avait déclaré Sutskever à l’époque.

Même si nous sommes peut-être loin des IA capables de provoquer une véritable destruction humaine, nous avons déjà vu des outils d’IA de la communauté open source être utilisés à d’autres fins. Par exemple, peu de temps après que Meta ait publié son premier modèle Llama strictement destiné à la recherche en février, celui-ci a été divulgué sur le forum de discussion en ligne 4Chan, où tout est permis, où il a ensuite été utilisé pour créer des chatbots qui diffusaient du contenu haineux comme des insultes racistes et, dans certains cas. , des scènes de violence graphique.