IA : Mark Zuckerberg frappe fort avec Llama 3.1, des internautes conquis 

[DIGITAL Business Africa] – Llama 3.1. La dernière version du modèle d’intelligence artificielle Llama de Meta attire. La nouvelle technologie Llama de Meta a été officiellement annoncée mardi 23 juillet 2024. Selon Meta, Llama 3.1 « rivalise avec les meilleurs modèles d’IA en termes de capacités de pointe dans les domaines de la connaissance générale, de l’orientation, des mathématiques, de l’utilisation d’outils et de la traduction multilingue ». L’intelligence artificielle Llama 3.1 peut être utilisée évidemment sur Facebook, Instagram, WhatsApp et Messenger pour aider les utilisateurs dans leurs tâches, apprendre, créer et en savoir plus sur les sujets qui les intéressent. Et sur la toile, chacun y va de sa curiosité. Mais au final, le résultat est concluant. Plusieurs posts des internautes depuis son lancement le prouvent. En voici quelques-uns.

 

L’on peut comprendre l’attrait de Llama 3.1. Car « jusqu’à aujourd’hui, rapporte le site developpez.com, les grands modèles de langage open source étaient généralement en retard par rapport à leurs homologues closed-source en termes de capacités et de performances ».

Le patron du groupe Meta,  Mark Zuckerberg, sur sa page Facebook a soutenu :

« Avec les modèles Llama passés, Meta les a développés pour nous-mêmes et les a ensuite publiés, mais ne s’est pas beaucoup concentré sur la construction d’un écosystème plus large. Nous prenons une approche différente avec cette sortie. Nous créons des équipes en interne pour permettre au plus grand nombre de développeurs et de partenaires d’utiliser Llama, et nous construisons activement des partenariats afin que davantage d’entreprises dans l’écosystème puissent offrir des fonctionnalités uniques à leurs clients. Je crois que la sortie Llama 3.1 sera un point d’inversion dans l’industrie où la plupart des développeurs commencent à utiliser principalement l’open source, et je m’attends à ce que cette approche ne grandisse qu’à partir de là », a-t-il  dit.

 

Présentation de Llama 3.1

 

Le site developpez.com rapporte que grâce à Llama 3.1, Meta présente des versions améliorées des modèles 8B et 70B. Lesquels sont multilingues et disposent d’une longueur de contexte nettement plus importante (128 Ko), d’une utilisation d’outils de pointe et de capacités de raisonnement globalement plus solides. Cela permet aux derniers modèles de Meta de prendre en charge des cas d’utilisation avancés, tels que le résumé de textes longs, les agents conversationnels multilingues et les assistants de codage. Meta a également modifié sa licence, ce qui permet aux développeurs d’utiliser les résultats des modèles Llama, y compris le 405B, pour améliorer d’autres modèles.

 

La portée de l’IA open source pour le monde

 

Après l’annonce de Llama 3.1, mardi 23 juillet  2024, Mark Zuckerberg, PDG du groupe Meta, a donné des explications  relatives à la technologie. Digital Business Africa vous donne quelques extraits.

« Je crois que l’open source est nécessaire pour un avenir positif de l’IA. L’IA a plus de potentiel que toute autre technologie moderne pour augmenter la productivité humaine, la créativité et la qualité de vie — et pour accélérer la croissance économique tout en débloquant les progrès de la recherche médicale et scientifique. L’open source permettra à plus de gens dans le monde d’avoir accès aux avantages et aux possibilités de l’IA, de ne pas concentrer le pouvoir entre les mains d’un petit nombre d’entreprises et de pouvoir déployer la technologie de manière plus uniforme et plus sûre dans toute la société ».

« Il y a un débat en cours sur la sécurité des modèles d’IA open source, et mon point de vue est que l’AI open source sera plus sûr que les alternatives. Je pense que les gouvernements vont conclure qu’il est dans leur intérêt de soutenir l’open source parce que cela rendra le monde plus prospère et plus sûr »

« Mon cadre de compréhension de la sécurité est que nous devons nous protéger contre deux catégories de dommages: involontaires et intentionnels. Un dommage involontaire est un système d’IA qui peut causer des dommages même s’il n’a pas été l’intention de ceux qui l’exécutent de le faire. Par exemple, les modèles modernes d’IA peuvent inadvertemment donner de mauvais conseils en matière de santé. Ou, dans des scénarios plus futuristes, certains craignent que les modèles puissent involontairement se reproduire ou hyper-optimiser des objectifs au détriment de l’humanité. Le dommage intentionnel est quand un mauvais acteur utilise un modèle d’IA dans le but de causer des dommages ».

« Il convient de noter que les dommages involontaires couvrent la majorité des préoccupations que les gens ont autour de l’IA — allant de la façon dont les systèmes d’IA auront une influence sur les milliards de personnes qui les utiliseront à la plupart des scénarios de science-fiction vraiment catastrophiques pour l’humanité. À cet égard, l’open source devrait être nettement plus sécuritaire puisque les systèmes sont plus transparents et peuvent être largement examinés. Historiquement, les logiciels open source ont été plus sûrs pour cette raison. De même, l’utilisation de Llama avec ses systèmes de sécurité comme Llama Guard sera probablement plus sûre et plus sécuritaire que les modèles fermés. Pour cette raison, la plupart des conversations autour de la sécurité de l’IA open source se concentrent sur des dommages intentionnels »

« Notre processus de sécurité comprend des tests rigoureux et des équipements pour évaluer si nos modèles sont capables de causer des dommages significatifs, avec l’objectif d’atténuer les risques avant la sortie. Étant donné que les modèles sont ouverts, n’importe qui est capable de tester pour lui-même aussi. Nous devons garder à l’esprit que ces modèles sont formés à partir d’informations qui sont déjà sur Internet, de sorte que le point de départ lors de l’examen des dommages devrait être si un modèle peut faciliter plus de dommage que l’information qui peut être rapidement récupéré à partir de Google ou d’autres résultats de recherche ».

« Lorsque l’on envisage un préjudice intentionnel, il est utile de distinguer ce que les acteurs individuels ou à petite échelle peuvent faire, par opposition à ce que des acteurs à grande échelle, comme les États-nations dotés d’énormes ressources, peuvent faire », explique le patron du groupe Meta. 

 

Par Jean Materne Zambo, sources: développez.com, meta.com

Si vous avez aimé ce texte, vous aimerez bien bien d'autres. Rejoignez notre canal Telegram et notre chaîne WhatsApp pour ne rien manquer de nos infos stratégiques et de nos exclusivités. Aussi, merci de nous laisser votre commentaire au bas de cet article. Bonne navigation.

LAISSER UNE RÉPONSE

SVP, entrez votre commentaire!
Veuillez saisir votre nom ici

spot_img

Plus d'infos

Cameroun : Le matricule unique imposé aux élèves du...

Cameroun : Le matricule unique imposé aux élèves du secondaire

Côte d’Ivoire : La plateforme Police secours et l’opérateur...

Côte d’Ivoire : La plateforme Police secours et l’opérateur Wave s'engagent à lutter contre l'arnaque en ligne 

Congo : L’ARPCE lance l’application « LandaYango » pour...

Congo : L’ARPCE lance l'application « LandaYango » pour développer le service postal