Notebookcheck Logo

Opera devient le premier navigateur web à offrir un accès aux LLM locaux

Opera annonce la possibilité de télécharger et d'utiliser des LLM locaux (Image source : Opera)
Opera annonce la possibilité de télécharger et d'utiliser des LLM locaux (Image source : Opera)
Opera, l'un des navigateurs web les plus populaires, a annoncé la possibilité de télécharger et d'utiliser des LLM (large language models) locaux. Cette nouvelle fonctionnalité est actuellement déployée sur le flux développeur d'Opera One. Ainsi, les utilisateurs de la version développeur peuvent désormais sélectionner et utiliser plus de 150 modèles issus de plus de 50 familles.

Les utilisateurs d'Opera One dans le flux des développeurs bénéficient d'une mise à jour importante. La dernière mise à jour permet aux utilisateurs de télécharger et d'utiliser des LLM localement. Actuellement, la sélection de modèles provient de plus de 50 familles, et il y a plus de 150 modèles différents que les utilisateurs peuvent télécharger et exécuter sur leurs ordinateurs.

Parmi les modèles les plus remarquables, citons Gemma de GoogleLLaMA de MetaMixtral de Mistral AIet Vicuna de LMSYS. Cette nouvelle fonctionnalité est déployée dans le cadre du programme AI Feature Drops. En d'autres termes, les utilisateurs de la version développeur d Opera One pour tester la mise à jour.

Néanmoins, Opera devient ainsi le premier navigateur web à permettre à ses utilisateurs de télécharger et d'utiliser des LLM locaux. Pour ceux qui se posent la question, l'exécution locale de ces modèles offre souvent un contrôle total, une latence réduite et, surtout, une meilleure protection de la vie privée. Mais votre ordinateur doit répondre à certaines exigences.

Par exemple, l'éditeur de navigateurs web indique que chaque variante du LLM local nécessitera plus de 2 Go d'espace de stockage. En ce qui concerne l'exécution des modèles, Opera indique qu'il utilise le cadre open-source Ollama. Cela signifie également que tous les modèles actuellement disponibles dans le navigateur sont des sous-ensembles de la bibliothèque Ollama. L'avantage est qu'Opera prévoit d'inclure des modèles provenant d'autres sources.

Tous les utilisateurs ne bénéficieront pas de cette mise à jour. Cependant, c'est une bonne nouvelle pour ceux qui veulent tester différents LLM localement sur leurs machines. Vous pouvez utiliser l'assistant Assistant IA intégré intégré appelé Aria si vous ne souhaitez pas télécharger de modèles. Il est disponible pour la version normale du navigateur depuis le mois de mai de l'année dernière.

Procurez-vous une webcam OBSBOT Tiny 2 dotée d'une intelligence artificielle sur Amazon

Source(s)

Please share our article, every link counts!
> Revues et rapports de ordinateurs portatifs et smartphones, ordiphones > Archives des nouvelles 2024 04 > Opera devient le premier navigateur web à offrir un accès aux LLM locaux
Abid Ahsan Shanto, 2024-04- 4 (Update: 2024-04- 4)