Apple a récemment annoncé un nouveau LLM (Large Language Models) open source connu sous le nom d'OpenELM (Open-source Efficient Language Models).
En bref
- Apple a publié un nouveau LLM open source appelé OpenELM.
- OpenELM s'exécutera localement sur les appareils, améliorant ainsi la vitesse de traitement avec une confidentialité renforcée.
- OpenELM devrait prendre en charge une variété de fonctionnalités d'IA sur les appareils, y compris des versions plus puissantes de Siri et d'autres applications basées sur l'IA.
Le LLM d'Apple s'exécutera localement sur les appareils, ce qui permettra de passer d'un traitement coûteux basé sur le cloud à un traitement sur appareil. L'objectif principal d'Apple pour ce LLM est d'améliorer la vitesse de traitement avec une confidentialité renforcée.
Les modèles OpenELM utilisent une technique de mise à l'échelle par couche, qui alloue efficacement les paramètres à chaque couche du modèle de transformateur pour augmenter la précision. Par exemple, avec un budget d'environ un milliard de paramètres, OpenELM a réalisé un gain de précision de 2.36 % par rapport à son modèle précédent, OLMo, mais en utilisant la moitié du nombre de jetons de pré-entraînement.
Cette méthode augmente non seulement la vitesse, mais réduit également la charge de calcul sur les appareils, ce qui est essentiel pour exécuter des applications d'IA directement sur le matériel grand public.
Caractéristiques et capacités
Le projet OpenELM comporte plusieurs éléments majeurs qui le distinguent des anciens modèles d'IA :
- Disponibilité open source: Apple a rendu OpenELM disponible sur Hugging Face Hub, permettant aux développeurs et aux chercheurs d'accéder et de participer à son développement.
- Cadre de formation complet: Contrairement aux modèles traditionnels, qui fournissent simplement des pondérations de modèle et un code d'inférence, la version OpenELM contient toute l'infrastructure nécessaire à la formation et à l'évaluation des ensembles de données accessibles au public. Celui-ci comprend des dossiers de formation, de nombreux jalons et des configurations de pré-formation.
- Confidentialité et vitesse améliorées: Étant donné qu'OpenELM s'exécute sur l'appareil, il n'est pas nécessaire d'envoyer des données aux serveurs cloud, ce qui améliore la confidentialité des utilisateurs. De plus, le traitement local minimise la latence, ce qui entraîne des temps de réaction plus rapides pour les fonctionnalités basées sur l'IA sur l'appareil. .
Intégration avec iOS
Apple a l'intention d'inclure OpenELM dans la future version iOS 18, qui devrait inclure plusieurs nouvelles fonctionnalités d'IA. L'intégration d'OpenELM devrait soutenir une variété de fonctionnalités d'IA sur les appareils, y compris des versions plus puissantes de Siri et d'autres applications basées sur l'IA.