Apple hat kürzlich angekündigt ein neues Open-Source-LLM (Large Language Models), bekannt als OpenELM (Open-Source Efficient Language Models).
Zusamenfassend
- Apple hat ein neues Open-Source-LLM namens OpenELM veröffentlicht.
- OpenELM wird lokal auf Geräten ausgeführt und verbessert so die Verarbeitungsgeschwindigkeit bei verbessertem Datenschutz.
- Es wird erwartet, dass OpenELM eine Vielzahl von KI-Funktionen auf dem Gerät unterstützen wird, darunter leistungsstärkere Versionen von Siri und anderen KI-gestützten Anwendungen.
Apples LLM wird lokal auf Geräten ausgeführt, was einen großen Wandel von der kostspieligen Cloud-basierten Verarbeitung zur Verarbeitung auf dem Gerät bedeutet. Das Hauptaugenmerk von Apple bei diesem LLM liegt auf der Verbesserung der Verarbeitungsgeschwindigkeit bei verbessertem Datenschutz.
OpenELM-Modelle verwenden eine schichtweise Skalierungstechnik, die Parameter effektiv jeder Schicht des Transformatormodells zuordnet, um die Genauigkeit zu erhöhen. Mit einem Budget von rund einer Milliarde Parametern erzielte OpenELM beispielsweise einen Genauigkeitsgewinn von 2.36 % gegenüber seinem Vorgängermodell OLMo, verbrauchte aber nur die Hälfte der Pre-Training-Tokens.
Diese Methode erhöht nicht nur die Geschwindigkeit, sondern verringert auch die Rechenlast auf Geräten, was für die direkte Ausführung von KI-Anwendungen auf Verbraucherhardware von entscheidender Bedeutung ist.
Eigenschaften und Fähigkeiten
Das OpenELM-Projekt weist mehrere Hauptelemente auf, die es von früheren KI-Modellen unterscheiden:
- Open-Source-Verfügbarkeit: Apple hat OpenELM auf dem Hugging Face Hub verfügbar gemacht, sodass Entwickler und Forscher auf die Entwicklung zugreifen und daran teilnehmen können.
- Umfassender Schulungsrahmen: Im Gegensatz zu herkömmlichen Modellen, die lediglich Modellgewichte und Inferenzcode bereitstellen, enthält die OpenELM-Version die gesamte Infrastruktur für das Training und die Auswertung öffentlich verfügbarer Datensätze. Dazu gehören Trainingsaufzeichnungen, viele Meilensteine und Setups vor dem Training.
- Verbesserte Privatsphäre und Geschwindigkeit: Da OpenELM auf dem Gerät ausgeführt wird, müssen keine Daten an Cloud-Server gesendet werden, was die Privatsphäre der Benutzer verbessert. Darüber hinaus minimiert die lokale Verarbeitung die Latenz, was zu schnelleren Reaktionszeiten für KI-gestützte Funktionen auf dem Gerät führt .
Integration mit iOS
Apple beabsichtigt, OpenELM in die zukünftige iOS 18-Version aufzunehmen, die voraussichtlich mehrere neue KI-Funktionen enthalten wird. Es wird erwartet, dass die Integration von OpenELM eine Vielzahl von KI-Funktionen auf dem Gerät unterstützen wird, darunter leistungsstärkere Versionen von Siri und anderen KI-gestützten Anwendungen.