OpenAI revolutioniert KI mit GPT-OSS: ein offenes Gewichtungsmodell für alle

  • GPT-OSS markiert die Rückkehr von OpenAI zu offenen Gewichtsmodellen, die in zwei Versionen (120B- und 20B-Parameter) verfügbar sind und die lokale Ausführung und Anpassung erleichtern sollen.
  • Beide Modelle bieten erweiterte Argumentation, Codegenerierung und Toolnutzung und wurden unter einer strengen Sicherheitstestmethodik entwickelt.
  • Die lizenzierte Apache 2.0-Distribution ermöglicht die kostenlose Nutzung, Modifikation und kommerzielle Nutzung und eröffnet Unternehmen, Entwicklern und öffentlichen Organisationen neue Möglichkeiten.
  • Durch die Bereitstellung von GPT-OSS tritt OpenAI in direkte Konkurrenz zu Lösungen wie Llama und DeepSeek und fördert die Demokratisierung und Zugänglichkeit von KI.

GPT-OSS

OpenAI hat in der Landschaft der künstlichen Intelligenz eine unerwartete Wendung genommen mit der Start de GPT-OSS, sein erstes Open-Source-Sprachmodell seit über fünf Jahren. Diese Entwicklung markiert eine Abkehr von der bisherigen Strategie des Unternehmens, das sich hauptsächlich auf proprietäre Modelle und geschlossene Dienste stützte. Mit der Einführung von GPT-OSS kehrt OpenAI zu seinen Wurzeln zurück und ermöglicht es jedem und jeder Entität, auf ein leistungsstarkes Sprachmodell zuzugreifen, es auszuführen und anzupassen, ohne auf seine Cloud-Plattform oder Internetverbindungen angewiesen zu sein.

Das neue Modell ist in zwei Versionen erhältlich: eine mit 120.000 Milliarden Parametern und eine leichtere Version mit 20.000 Milliarden Parametern.Die leistungsstärkste Variante kann auf einer einzelnen professionellen GPU mit mindestens 80 GB Speicher ausgeführt werden, während die kleinere Version auf Mainstream-PCs und Laptops mit 16 GB RAM ausgerichtet ist, was den Zugang zu fortschrittlichen KI-Funktionen erheblich demokratisiertBeide Versionen können kostenlos von Plattformen wie Hugging Face heruntergeladen und auf beliebten Diensten wie Azure oder AWS bereitgestellt werden.

Technische Eigenschaften und verwendete Technologie

Mit GPT-OSSOpenAI hat zwei Modelle auf den Tisch gelegt, die auf einer Architektur basieren, die auf Transformator und Expertenmischung (MoE). Dies erlaubt Optimieren Sie die Speichernutzung und Latenz Durch die Aktivierung nur eines ausgewählten Teils der Experten pro Eingabetoken wird die Effizienz ohne Leistungseinbußen erhöht. Die 120B-Version verwendet 36 Blöcke und aktiviert 5.100 Milliarden Parameter pro Token, während die 20B-Version 24 Blöcke verwendet und 3.600 Milliarden aktiviert, wodurch die Ausführung auf kostengünstigerer Hardware erleichtert wird.

Beide Modelle wurden hauptsächlich mit englischen Daten aus Gebieten trainiert MINT, Programmierung und Allgemeinwissen, einschließlich einer zusätzlichen Phase der überwachten Anpassung und Verstärkung zur Verbesserung Ihrer Ausrichtung an menschlichen AnweisungenZu seinen Fähigkeiten gehören die Gedankenkette, die Fähigkeit, Zwischenschritte aufzuschlüsseln, bevor eine Antwort bereitgestellt wird, sowie die Fähigkeit, externe Tools wie das Durchsuchen des Internets oder die Ausführung von Python-Code zu verwenden.

libre Software
Verwandte Artikel:
Freie Software steht vor der Herausforderung künstlicher Intelligenz und Konflikten mit großen Technologieunternehmen

Verfügbarkeit, Lizenzierung und Integrationsmöglichkeiten

Eine der großen Attraktionen von GPT-OSS ist seine Apache 2.0 Lizenz, wodurch viele der üblichen Einschränkungen anderer geschlossener Modelle beseitigt werden: Es ermöglicht kommerzielle Nutzung, Weiterverbreitung und Integration in allen Arten von Projekten, von kleinen Startups bis hin zu großen öffentlichen Einrichtungen oder F&E-Initiativen. Die Modellgewichte sind im MXFP4-Format verfügbar und verfügen über Referenzimplementierungen in PyTorch und Apple Metal sowie über vollständige Kompatibilität mit Tools wie Ollama, llama.cpp, LM Studio und vLLM, was den Einsatz sowohl im professionellen als auch im privaten Umfeld erleichtert.

Die Installation und Inbetriebnahme von GPT-OSS-20B ist dank Dienstprogrammen wie LM Studio besonders einfach, mit denen Sie Benutzer ohne Programmiererfahrung Laden Sie das Modell herunter und testen Sie es lokal über eine grafische Oberfläche. Darüber hinaus hat OpenAI ausführliche Dokumentationen und Empfehlungen zur Feinabstimmung und Anpassung von Modellen sowie fertige Integrationen für Cloud- und On-Premise-Plattformen veröffentlicht.

Sicherheit, Tests und verantwortungsvoller Umgang

Der Start von GPT-OSS konzentrierte sich nicht nur auf Offenheit, sondern auch auf Sicherheit und verantwortungsvoller Umgang der Modelle. OpenAI hat neue Überprüfungs- und Validierungsmechanismen integriert, um Missbrauchsrisiken zu vermeiden, insbesondere in sensiblen Bereichen wie der Cybersicherheit oder der Entwicklung bösartiger Agenten. Zu diesem Zweck wurde eine Methode für kontroverse Tests (Red Teaming) implementiert, die externe Überprüfungen durch unabhängige Experten sowie Protokolle zur Simulation extremer Ausnutzungsszenarien umfasst.

Zusammen mit der Veröffentlichung der Modelle hat OpenAI eine Red-Teaming-Challenge mit finanziellen Belohnungen für diejenigen, die Schwachstellen oder problematische Verhaltensweisen identifizieren und somit die aktive Zusammenarbeit der globalen Gemeinschaft bei der Risikoerkennung suchen. Darüber hinaus stellt GPT-OSS seine Argumentationskette, wodurch die Prüfung und Überwachung der Antworten erleichtert wird, um Verzerrungen oder schwerwiegende Fehler zu vermeiden.

Leistung und Vergleich mit anderen offenen Modellen

Bei einer akademische Benchmarks und DenktestsGPT-OSS-120B ist mit aktuellen proprietären Modellen von OpenAI wie o4-mini vergleichbar und übertrifft diese in einigen Aspekten sogar. In bestimmten Kontexten übertrifft es auch andere wie DeepSeek R1 oder die Llama-Serie. Die 20B-Version, die auf Heimgeräte zugeschnitten ist, bietet eine hervorragendes Verhältnis zwischen Effizienz und Kapazität, mit sehr konkurrenzfähigen Ergebnissen in Mathematik, Programmierung und Gesundheitsaufgaben.

OpenAI warnt, dass diese offenen Modelle eine größere Neigung zu „Halluzinationen“ (sachliche Fehler) im Vergleich zu ihren Cloud-Pendants, da es Unterschiede bei Training und Überwachung gibt. Benutzer haben jetzt jedoch die Möglichkeit, High-Level-Modelle zu verwenden, ohne Online-Dienste zu benötigen.

Alibaba AI
Verwandte Artikel:
Alibaba hat eine Open-Source-KI veröffentlicht, um mit Llama 2 zu konkurrieren