Microsoft hat das KI-Modell Phi-3 Mini vorgestellt. Es ist das erste von drei kleinen KI-Modellen, die das Unternehmen in den kommenden Monaten einführen wird. Trainiert wurde Phi-3 Mini mit 3,8 Milliarden Parametern. Zum Vergleich, ein großes KI-Modell mit OpenAIs GPT-4 Turbo wurde mit mehr als einer Billionen Parametern trainiert.
Phi-3 Mini ist damit das kleinste der drei neuen KI-Modelle von Microsoft. Phi-3 Small soll auf 7 Milliarden Parametern basieren und die Trainingsdaten von Phi-3 Medium umfassen 14 Milliarden Parameter. Zum Starttermin für Phi-3 Small und Phi-3 Medium machte Microsoft bisher keine Angaben.
Je höher die Zahl der Parameter der Trainingsdaten eines KI-Modells ist, je höher ist die Wahrscheinlichkeit, dass es Nutzern die gewünschten Antworten liefert. Allerdings steigt mit der Zahl der Parameter auch die für die Verarbeitung von Anfragen benötigte Rechenleistung und Energie. Kleine KI-Modelle sind somit für weniger komplexe Anfragen sowie für mobile Geräte wie Smartphones geeignet, die nur eine begrenzte Rechenleistung und/oder Akkulaufzeit bieten.
In einem Interview mit The Verge betonte Microsoft die Leistungsfähigkeit von Phi-3 Mini. Trotz der begrenzten Trainingsdaten soll es eine ähnliche Leistung bieten wie Modelle, die mit bis zu zehnmal mehr Parametern trainiert wurden. Als Beispiel nannte das Unternehmen OpenAIs GPT-3.5.
Zum Start macht Microsoft Phi-3 Mini kostenlos auf seiner Cloud-Plattform Azure verfügbar. Das Modell kann zudem über Hugging Face und Ollama genutzt werden.
Neueste Kommentare
Noch keine Kommentare zu Microsoft stellt kleines KI-Modell Phi-3 Mini vor
Kommentar hinzufügenVielen Dank für Ihren Kommentar.
Ihr Kommentar wurde gespeichert und wartet auf Moderation.