Categories: Anzeige

ChatGPT: Insights, Chancen und Risiken für Unternehmen

Auch wenn es im Gebrauch anders anmutet: ChatGPT besitzt kein Wissen im eigentlichen Sinn, sondern kann vor allem sehr gut von Input auf Output schließen. Das Sprachmodell kennt auch keine mathematischen Regeln, sondern erarbeitet seine Texte Wort für Wort. Deshalb beginnt ChatGPT je häufiger zu „halluzinieren“, desto tiefgreifender ein Dialogfluss verläuft. Es wird dann einfach falscher Text generiert oder Dinge werden durcheinandergebracht. Dies mag im Privatgebrauch mitunter komisch, bestenfalls nicht weiter schlimm sein. Wer ChatGPT jedoch für unternehmerische Zwecke einsetzt, muss genau diese und andere Stolpersteine berücksichtigen, damit aus dem Gebrauch des Bots kein größerer Schaden entsteht.

Seiner Handhabung nach ist ChatGPT eine Software, mit der Informationen in Form von Konversationen ausgetauscht werden. Das Dialogformat ermöglicht, wie bei einem Chatbot, Fragen zu stellen und Antworten zu erhalten. ChatGPT kann auf Deutsch Anfragen verstehen und Inhalte erzeugen. Auch in anderen verbreiteten Sprachen (u. A. Deutsch, Spanisch, Italienisch) ist das Modell bedienbar. Allerdings kann aufgrund des geringeren Anteils der fremdsprachigen Trainingsdaten die Qualität im Vergleich zu englisch etwas geringer ausfallen. Für komplexere Fragestellungen und Aufgaben ist deshalb Englisch als Eingabesprache empfehlenswert, aber nicht notwendig.

Kommerzielle Nutzung

Die Urheberrechtsfrage ist noch in Erörterung. Um Content möglichst authentisch zu gestalten empfiehlt es sich, die generierten Texte als Vorlage zu verwenden und diese dann mit eigenen Gedanken und Worten zu optimieren. Die kostenfreie Version von ChatGPT ist in ihrer Verfügbarkeit und dementsprechend Übertragungsstabilität und -sicherheit eingeschränkt. Verlässlicher ist deshalb die Premiumversion ChatGPT Plus für aktuell $20 im Monat. Bei dieser Version erhält man stets Zugriff auf die Server, schnellere Antwortzeiten und Vorabzugriff auf neue Funktionen.

Möglichkeiten der ChatGPT API

Über den Azure Preis Kalkulator kann man sehr einfach Restriktionen bzw. Kostenkonditionen ermitteln. Direkt bei OpenAI gibt es eine Preisinfo für Pay-As-You-Go: https://openai.com/pricing. Generell wird nach sog. „Tokens“ abgerechnet. Ein Token ist ein Wort oder auch ein Teil eines Wortes. Als Faustformel gilt: 1000 Tokens entsprechen ungefähr 750 Wörtern. Es wird immer pro 1000 Tokens bepreist. Aber Vorsicht: Sowohl Input-Tokens als auch Output-Tokens werden zu unterschiedlichen Preisen berechnet!

Aufwertung mit eigenen Inhalten

Azure OpenAI Service wirbt bereits mit Optimierungs-Möglichkeiten. Wichtig sind u.a. die sog. Embeddings. Darüber lässt sich individueller Content als Referenz einarbeiten. Man könnte auch individuelle Retrainings durchführen. Dies ist allerdings recht teuer und lohnt sich oft nicht.

Inhouse-Version für Unternehmen auf eigener Infrastruktur?

Zum jetzigen Stand kann ChatGPT über Azure OpenAI bezogen werden, eine „on-premises“ Version ist derzeit eher unwahrscheinlich. Grob hochgerechnet bräuchte man Hardware im mittleren fünfstelligen €-Segment, nur um das Modell initial zu laden, hinzu kämen Infrastruktur für Retraining, Embeddings und API-Management sowie die Energiekosten: Der Stromverbrauch für das Training des KI-Modells GPT wurde im Januar 2023 mit fast einer Gigawattstunde in 34 Tagen geschätzt; dies entspricht insgesamt etwa dem Verbrauch von 3000 europäischen Durchschnittshaushalten im gleichen Zeitraum. Oder 300.000 € bei angenommenen 0,30 € pro kwh.

Eigene Sprachmodelle zu trainieren, die dann auch auf den individuellen Themenbereich fokussiert sind, ist möglich und funktioniert für bestimmte Einsatzzwecke auch erstaunlich schnell. KI-Spezialisten wie X-Integrate geben hierbei Hilfestellung.

Konkurrierende / alternative Angebote

Google hat bereits mit „LaMDA“ ein ähnlich gutes Sprachmodell, Meta arbeitet ebenfalls an großen Sprachmodellen (bspw. Galactica). Allerdings sind beide Unternehmen etwas vorsichtiger, was die Veröffentlichung betrifft, da diese Modelle (genau wie ChatGPT) teilweise Falschaussagen treffen. Genau aus diesem Grund wurde bspw. die Google-Variante auch schnell wieder der Öffentlichkeit entzogen. Darüber hinaus haben zahlreiche Anbieter spezialisierte Chatbots in ihrem Angebot: IBM Watson Assistant, Microsoft Azure Power Virtual Agent, Jasper Chat, Bing Chat, YouChat, Sparrow von Deepmind sind nur einige Beispiele. Auch eine vielversprechende Open Source Initiative gibt es: https://bigscience.huggingface.co/blog/bloom.

Die Nutzung von Sprachmodellen für den unternehmerischen Einsatz steht noch am Anfang. Schon heute aber lassen sich – wenn man bestimmte Regeln einhält – durch umsichtigen Einsatz der Technik erhebliche Effizienzgewinne erzielen. Die Zukunft in diesem Bereich hat erst begonnen.

Frank Zscheile

Recent Posts

Studie: Ein Drittel aller E-Mails an Unternehmen sind unerwünscht

Der Cybersecurity Report von Hornetsecurity stuft 2,3 Prozent der Inhalte gar als bösartig ein. Die…

2 Tagen ago

HubPhish: Phishing-Kampagne zielt auf europäische Unternehmen

Die Hintermänner haben es auf Zugangsdaten zu Microsoft Azure abgesehen. Die Kampagne ist bis mindestens…

3 Tagen ago

1. Januar 2025: Umstieg auf E-Rechnung im B2B-Geschäftsverkehr

Cloud-Plattform für elektronische Beschaffungsprozesse mit automatisierter Abwicklung elektronischer Rechnungen.

3 Tagen ago

Google schließt schwerwiegende Sicherheitslücken in Chrome 131

Mindestens eine Schwachstelle erlaubt eine Remotecodeausführung. Dem Entdecker zahlt Google eine besonders hohe Belohnung von…

3 Tagen ago

Erreichbarkeit im Weihnachtsurlaub weiterhin hoch

Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…

4 Tagen ago

Hacker missbrauchen Google Calendar zum Angriff auf Postfächer

Security-Experten von Check Point sind einer neuen Angriffsart auf die Spur gekommen, die E-Mail-Schutzmaßnahmen umgehen…

5 Tagen ago