Die Google-Mutter Alphabet rät ihren Mitarbeitern zur Vorsicht beim Umgang mit KI-Bots wie dem hauseigenen Bard. Wie Reuters berichtet, warnt Alphabet vor allem davor, vertrauliche Informationen an Chatbots weiterzugeben. Diese Daten würden anschließend vom jeweiligen Betreiber des KI-Chatbots gespeichert.
Chatbots, egal ob Google Bard, Open AIs ChatGPT oder Microsofts Bing Chat, beziehen ihre Intelligenz aus Large Language Models (LLM). Diese wiederum müssen ständig trainiert werden – wofür die Anbieter auch die Daten verwenden, die Nutzer den Chatbots anvertrauen. Außerdem werden die Trainingsdaten gespeichert und unter Umständen sind sie auch für deren Mitarbeiter sichtbar.
Google speichert Chatbot-Daten für drei Jahre
In der FAQ von Google Bard heißt es dazu: „Wenn Sie mit Bard interagieren, sammelt Google Ihre Unterhaltungen, Ihren Standort, Ihr Feedback und Nutzungsinformationen. Diese Daten helfen uns bei der Bereitstellung, Verbesserung und Entwicklung von Google-Produkten, -Diensten und Technologien für maschinelles Lernen, wie in den Google-Datenschutzbestimmungen erläutert“.
Google weist auch darauf hin, dass Teile von Konversationen als Stichproben ausgewählt und von geschulten Prüfern kontrolliert werden. Zu diesem Zweck speichert Google die Daten über einen Zeitraum von bis zu drei Jahren. Es sollen allerdings keine Informationen vorgehalten werden, „die dazu verwendet werden können, Sie oder andere Personen in Ihren Bardiskussionen zu identifizieren“.
Ähnlich äußert sich auch OpenAI: „Wir überprüfen Konversationen, um unsere Systeme zu verbessern und um sicherzustellen, dass der Inhalt mit unseren Richtlinien und Sicherheitsanforderungen übereinstimmt.“
Neueste Kommentare
Noch keine Kommentare zu Auch Google warnt Mitarbeiter vor Nutzung von Chatbots
Kommentar hinzufügenVielen Dank für Ihren Kommentar.
Ihr Kommentar wurde gespeichert und wartet auf Moderation.