Suchfunktionen sind nach Ansicht von Microsoft zwar allgegenwärtig, aber nicht sehr effizient. Selbst eine einfache Abfrage kann mehr als 20 Seiten Ergebnisse liefern. Diese sind dann meistens nicht auf die Anforderungen des Nutzers oder auf den Kontext, in dem die Information benötigt wird, zugeschnitten.
„Suche ist in vieler Hinsicht rohe Gewalt“, so Dumais. „Wenn wir beide dieselbe Abfrage starten, bekommen wir dieselben Ergebnisse zurück. Das ist doch eigentlich Blödsinn. Ein halbwegs intelligenter Mensch würde uns doch auch nicht dieselben Dinge über ein bestimmtes Thema erzählen.“
Während des Dot-Com-Booms war Personalisierung eines der großen Schlagworte. Viele der Bemühungen, personalisierten Content zur Verfügung zu stellen, sind jedoch gescheitert. Softwareentwickler verfügen jedoch über immer mehr Know-how, um auf Basis des Bayesian-Modells oder anderer Wahrscheinlichkeitsbasierter Modelle Intelligenz in ihre Applikationen zu integrieren.
Obwohl die theoretischen Grundlagen dieser Modelle komplex sind, ist das übergeordnete Konzept relativ einfach. Die Software merkt sich die Surf-Gewohnheiten eines Nutzers, also seine Interessen, seine Bekanntschaften, zurückliegende Ereignisse aus dem Beruf sowie Arbeitsprojekte und andere Daten. Außerdem versucht die Software, ein Modell zu entwickeln, das den Stellenwert von Informationen für den jeweiligen Nutzer einschätzen kann.
„Ich habe jede Woche dasselbe Treffen mit denselben Personen. Das ist dann wahrscheinlich nicht so wichtig“, so Dumais. „Wenn ich allerdings ein Treffen mit Bill Gates habe, der in der Hierarchie ja relativ weit oben steht, könnte das sehr wichtig sein.“
Die Ansätze von Microsoft unterscheiden sich von denen klassischer Suchmaschinen, indem die zu durchsuchende Datenbasis auf der lokalen Festplatte liegt. Der Umfang ist daher zwar wesentlich geringer, aber trotzdem von großer Relevanz. So haben Studien des Unternehmens ergeben, dass auf bis zu 81 Prozent der besuchten Webseiten wiederholt zugegriffen wird. Infolgedessen sind diese Links irgendwo auf der Festplatte gespeichert.
Es gibt allerdings keinen Grund, warum der Such-Umfang nicht einfach ausgeweitet werden kann. Longhorn würde so letztendlich zu einer Konkurrenz für andere Suchmaschinen. Dumais wies darauf hin, dass beispielsweise auch der aktuelle Standort des PCs in die Suchabfrage miteinbezogen werden könnte.
Zwar berücksichtigen Suchmaschinen wie Google auch Wahrscheinlichkeiten und Interessen, jedoch beziehen sich diese dann eher auf die gesamte Internet-Gemeinde und nicht auf einzelne Nutzer. Microsoft möchte Suchanfragen daher eher auf einzelne Personen zuschneiden.
Bei der Vorführung von Implicit Query begann Dumais eine E-Mail zu schreiben, in der sie einen Kollegen nach einigen Vorlagen für eine bevorstehende Präsentation fragt. Schon bevor die Nachricht zu Ende geschrieben war, zeigte das Programm auf der rechten Seite des Bildschirms E-Mails, Vorlagen und Word-Dokumente, die den Namen der Konferenz und den Empfänger der E-Mail enthalten. Jedes angezeigte Ergebnis wurde unter anderem mit einer kurzen Zusammenfassung des Inhalts, des Datums, der Software, in der das Dokument erstellt wurde sowie der möglichen Relevanz für den User angezeigt.
Vernetzte Produkte müssen laut Cyber Resilience Act über Möglichkeiten zur Datenverschlüsselung und Zugangsverwaltung verfügen.
Das jüngste Update für Windows, macOS und Linux stopft drei Löcher. Eine Anfälligkeit setzt Nutzer…
Zwei von Google-Mitarbeitern entdeckte Schwachstellen werden bereits aktiv gegen Mac-Systeme mit Intel-Prozessoren eingesetzt. Sie erlauben…
Die Hintermänner haben es unter anderem auf Daten von Facebook-Geschäftskonten abgesehen. Opfer werden über angebliche…
Bis 2027 werden 90 Prozent der Unternehmen eine Hybrid-Cloud-Strategie umsetzen.
Apple belegt in der Statistik von Counterpoint die ersten drei Plätze. Samsungs Galaxy S24 schafft…