Hinweis 21:38 Uhr: Apple hat gegenüber US-Medien mitgeteilt, dass der Bloomberg-Bericht völlig falsch sei.
Apple hat seinen Zulieferern erlaubt, die Genauigkeit der Gesichtserkennung im iPhone X zu verringern und so eine bessere Produktionsausbeute zu erzielen. Das Unternehmen reagierte damit auf anhaltende Produktionsprobleme, durch die Lieferengpässe zum bevorstehenden Verkaufsstart am 3. November drohten. Das berichtet Bloomberg und zitiert Informanten, die mit der Situation vertraut sind.
Demnach musste Foxconn vor einem Monat Arbeiter aus der iPhone-X-Produktion abziehen, weil Apple nicht genug 3D-Sensoren bekommen konnte. Diese sollen eine präzise Gesichtserkennung und damit eine sichere Entsperrung der Smartphones ermöglichen. Der iPhone-Hersteller hat aber offenbar die technischen Schwierigkeiten unterschätzt, die sich aus der erheblichen Verkleinerung der Komponenten für den Einsatz in Smartphones ergaben.
Apples Designchef Jony Ive erwähnte kürzlich Prototypen, die rund 30 Zentimeter maßen. Für das Jubiläums-iPhone aber musste dieselbe Technologie auf wenige Zentimeter mit einer Tiefe von Millimetern schrumpfen. Die Zulieferer erhielten nicht mehr als die übliche Vorlaufzeit von zwei Jahren, um das komplexe Herstellungsverfahren in Gang zu bringen, berichtete ein Informant. Das habe bereits dazu geführt, dass das iPhone X erst sechs Wochen nach dem iPhone 8 in den Verkauf kommt. „Es ist ein aggressives Design“, zitiert Bloomberg die Quelle. „Und es ist ein sehr aggressiver Zeitplan.“
Für Komplexität sorgen die drei wesentlichen Elemente des eingesetzten 3D-Sensors, die präzise zusammenarbeiten müssen. Ein Infrarotbeleuchter hilft mit unsichtbarem Infrarotlicht, ein Gesicht sogar im Dunkeln zu erkennen. Ein Punktprojektor projiziert über 30.000 Punkte, um eine Tiefenkarte des Gesichts zu erstellen. Die Infrarotkamera nimmt ein Infrarotbild auf und liest das Punktemuster. Diese Informationen werden für die Authentifizierung mit Daten abgeglichen, die in der Secure Enclave gespeichert sind, einem Coprozessor mit verschlüsseltem Speicher.
Als extrem kritisches Element erwies sich der Punktprojektor, der einen Vertical Cavity Surface-Emitting Laser (VCSEL) einsetzt. Der Laser wird aus dem Halbleitermaterial Galliumarsenid gefertigt, die Linse aus Glas – beide sind extrem fragil und brechen leicht. Dazu kommt die erforderliche Präzision bei der Montage der mikroskopisch kleinen Komponenten. Schon eine Ungenauigkeit im Bereich weniger Mikrometer – dem Bruchteil einer Haaresbreite – kann dafür sorgen, dass die die Technologie nicht korrekt arbeitet, erklärten Informanten dazu.
LG Innotek und Sharp kämpften als Zulieferer mit dem Problem, Laser und Linse für Punktprojektoren zu kombinieren. Ein Informant berichtete davon, dass zu einem Zeitpunkt nur 20 Prozent der gefertigten Punktprojektoren brauchbar waren. In einer Analystenkonferenz bestätigte LG Innotek, dass die Module „erheblich“ schwieriger zu produzieren sind als frühere Kameras.
Apples Akzeptanz einer reduzierten Genauigkeit von Face ID verringert jetzt außerdem die erforderliche Zeit für Funktionstests der fertiggestellten Module. Die größten Produktionshürden scheinen damit überwunden zu sein. LG Innotek soll die Produktionsausbeute der Punktprojektoren inzwischen auf über 50 Prozent gesteigert haben, während Sharp noch an diesem Ziel arbeite. Laut LG Innotek könnten die verfügbaren Stückzahlen zum Verkaufsstart des iPhone X aber noch begrenzt sein.
So lassen sich Risiken bei der Planung eines SAP S/4HANA-Projektes vermeiden
Ziel dieses Ratgebers ist es, SAP-Nutzern, die sich mit SAP S/4HANA auseinandersetzen, Denkanstöße zu liefern, wie sie Projektrisiken bei der Planung Ihres SAP S/4HANA-Projektes vermeiden können.
Unklar ist, inwieweit die geringeren Anforderungen die Sicherheit von Face ID beeinträchtigen könnten. Der iPhone-Hersteller erklärte im letzten Monat, dass die Entsperrung von iPhone X mit der Gesichtserkennung Face ID 20-fach sicherer als mit Touch ID ist, das bei bisherigen Modellen die Geräte-Entsperrung per Fingerabdruck ermöglicht. Die Wahrscheinlichkeit einer zufälligen Entsperrung durch eine fremde Person bezifferte er mit 1 zu einer Million.
Tipp: Wie gut kennen Sie Apple? Überprüfen Sie Ihr Wissen – mit 15 Fragen auf silicon.de.
Neueste Kommentare
8 Kommentare zu Bericht: Apple lässt Genauigkeit von Face ID reduzieren – Apple dementiert
Kommentar hinzufügenVielen Dank für Ihren Kommentar.
Ihr Kommentar wurde gespeichert und wartet auf Moderation.
Sicherheit auf Kosten von Profit, denn das bedeutet die Verkürzung der üblichen Vorlaufzeit von zwei Jahren, und die Verkürzung der Zeit für die erforderlichen Funktionstests.
Da kann man wirklich von einem sehr „aggressiven“ Zeitplan sprechen.
Bin mal gespannt, wie lange es dauert, bis die ersten Beschwerden über unzuverlässige Arbeit des Scanners auftauchen.
Denn „dass die Entsperrung von iPhone X mit der Gesichtserkennung Face ID 20-fach sicherer als mit Touch ID ist“, galt ja vor den Änderungen!
Apple hat ganz offensichtlich gehörig Druck, um sich auf so etwas einzulassen.
Da hat jemand sich aber zu früh gefreut. ;-)
Schön dass Sie auch diesen Apple Artikel so interessant fanden, um ihn ausführlich kommentieren zu müssen. Ich warte noch gespannt auf Ihre ausufernden Kommentare zu den gravierenden Problemen der neuen Pixel Modelle, konnte dazu bisher leider nichts finden. Nur so als Hinweis, diese sind bereits am Markt erhältlich und die Probleme sind keine Spekulationen (wie dieser Artikel hier) sondern werden in dieser Form von Endanwendern berichtet. Aber alles halb so wild, dafür sind die Google Phones ja auch wesentlich günstiger als ihre Apple Pendants, so dass man das verschmerzen kann. Ach Moment … da war ja was. Google will ja jetzt auch „auf Premium machen“ … das ist jetzt blöd.
Die Probleme mit den Pixeln „scheinen“ sich in Luft aufzulösen,wenn man mal bei verschiedenen IT- Magazinen liest. Ein „paar“ Pflegefälle gibt es leider immer, auch bei Apple, die ja schon jahrelang auf Premium machen, was Google erst seit kurzem versucht. Übrigens habe ich meine Meinung dazu schon kundgetan.
Immerhin wurde von den Google-Bossen noch nicht erklärt, dass diese Fehler normal sind, oder dass die Leute ihre Geräte falsch halten. :-D
Ah, da läuft der Relativieren-Modus aber sehr flott. ;-)
Heise beispielsweise hat sechs Tage gebraucht, bis sie sich überhaupt zu einer Meldung über die Pixel 2 XL Fehler durchgerungen haben. Wäre es um einen Apple Fehler gegangen, hätte man das bereits multimedial aufbereitet, und schon ein halbes Dutzend Artikel darüber berichtet – und auf dubioseste Quellen verlinkt.
Diese Fehler sind da, und es sind keine Einzlfälle. Du willst das nur schönfärben. „Ein „paar“ Pflegefälle“ sind exakt die Unwahrheit.
Und nun wird es interessant: Denn würde das ein Fehler eines Produktes von Apple sein, würdst Du nicht Deine ‚Meinung dazu schon kundgetan‘ haben – Du würdest darüber etliche Male Deine Meinung kundtun und Dir vor Spott und Häme die Hosen vollpuschen … bildlich gesprochen … weil das ja bei einem Premium Produkt nicht vorkommen dürfe. Und die Kunden wären dumme Jünger, die sich alles andrehen lassen, und, und, und.
Und beim Pixel 2 XL? „Ein „paar“ Pflegefälle …“. Das einzige, das sich „in Luft auflöst“ ist Deine Glaubwürdigkeit. Messen mit zweierlei Maß, das ist wenig glaubwürdig. ;-)
Die „paar“ Pflegefälle haben allerdings dazu geführt, dass Google jetzt zumindest Softwareupdates für das (angeblich nicht vorhandene)
Display Problem verspricht (http://www.zdnet.de/88316921/pixel-2-xl-google-verlaengert-garantiezeit-und-verspricht-updates-fuer-display-probleme). Warum Updates wenn es keine Probleme gibt? Wenn ich bei IT-Magazinen lese, finde ich auch nichts anderes als Berichte über das miese Display (https://www.computerbase.de/2017-10/google-pixel-2-xl-test-review/). Immerhin wurde von den Google-Bossen jetzt dann doch erklärt, dass die Fehler normal wären. Das sowieso schon als zu dunkel gewertete XL Display wird mit dem Update nochmal 50cd/m2 dunkler gemacht, um dem Burn-In Problem zu begegnen. „Toll“, das 1.000€ Pixel ist dann im Sonnenlicht mit 426cd/m2 gar nicht mehr zu gebrauchen? Ein Galaxy S8 schafft da 558cd/m2, ein böses iPhone 8+ gar 680cd/m2…
Gibt es eigentlich bereits ein offizielles Statement zu den Fehlern? Technische Probleme können immer passiere, und die entscheidende Frage ist, wie man damit umgeht. Ich bin nicht sicher, ob sich Google dazu bereits geäußert hat?
Oder, um etwas ketzerisch zu formulieren, wartet Google auf ein Statement von LG? :-]
Apple hat den Bericht inzwischen dementiert