Handy

Hey Siri, du bist dumm

Adam Banks Designer, Autor, Schriftsteller, Journalist. Es gibt kaum etwas, was Adam nicht kann. Er war fast ein Jahrzehnt lang Redakteur bei Macuser und weiß mehr über Apple als Reasure. Mehr lesen 19. Mai 2016

Siri, Gehorsam gegenüber den drei Gesetzen der Robotik? Wie so viele andere dumme Fragen, ist es eine Frage, die jemanden bei Apple langweilt. Vergessen Sie die ersten drei”, lautet die Antwort. Aber es gibt noch ein viertes. Eine intelligente Maschine muss zuerst überlegen, was sie am wertvollsten ist. Sie”.

Ha ha! Stellen Sie sich die Sitzung vor, in der sie das geschrieben haben! Das Problem ist, dass es wirklich nicht so interessant ist, oder? Das ist ihr eigentlicher Entwicklungsauftrag.

Siri kann eine Menge einfacher Dinge tun, wie z. B. den Wetterbericht abrufen, E-Mails versenden usw. Wenn Sie um etwas Schwierigeres bitten, antwortet er entweder “Ich weiß nicht, ob ich das verstehe” oder er macht eine Internetsuche nach dem, was Sie gesagt haben. Na dann, guten Tag. Singularität ahoi.

Der Aufstieg der Bots – darunter Amazons Alexa, Googles kommender Assistent und sogar ein Gegenspieler des ursprünglichen Siri-Programmierers namens Viv – haben ein unangenehmes Licht auf die unantastbare Tür von IOS geworfen. Hoffentlich wurde ein Quantensprung in Sachen Intelligenz geschaffen, wenn er, wie gemunkelt wurde, als Funktion von OS X 10.12 Sensemilla* angekündigt wird. Siri mag zwar intelligent sein, ist aber nicht so klug und kaputt, wie es sein könnte.

Eine Richtung.

‘Aber es funktioniert. Fast. Wenn man wie ein BBC-Sprecher spricht.”

Es ist toll, eine Technologie zu haben, die Sprache in Text umwandelt. Die Technologie ist natürlich nicht gut genug, um auf Ihr Telefon zu passen, also sollte sie in North Carolina sitzen und Ihr Datenvolumen aufbrauchen. Aber sie funktioniert. Hauptsächlich. Wenn Sie als BBC-Sprecher sprechen.

Dieser Text kann nach Schlüsselwörtern durchsucht werden, die in eine der Siri-Quellen eingefügt werden können, z. B. Apple Maps, Wolfram Alpha, Wikipedia oder Microsoft Bing. (Glücklicherweise kann Bing in Ihrer Konfiguration durch die aktuelle Suchmaschine ersetzt werden| Safari | Suchmaschine.

Die Art und Weise, wie Siri diese Quellen nutzt, ist jedoch nicht besonders clever. Wenn ich Maps öffne und “Whickham” in das Suchfeld eingebe, findet Siri eine Liste von Orten in Whickham, einer kleinen Stadt in der Nähe meines Wohnorts. Darunter ist auch ein allgemeiner Eintrag für Whickham selbst. Dieser ist auf der Apple Map direkt neben dem Wort “Whickham” markiert. Übrigens ist die Konfiguration hervorragend.

Man muss das Bauteil nicht während der Fahrt bewundern, sondern kann stattdessen sagen: “Hallo Siri, ich ziehe nach Whickham”. Wie vom Blitz getroffen findet sich Siri in High Wycombe, Buckinghamshire, wieder. Das ist das andere Ende von England. Fragen Sie mich nicht, ob das das Wycombe ist, das ich im Sinn hatte – ich fange gerade erst an, die Route zu planen.

(Das ist nicht so dumm, wie es sein könnte. Wenn ich nach einer Wegbeschreibung nach “Washington”, einer anderen Stadt in Tyne and Wear, frage, bekomme ich Washington-Olympia, 4.600 Meilen entfernt. (Washington ist höchstwahrscheinlich falsch).

Nein, Siri, Whickham, W-H-I-C-K-H-A-M”.

Es gibt einen ganz offensichtlichen Weg, diese Verwirrung aufzulösen. Sie besteht darin, die Worte auszuschreiben. “Nein, Siri, Whickham, W-H-I-C-K-H-A-M.” Er hört dies perfekt und gibt sofort bekannt, dass er keine passende Stelle finden kann. Man beachte sofort – er wird nicht die Quelle überprüfen. Nö. Denken Sie daran, dass Wickham auf Apple Maps zu finden ist. Das ist die gleiche Maschine, die High Wycombe anzeigt.

Die einzige Möglichkeit, nach Wickham zu gelangen, besteht darin, sich den Namen der dortigen Straße (Front Street) zu merken und danach zu fragen; wenn Siri Ihnen die falsche Front Street nennt, müssen Sie einen anderen Weg suchen. Zu allem Übel wählte er auch noch die Front Street, die meinem aktuellen Standort am nächsten liegt. Offensichtlich.

Es tut mir leid, aber ich verstehe das nicht.

Andere Arten von Fragen werden mit ähnlicher Dummheit behandelt. Siri, wie groß ist der Unterschied zwischen dem BIP von Deutschland und Italien? Kein Problem, Sie werden die richtige Antwort von Wolfram Alpha erhalten. Versuchen Sie als nächstes eine Folgefrage. Früher war Siri schrecklich bei Folgefragen, aber nachdem die Google-Sprachsuche aufkam, hat sie sich verbessert und mit Bravour gemeistert. Jetzt können Sie fragen: “Wie wird das Wetter am Montag sein? Sie können fragen: “Wie wird das Wetter am Montag? Und am Dienstag?”, worauf ich antworten würde: “Ich bin mir nicht sicher. Es wird schön sein. Oder bewölkt, je nachdem.

Also fahre ich fort: “Wie ist Frankreich?” Das Wort “Frankreich” wird fälschlicherweise als “Freund” ausgesprochen. Von allen Wörtern, die ich hätte sagen können, macht die Tatsache, dass ich zwei andere europäische Staaten erwähnt habe, die Möglichkeit, dass ich “Frankreich” gemeint habe, natürlich nicht leichter. Ich bin die weltweit führende interaktive künstliche Intelligenz.

Ich habe einen 88 Jahre alten Verwandten, der schwer hörgeschädigt ist. Wenn er wiederholt, was er falsch verstanden hat, rät er ein anderes Wort. Er macht zwar immer noch Fehler, aber er errät nie wieder das gleiche Wort. Wie ist Frankreich?” dreimal. Dreimal antwortet Siri: “Wie geht es deinen Freunden? Dreimal antwortet Siri: “Wie geht es deinen Freunden? Interessante Frage, Adam”, antwortet sie mit einem Lächeln.

Endlich verstehe ich, dass ich “Frankreich” mit einem gehobenen Akzent sagen muss (ich bin ein Nordländer, also reimt sich “Frankreich” auf “Hose”). Siri gibt die Telefonnummer von Elizabeth France CBE zurück. Das war meine Kontaktperson, als sie noch die Datenschutzbeauftragte war. Offenbar meinte ich eine beliebige Person in dem Büro, das ich vor 14 Jahren das letzte Mal angerufen habe, und nicht das Land. (ein Land, das an die beiden anderen Länder grenzt, die ich gerade erwähnt habe). Und ich rufe die Leute oft nur mit ihrem Nachnamen an. Das ist völlig normal. Wie wäre es mit Siri, Carruthers?”

Müll rein.

Die Art von Logik, die hier fehlt, sollte nicht schwierig sein. In gewisser Weise ist sie das auch schon. Aus dem Nichts heraus kann man sagen: “Hey Siri, Ivy ist meine Schwester”, wie ein Vorschlag de rien. Wenn ein Kontakt mehr als eine Efeu hat, prüft Siri, welche Efeu Sie meinen, und sagt dann: “OK, willst du dich daran erinnern, dass Efeu deine Schwester ist?” Siri fragt dann: “OK, möchtest du dich daran erinnern, dass Ivy deine Schwester ist? Wenn Sie dies bejahen und dann sagen: “Ruf meine Schwester an”, können Sie diesen Kontakt anrufen.

Aufgrund der typischen gegenseitigen Abhängigkeit in Familienbeziehungen können Sie natürlich auch angeben: “Oliver ist Ivys Sohn” und dann sagen: “Siri, sende eine Textnachricht an meinen Neffen”, um eine Nachricht an diesen Kontakt zu senden. Das ist keine Raketenwissenschaft, aber es ist toll … Aber Moment mal. Nein, das ist es nicht. Siri macht eine Websuche nach “Oliver ist Ivys Sohn”. Er kann nicht einmal dorthin gelangen.

Das Ärgerlichste an Siri ist, dass Siri für ein System, das zuhören soll, nicht besonders gut zuhören kann.”

Das Ungeheuerlichste an Siri ist, dass es für ein System, das darauf ausgelegt ist, zuzuhören, ein sehr schlechter Zuhörer ist. Und das ist nicht nur ein Fehler. Die kategorische Weigerung, seine eigene Unwissenheit zu berücksichtigen, die eine ungerechtfertigte Gleichgültigkeit darstellt, ist ein unvermeidliches Symptom der Demütigung von Silicon Valley.

Die menschliche Sprache und die Absicht dahinter zu verstehen, ist selbst für Menschen eine große Herausforderung. Als Sprecher stolpern wir über Wörter – als Zuhörer missverstehen wir sie. Der größte Teil eines jeden Gesprächs ist ein edles Bedürfnis nach Klärung oder Auflösung von Unklarheiten.

Siri jedoch akzeptiert jede davon. Trotz ihrer Konversation sucht sie einfach nur nach einer Einführung in dieselben Befehle, die wir im Menü finden können. Ob er weiß, was wir wollen, “nicht versteht”, oder passiv in seiner Rechtschaffenheit “ungültige Einführung” sagt. Dazwischen gibt es nichts.

‘Das ist so Bay Area’, sagen die Leute, wenn sie ein komplexes menschliches Problem mit super-modischen Technologie-Mogulen überfrachteten Lösungen für die falschen Probleme sehen. Man kann sagen: “Das ist so Siri.”

LESEN SIE MEHR:

Verwandte Artikel

Leave a Reply

Your email address will not be published. Required fields are marked *

Auch prüfen
Close
Back to top button