Reden statt Tippen – das versprechen uns Hersteller von Computern und anderen Hightech-Gadgets seit Jahren, die Macher von Science-Fiction-Filmen sogar schon seit Jahrzehnten. Aber bisher wurde das Versprechen selten eingehalten.
Glaubt man Apple und Google, dann ändert sich das alles jetzt. Angeblich liefern sowohl iOS als auch Android Eingabesysteme, die Tastaturen nahezu ersetzen können.
Bild.de hat beide Assistenten ausprobiert und verrät, ob sich Computer und Mensch inzwischen besser verstehen.
Siri hört gut zu, hat aber nur ein kurzes Gedächtnis
Apples Menschen-Versteher hört auf den netten Namen „Siri“ und wird aktiviert, wenn man in der virtuellen Tastatur von iPad oder iPhone auf die „Mikro“-Taste (rechts neben der Space-Taste) drückt. Dann ertönt ein freundliches „Bing“ und man kann drauflos reden.
Siri erkennt gesprochene Texte auch ohne Training erstaunlich gut (siehe Beispiele unten). Störgeräusche werden gut ausgeblendet, Groß- und Kleinschreibung halbwegs zuverlässig richtig gemacht und selbst Satzzeichen kann man einfach diktieren. Das Sprechen von „Komma“, „Punkt“ und „Fragezeichen“ braucht anfangs Training, sorgt später aber dafür, dass man diktierte Texte nur noch geringfügig überarbeiten muss.
Ähnlich gewöhnungsbedürftig ist die Tatsache, dass man alle paar Sekunden längere Pausen machen muss. Die nutzt Siri, um die aufgenommenen Sätze übers Web an einen Server zur Spracherkennung zu schicken. Erst wenn das Ergebnis eingegangen ist, kann man weitersprechen.
Hier liegt die Hauptschwäche des Dienstes: Selbst bei einer schnellen Anbindung ans Web bringt Siri längere Texte nur stotternd aufs digitale Papier. Steht kein halbwegs schneller 3G-Mobilfunk zur Verfügung, ist Siri praktisch unbrauchbar. So eignet sich der Dienst eigentlich nur im flotteren WLan-Netz für längere Diktate, und auch das nur, wenn man die Pausen nutzt, um sich die nächsten Sätze zu überlegen.
Google ist technisch besser, auf dem Papier aber schlechter
Der Zuhörer von Android heißt schlichte „Spracheingabe“, kann entweder über die Tastatur (Mikro-Symbol) oder beim Tippen über die Nachrichtenleiste (oben am Display) aktiviert werden. Anders als Siri hört Google ständig zu, braucht also keine Nachdenk-Pausen. Die Wörter schreiben sich nach dem Sprechen in die jeweilige Eingabemaske.
Die Erkennung ist zwar ordentlich, aber richtige Groß- und Kleinschreibung klappt nur gelegentlich. Auch Satzzeichen kann man (entgegen der Dokumentation von Google) nicht mitsprechen. Sie landen als Wort im Satz.
So liefert die „Spracheingabe“ bestenfalls eine Basis-Version für einen Text. Man muss ihn später stark überarbeiten. In der Praxis gewinnt man dadurch kaum Zeit – per Tastatur wäre es zuweilen schneller getippt.
Wie Siri funktioniert auch die Google-Spracheingabe nur, wenn man eine schnelle Internet-Verbindung hat. Zwar kann man ein Sprachpaket (18 Megabyte für „Deutsch“) herunterladen, mit dem man angeblich auch offline diktieren kann. Doch in unseren Tests war die Qualität der Spracherkennung dann noch einmal deutlich schlechter als mit aktiver Internetverbindung.
Fazit: Du verstehst mich nicht!
Apples Siri liefert erstaunlich gute Ergebnisse, die kaum noch überarbeitet werden müssen, kann aber nur ein paar Sekunden lang zuhören. Googles Spracheingabe hört ständig zu, versteht seinen Benutzer dafür aber so schlecht, dass die Ergebnisse bestenfalls als Stichwortsammlung dienen können.
Auch wenn beide Dienste sehr eindrucksvoll zeigen, wo die Reise hingeht – überzeugen kann in der aktuellen Form keiner von beiden.
Keine Kommentare:
Kommentar veröffentlichen