Kennst du das auch? Du schaust deinen besten Freund oder deine beste Freundin an. Und dann wisst ihr beide genau, was ihr gerade denkt? Ihr versteht euch ohne viele Worte, weil ihr euch so gut kennt. Manchmal ist „sich verstehen“ aber auch ganz schön kompliziert. Trifft man einen Menschen zum ersten Mal, muss man ab und zu überlegen, was er meint. Teilweise versteht man ihn dann auch falsch. Schwer ist es auch, wenn es zu laut ist, um den anderen zu hören. Oder man spricht unterschiedliche Sprachen. Manchmal nuscheln Leute oder sprechen einen Dialekt. Vielleicht hast du schon mal Bayerisch oder Schwäbisch gehört? Dann weißt du, dass Leute in Deutschland nicht alle das gleiche Deutsch sprechen. Brötchen heißen zum Beispiel in Berlin „Schrippen“ und in München „Semmeln“. Sich verstehen ist also nicht selbstverständlich – aber sehr wichtig. Nur, wenn du verstehst, was gemeint ist, kannst du darauf richtig reagieren und umgekehrt. Nur, wenn andere wissen, was du meinst, verstehen sie dich auch und wissen, wie sie sich verhalten sollen.

Autos sollen Worte und Sätze verstehen

Genau so ist das auch bei Autos. Moderne Autos sollen lernen, Worte und Sätze zu verstehen. Sie sollen auf gesprochene Befehle reagieren können. Wenn ein Fahrer dem Navigationsgerät zum Beispiel sagt „Turmstraße 5“, dann soll das Navi automatisch den Weg finden. Das funktioniert auch schon ganz gut. Ein Computerprogramm sorgt dafür, dass das Auto Wörter als Befehle versteht und sie ausführt. Aber die gesprochenen Befehle müssen ziemlich kurz sein, damit das klappt. Außerdem muss man sehr deutlich sprechen, damit die Worte richtig verstanden werden. Wenn der Fahrer einen Dialekt spricht oder nuschelt, kann das schief gehen. Dann sucht das Navigationsgerät vielleicht eine falsche Route heraus. Statt in der „Turmstraße 5“ landet man dann womöglich in der „Wurmstraße 5“. Das wäre doch blöd, oder?

Sprach- und Gestensteuerung 2

divider

Die Hände sollen beim Autofahren am Lenkrad bleiben

Warum sollen Autos überhaupt sprechen lernen? Damit man ein Auto sicher steuert, ist es wichtig, dass die Hände am Lenkrad bleiben. So kann man leichter um ein Hindernis auf der Fahrbahn herumfahren. Für sicheres Autofahren ist es außerdem wichtig, dass der Fahrer immer auf die Straße schaut. So kann man sehen, ob der Wagen vor einem bremst. Deshalb ist es gut, wenn das Auto gesprochene Befehle verstehen kann. Wenn man mit Worten einen anderen Radiosender einstellen kann, braucht man nicht die Hände vom Lenkrad zu nehmen, um auf die Radioknöpfe zu drücken. Und man braucht den Blick nicht von der Fahrbahn zu nehmen, weil man den richtigen Knopf sucht. Das gilt auch, wenn das Auto gesprochene Telefonnummern versteht. So kann man telefonieren, ohne ein Handy in die Hand zu nehmen. Mit dem Handy in der Hand beim Autofahren zu telefonieren ist nämlich verboten.

Sprach- und Gestensteuerung 3

Autos sollen künftig auch Dialekte verstehen

Schön wäre es natürlich, wenn das Auto das ganz „normale Sprechen“ verstehen würde. Also auch längere Sätze. Oder auch alle möglichen Dialekte oder wenn jemand beim Sprechen nuschelt. Daran arbeiten Entwickler in der Autobranche. Sie wollen, dass Autos ganz normale Sätze und Wörter verstehen und denken sich dazu immer neue Computerprogramme aus. Wenn Maschinen menschliche Sprache verstehen, nennt man das auf englisch „Natural Language Understanding“, abgekürzt NLU. Übersetzen kann man das mit „natürlichem Sprachverständnis“. Um Autos darin besser zu machen, müssen die Computerprogramme natürlich ziemlich gut sein und viele Funktionen kennen. Sie heißen „Spracherkennungssysteme“. Entwickler wollen auch, dass Autos bald Handbewegungen erkennen können. Manchmal gibt es schon kleine Bildschirme im Auto, die auf Berührungen reagieren. Auch in diesem Bereich wird viel geforscht. Wer weiß, vielleicht kannst du dich irgendwann richtig mit einem Auto unterhalten? Bis ein Auto Witze verstehen kann, ist es aber noch ein langer Weg. Bis dahin plauderst du am besten mit deiner besten Freundin oder deinem besten Freund.

Hinweis: Die in diesem Text enthaltenen Informationen und Aussagen werden von unserem Team sorgfältig recherchiert und geprüft. Es ist jedoch wichtig zu betonen, dass dieser Text keinen wissenschaftlichen Anspruch erhebt. Die primäre Zielsetzung unserer Blogartikel besteht darin, junge Leserinnen und Leser für MINT-Themen zu begeistern und komplexe Inhalte in einer verständlichen Form zu vermitteln.

Stand: August 2015

Klicken, drücken, wischen: ganz klassisch steuert man ein Computerspiel ja mit der Maus in der Hand, per Touchscreen oder man lenkt mit einem Steuerkreuz auf dem Gamepad. Aber einige Computerspiele lassen sich auch steuern, ohne dass man dabei einen Controller in der Hand hält: mit der so genannten Gestensteuerung.

Der Computerkonzern Microsoft hat ein solches System bereits vor drei Jahren das erste Mal auf einer Spielemesse vorgestellt. Heute ist die Kinect-Steuerung eine der populärsten Gestensteuerungen für Videokonsolen. Wichtigster Bestandteil: eine Kamera, die an die Spielekonsole Xbox 360 angeschlossen wird. Ein darin eingebauter Sensor tastet das Wohnzimmer ab und ein Mikrofon nimmt auf, was der Spieler für Sprachbefehle gibt. Während sich der Spieler frei im Raum bewegt, beobachtet ihn die Kamera. Der Spieler muss dann nur noch mit den Armen wedeln, auf der Stelle rennen oder mit dem Kopf wackeln – und schon macht die Computerfigur auf dem Bildschirm die Bewegungen nach. Ganz ohne Gamepad.

Gestensteuerung 1

Und das funktioniert so: Das Kameraobjektiv ist direkt auf den Spieler gerichtet. Es erkennt die klassischen Merkmale eines Menschen: den Kopf, die Augen, den Mund, die Arme und Beine. Bewegt der Spieler dann den linken Arm, dann erkennt das die Kamera und gibt die Körperbewegung an die Xbox weiter. Die Bewegungen werden in Bruchteilen einer Sekunde per Software in Daten umgewandelt und schließlich auf die Spielfigur übertragen.
Der Pixelcharakter hebt dann beinahe zeitgleich mit dem Spieler den linken Arm auf dem Bildschirm. So wird das Wohnzimmer ganz schnell zum Stadion: Denn die Bewegungen lassen sich vor allem für Sportspiele nutzen. Golf spielen etwa, Fußball oder Tennis. Und selbst Autos lassen sich steuern, wenn der Spieler vor sich in die Luft greift und ein imaginäres Lenkrad hin und her bewegt. Dann ist allerdings Schluss mit Bequem-auf-dem-Sofa-Sitzen und das Spiel mit dem Controller steuern: Der Körpereinsatz kann ganz schön anstrengend sein.
Dass die Freiheit vor dem Bildschirm Spaß macht, hat auch die Konkurrenz erkannt und ganz ähnliche Steuerungen entwickelt. Move nennt Sony sein System für die Gestensteuerung der Playstation 3. Auch hier nimmt eine Kamera die Bewegungen auf, allerdings benötigen die Spieler für die meisten Spiele einen Controller, einen Plastikstab mit einer Leuchtkugel darauf.

divider

Gestensteuerung für Gebärdensprache

Und nicht nur bei Videospielen wird die Gestensteuerung eingesetzt. Forscher übertragen die Möglichkeiten der Kamera auf ganz andere Bereiche des Alltags. Etwa die Mitarbeiter des Georgia Institute of Technology, einer Technischen Hochschule im US-Bundesstaat Georgia. Die Forscher haben die Kinect-Steuerung Xbox neu programmiert. Sie haben die Software so manipuliert, dass das System sogar Gebärdensprache erkennt. Eine Zeichensprache, die Gehörlose verwenden, um sich ohne gesprochene Worte zu auszudrücken. Die Sprache besteht vor allem aus Gestiken und Mimik, viele Zeichen werden mit den Händen geformt. Mit einer selbst programmierten Software haben es die Forscher geschafft, die Gebärdensprache als Text auf dem Bildschirm anzuzeigen. Gehörlose Kinder können damit auf spielerische Weise die Sprache lernen. Ein Video der Forscher zeigt, wie es funktioniert. Noch mehr Infos dazu findet ihr hier.
Doch in Zukunft erwartet uns noch viel mehr. Der nächste Schritt der Gestensteuerung ist, dass künftig ganz gewöhnliche Schreibtischplatten oder ein Stück Papier wie ein Touchscreen benutzt werden können. Möglich macht das ein Projekt mit dem Namen Omnitouch. Ein Gerät, das aus einem kleinen Beamer und einer Kamera besteht. Wenn der Apparat geschultert wird, dann verwandelt sich die Handfläche in ein Bedienfeld. Der Projektor wirft dann ein Leuchtbild auf die Hand der Versuchsperson, beispielsweise das Bild einer Computertastatur. Sobald der Nutzer die Projektion einer Taste berührt, registriert das die Kamera. Die Information wird berechnet und gespeichert. So kann die Testperson eine E-Mail auf seiner Handfläche tippen – und muss dafür nicht einmal eine Tastatur dabei haben.

Hinweis: Die in diesem Text enthaltenen Informationen und Aussagen werden von unserem Team sorgfältig recherchiert und geprüft. Es ist jedoch wichtig zu betonen, dass dieser Text keinen wissenschaftlichen Anspruch erhebt. Die primäre Zielsetzung unserer Blogartikel besteht darin, junge Leserinnen und Leser für MINT-Themen zu begeistern und komplexe Inhalte in einer verständlichen Form zu vermitteln.

Stand: April 2013