Der 3. April war ein ganz besonderer Tag: Am KIT in Karlsruhe zeigte Ola Källenius, Vorstandsmitglied der Daimler AG und Chef der Konzernforschung & Mercedes-Benz Cars Entwicklung bei der Genius Kinderuni, wie die Autos schon heute sehen, denken und sprechen können – und was sie fit macht für die Zukunft des Automobils.

Als Ola Källenius die Bühne betritt, begrüßen ihn die Kinder im Audimax-Hörsaal des KIT in Karlsruhe mit frenetischem Trommelwirbel auf den Tischen. Dass man so an der Universität seine Begeisterung zeigt, anstatt mit Applaus, haben sie bereits gelernt. Jetzt können sie es kaum abwarten, Spannendes aus der Welt des Automobils erfahren.

Sie werden nicht enttäuscht. Von Schwarmintelligenz und Sprachsteuerung über autonomes Fahren und Elektroantrieb bis hin zu einem Aha-Moment, als eine Zitrone tatsächlich Strom für eine Glühbirne erzeugt, kommen die Kinder aus dem Staunen nicht mehr heraus.

“Das waren klasse Studentinnen und Studenten”, fasst Ola Källenius zusammen, wie er die Kinder in seiner Funktion als Dozent erlebt hat. “Sie waren sehr aktive Begleiter der Vorlesung, haben viele Fragen gestellt – aber auch gute Ideen gehabt.”

Im Daimler-Blog berichtet Genius-Praktikantin Martina von ihrem Tag bei der Kinderuni. Die Highlights der Vorlesung kannst du dir hier im Video anschauen:

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

PGlmcmFtZSB3aWR0aD0iNjQwIiBoZWlnaHQ9IjM2MCIgc3JjPSJodHRwczovL3d3dy55b3V0dWJlLW5vY29va2llLmNvbS9lbWJlZC9IWnA5ZWtmSFV0TT9mZWF0dXJlPW9lbWJlZCIgZnJhbWVib3JkZXI9IjAiIGFsbG93PSJhdXRvcGxheTsgZW5jcnlwdGVkLW1lZGlhIiBhbGxvd2Z1bGxzY3JlZW4+PC9pZnJhbWU+

Kennst du das auch? Du schaust deinen besten Freund oder deine beste Freundin an. Und dann wisst ihr beide genau, was ihr gerade denkt? Ihr versteht euch ohne viele Worte, weil ihr euch so gut kennt. Manchmal ist „sich verstehen“ aber auch ganz schön kompliziert. Trifft man einen Menschen zum ersten Mal, muss man ab und zu überlegen, was er meint. Teilweise versteht man ihn dann auch falsch. Schwer ist es auch, wenn es zu laut ist, um den anderen zu hören. Oder man spricht unterschiedliche Sprachen. Manchmal nuscheln Leute oder sprechen einen Dialekt. Vielleicht hast du schon mal Bayerisch oder Schwäbisch gehört? Dann weißt du, dass Leute in Deutschland nicht alle das gleiche Deutsch sprechen. Brötchen heißen zum Beispiel in Berlin „Schrippen“ und in München „Semmeln“. Sich verstehen ist also nicht selbstverständlich – aber sehr wichtig. Nur, wenn du verstehst, was gemeint ist, kannst du darauf richtig reagieren und umgekehrt. Nur, wenn andere wissen, was du meinst, verstehen sie dich auch und wissen, wie sie sich verhalten sollen.

Autos sollen Worte und Sätze verstehen

Genau so ist das auch bei Autos. Moderne Autos sollen lernen, Worte und Sätze zu verstehen. Sie sollen auf gesprochene Befehle reagieren können. Wenn ein Fahrer dem Navigationsgerät zum Beispiel sagt „Turmstraße 5“, dann soll das Navi automatisch den Weg finden. Das funktioniert auch schon ganz gut. Ein Computerprogramm sorgt dafür, dass das Auto Wörter als Befehle versteht und sie ausführt. Aber die gesprochenen Befehle müssen ziemlich kurz sein, damit das klappt. Außerdem muss man sehr deutlich sprechen, damit die Worte richtig verstanden werden. Wenn der Fahrer einen Dialekt spricht oder nuschelt, kann das schief gehen. Dann sucht das Navigationsgerät vielleicht eine falsche Route heraus. Statt in der „Turmstraße 5“ landet man dann womöglich in der „Wurmstraße 5“. Das wäre doch blöd, oder?

Sprach- und Gestensteuerung 2

divider

Die Hände sollen beim Autofahren am Lenkrad bleiben

Warum sollen Autos überhaupt sprechen lernen? Damit man ein Auto sicher steuert, ist es wichtig, dass die Hände am Lenkrad bleiben. So kann man leichter um ein Hindernis auf der Fahrbahn herumfahren. Für sicheres Autofahren ist es außerdem wichtig, dass der Fahrer immer auf die Straße schaut. So kann man sehen, ob der Wagen vor einem bremst. Deshalb ist es gut, wenn das Auto gesprochene Befehle verstehen kann. Wenn man mit Worten einen anderen Radiosender einstellen kann, braucht man nicht die Hände vom Lenkrad zu nehmen, um auf die Radioknöpfe zu drücken. Und man braucht den Blick nicht von der Fahrbahn zu nehmen, weil man den richtigen Knopf sucht. Das gilt auch, wenn das Auto gesprochene Telefonnummern versteht. So kann man telefonieren, ohne ein Handy in die Hand zu nehmen. Mit dem Handy in der Hand beim Autofahren zu telefonieren ist nämlich verboten.

Sprach- und Gestensteuerung 3

Autos sollen künftig auch Dialekte verstehen

Schön wäre es natürlich, wenn das Auto das ganz „normale Sprechen“ verstehen würde. Also auch längere Sätze. Oder auch alle möglichen Dialekte oder wenn jemand beim Sprechen nuschelt. Daran arbeiten Entwickler in der Autobranche. Sie wollen, dass Autos ganz normale Sätze und Wörter verstehen und denken sich dazu immer neue Computerprogramme aus. Wenn Maschinen menschliche Sprache verstehen, nennt man das auf englisch „Natural Language Understanding“, abgekürzt NLU. Übersetzen kann man das mit „natürlichem Sprachverständnis“. Um Autos darin besser zu machen, müssen die Computerprogramme natürlich ziemlich gut sein und viele Funktionen kennen. Sie heißen „Spracherkennungssysteme“. Entwickler wollen auch, dass Autos bald Handbewegungen erkennen können. Manchmal gibt es schon kleine Bildschirme im Auto, die auf Berührungen reagieren. Auch in diesem Bereich wird viel geforscht. Wer weiß, vielleicht kannst du dich irgendwann richtig mit einem Auto unterhalten? Bis ein Auto Witze verstehen kann, ist es aber noch ein langer Weg. Bis dahin plauderst du am besten mit deiner besten Freundin oder deinem besten Freund.