Image
HEADER-pixabay-HammerAndTusk-virtual-reality-1389040-2540x1000
Foto: CC0 1.0,Pixabay User HammerAndTusk/ Ausschnitt bearbeitet, Montage
Artikel

Ein Duo für die Zukunft: Immersive Technologie und künstliche Intelligenz

22

Feb
2018

Veröffentlicht am 22.02.2018

Foto: CC0 1.0, Pixabay User HammerAndTusk/ Ausschnitt bearbeitet, Montage
Augmented, Virtual oder Mixed: Künstliche Realitäten halten immer mehr Einzug in unser Leben. Und gleichzeitig spielt künstliche Intelligenz (KI) häufiger eine Rolle. Dabei beeinflussen sich beide Trends gegenseitig, wie man im Telefónica BASECAMP beim zweiten VR Day des Bundesverbandes Digitale Wirtschaft (BVDW) sehen konnte. Die sogenannten “immersiven Technologien”, mit denen man in virtuelle Welten abtaucht, werden durch KI erst richtig lebendig. Und künstliche Intelligenz bekommt damit ein Frontend für ganz natürliche Interaktionen, wie man sie von einem hilfreichen Freund erwartet. Doch diese Symbiose benötigt sehr große Rechenleistungen, die sich wahrscheinlich nur durch Edge Computing bereitstellen lassen.

Unternehmen setzen hohe Erwartungen in intelligente Umgebungen mittels Robotik,
KI und immersiver Erfahrungen”, schreibt die Managementberatung Accenture in ihrer aktuellen Studie Technology Vision 2018. Und die neuen Zahlen der Marktforscher von Gartner zeigen: Ganze 25 Prozent der Kundendienst- und Support-Abteilungen werden bis 2020 virtuelle Kunden-Assistenten oder Chatbots einsetzen, während es momentan noch weniger als zwei Prozent sind. Um diese Entwicklungen voranzutreiben, müssten Unternehmen erkennen, dass immersive Technologien und künstliche Intelligenz sich gegenseitig bereichern. Diesen Gedankenschritt fordert Tuong Nguyen, und der leitende Research Analyst von Gartner verwendet auch gleich ein anschauliches Beispiel, um die Vorteile zu beschreiben.



Erst nach dem Klick wird eine Verbindung zu YouTube aufgebaut. Infos finden Sie in unserer Datenschutzerklärung.

Interaktion mit immersiven Technologien soll intuitiv und natürlich funktionieren“, sagt Ngyuen. Schon heute ist es möglich, sich neue Möbel zuerst einmal nur virtuell ins Zimmer zu stellen. Mit der Ikea-App für ARKit geht das ganz einfach auf dem iPhone, doch die nächste Stufe der Entwicklung könnte für die nervige Bastelei gezündet werden, die später oft nötig ist: Eine AR-Brille mit einem KI-Assistenten hilft beim Aufbau der Möbel. “Wer die Hände voller Bauteile und Werkzeuge hat, kann natürlich nicht tippen, swipen oder gestikulieren”, erklärt Nguyen. “Also fragt man den Assistenten: ‘Welches Teil halte ich gerade?’, ‘Welcher Schritt kommt jetzt?’ oder ‘Wo kommt dieses Teil hin?'” Der KI-Assistent versteht sowohl die Fragen als auch den Kontext. Und seine Antworten gibt er per Sprachausgabe oder mit Texten und Bildern, die er im Display einblendet.

Nötige Voraussetzungen: Deep Learning und Edge Computing

Diese neuen Möglichkeiten basieren vor allem auf den jüngsten Fortschritten beim Deep Learning: eine neue Form des maschinellen Lernens, die alle herkömmlichen Techniken für die Erkennung und Verarbeitung von Sprache oder das maschinelle Sehen übertrifft. Das Resultat: Die künstliche Intelligenz kann die komplexe menschliche Sprache interpretieren, imitieren und in Echtzeit übersetzen. Und noch beeindruckender: Sie erkennt sogar den Kontext und Stimmungen in Texten oder Unterhaltungen. Die KI kann zusätzlich auch ihre Umgebung oder Videos analysieren, um darin Gegenstände, Bewegungen und selbst Gefühle zu erkennen.

pixabay-mohammedhassan-automaton-3154529-1280x720

Foto: CC0 1.0,Pixabay User Mohameed Hassan/ Ausschnitt + Hintergrund bearbeitet

Alle diese Anwendungen benötigen eine enorme Rechenleistung. Bisherige Smartphones und selbst Personalcomputer sind dafür zu schwach, doch sie kann auch nicht komplett aus der Cloud kommen. Ein Beispielszenario verdeutlicht es: Ein autonomes Auto, das auf der Autobahn seine Verbindung zum Netz verliert, darf nicht einfach aufhören zu funktionieren. Die Lösung liege deshalb im Edge Computing, sagt Nguyen. Im Gegensatz zu Cloud-Lösungen werden die Daten dabei teilweise lokal verarbeitet, gleich am Ort des Geschehens oder direkt in der nächsten Mobilfunk-Basisstation, ohne dass sie erst lang in ein Rechenzentrum reisen müssen. Diese Technik soll auch zu einem Bestandteil des neuen 5G-Mobilfunkstandards werden.

Wir können jetzt schon sagen, dass Edge Computing eine Grundvoraussetzung für die Aggregation und Interpretation von Daten für Anwendungen sein wird, die große Übertragungsraten und geringe Verzögerungen benötigen”, sagt er Experte von Gartner. Die Verarbeitung der Daten erfolgt dann am Rand (englisch: “Edge”) des IT-Netzwerks. Allerdings warnt Nguyen auch vor zu großer Euphorie. Es sei wichtig, nicht zu viel zu versprechen. “Auch wenn wir 2018 Verbesserungen sowohl bei KI als auch bei immersiven Technologien sehen werden, sind die Erwartungen bisher zu groß gewesen”, sagt Nguyen. “Lasst uns diesen Fehler nicht wiederholen!” Die Technik sei bisher vergleichbar mit einem Jugendlichen: noch immer im Wachstum, aber schon sehr talentiert.

Wir weisen darauf hin, dass bei unseren öffentlichen Veranstaltungen auch Bild- und Tonmaterial in Form von Fotos oder Videoaufzeichnungen durch von uns beauftragte oder akkreditierte Personen und Dienstleister erstellt wird. Die Aufnahmen werden für die Event-Dokumentation und Event-Kommunikation auf den Social-Media-Kanälen des BASECAMP genutzt. Sie haben das Recht auf Information und weitere Betroffenenrechte. Informationen zu unseren Datenverarbeitungen sowie Ihren Betroffenenrechten finden Sie hier.

Über den Autor

Markus Oliver Göbel war bis September 2019 Senior Public Relations Manager und Pressesprecher für das Telefónica BASECAMP. Davor arbeitete er bei Telefónica Deutschland als Pressesprecher für Innovationen, B2B, Netztechnik, Startups und Social Media. Der Diplom-Journalist absolvierte die Deutsche Journalistenschule und schrieb viele Jahre für FTD, DIE ZEIT, Wirtschaftswoche und andere große Medien. Außerdem auch für bekannte Blogs wie TechCrunch oder News-Websites wie AreaMobile und Heise Online.