Spatial Computing
Startseite | Blog | Perspektiven entdecken | Spatial Computing mit Apple Vision & weiteren – der Bildschirm verschwindet

Spatial Computing mit Apple Vision & weiteren – der Bildschirm verschwindet

Ein spannender Innovationsprozess wird für uns jetzt erlebbar: Apple Vision Pro steht in einer langen Reihe von Geräten, die wir am Körper tragen. Und dieses Gerät ist doch erst ein weiterer Anfang hin zum ubiquitous computing in der realen Lebenswelt von vielen Menschen. Einer Lebenswelt ohne sichtbaren „Computer“, mit einem Bildschirm, der nicht mehr als solcher wahrgenommen wird. Mit natürlichen Interfaces wie Sprache, Bewegungen, wahrscheinlich sogar die Zusammenwirkung des Menschen mit „computer-intuitiven“ bzw. AI-basierten Interaktionen, die eben nur Gesten und nicht mehr aufwändige Maßnahmen wie Tippen brauchen.

Nach Desktop und Mobile Computing kommt jetzt „Spatial Computing“ bzw. – Apple hat der Kategorie einen Namen gegeben und wird ihn mit viel Aufwand in die Welt tragen. Damit sehen wir schon die Anwendung von einem der wichtigen Bereiche für : Branding. Damit Menschen insbesondere das Neue verstehen, braucht es einen starken Markenkern und die entsprechende Ausbildung in die verschiedenen Marketing- und Kommunikationsmöglichkeiten.

Mit Vision „Pro“ in den Markt – später folgt Consumer Produkt „Vision“

Ja, Vision „Pro“. Apple startet in diesen sich noch zu definierenden Markt mit der „Pro“ Reihe (vergleichbar mit „iPhone Pro“) in den (kleinen, speziellen) Markt. Und wenden sich an Menschen, die spezielle Anforderungen haben, die bereit sind, auszuprobieren. Das wirkliche Consumer Produkt, sozusagen vergleichbar mit dem „iPhone“ (ohne „Pro“), kommt dann in ein paar Jahren. Nachdem sich das Gerät entwickelt hat und vor allem die Hardware den konzeptionellen Erwartungen gefolgt ist. Denn das ist eben noch nicht der Fall (wer Apple Vision Pro erleben möchte, hier ist ein Video).

Es wäre absolut falsch zu sagen, dass das erste Vision Pro Gerät, ich scheue mich, es „Brille“ zu nennen, ein Prototyp ist. Wer Prototypen von ähnlichen Geräten sehen will, hier mein kurzer Artikel über die ersten Prototypen von Google Glass, dessen Erfinder, Thad Starner, ich 2014 getroffen habe.

Aber es ist das erste seiner am Markt verfügbaren Produktreihe bei Apple. Nimmt man sich das erste iPhone und schaut dessen Entwicklung an, und sich dann vorstellt, wie Vision (Pro) in zehn Jahren aussehen wird, dann haben wir 2030 ubiquitous computing in einer substantiellen Anzahl im Markt, bei normalen Menschen, mindestens die Early Adopters, möglicherweise auf schon aus dem Bereich der early majority. Nicht nur den innovator Nutzern der „Pro“ Produkte, die bereit sind, für spezielle Features auch entsprechend Geld bezahlen wollen. Meine Vermutung ist: die Form des Smartphones in Form einer kleinen Schokoladentafel ist schon so weit etabliert, dass sie sich noch lange halten wird und parallel zu anderen Formen trotzdem weiter genutzt wird.

Schaut man genau hin, ist Vision Pro ein Gerät mit drei bzw. vier einzelnen Teilen. 

  • Die eigentliche „Brille“ bzw. die Technikeinheit – noch so groß wie eine Skibrille – mit meines Erachtens sehr ungeschickt gestalteten Brillenbügeln.
  • Eine Stromquelle, aktuell ein smartphone großes Akkupack mit Kabel, um das Gewicht des „Brillengeräts“ niedrig zu halten.
  • Ein Neck Strap Brillenband, wie wir es vor allem aus dem Sport Bereich kennen. Hier überdimensioniert, damit das Gewicht der „Brille“ komfortabel gehalten werden kann. Ist die „Brille“ leicht genug, braucht es dieses Neck Strap nicht mehr.
  • Ein auf die Gesichtsform anpassbares Verbindungselement vermittelt zwischen der „Brille“ und dem Gesicht. Es ist notwendig, damit der Neck Strap die „Brille“ gut halten kann. Und um eine kontrollierte Umgebung zu schaffen, dunkel, ohne Lichteinfall von der Seite, damit die Bildschirme und internen Kameras ihren Dienst gut tun können. 

Optisch lenken die letzen beiden Teile ab vom eigentlichen Ding. Sie stören zudem. Und werden mit der Entwicklung der Hardware überflüssig.

Denn wir dürfen nicht vergessen: das Ding ist noch keine „Brille“, es ist noch nicht durchsichtig. Man könnte zwar argumentieren, dass eine Brille nicht durchsichtig sein muss, sondern eben nur den Durchblick in eine (andere) Welt ermöglichen muss. Doch ich denke, erst das Thema „Head-up Display“ mit Durchsichtigkeit, statt einer Kombination aus Kameras und Bildschirm(en), wird das Consumer Modell ausmachen und die große Verbreitung nach und nach sichern.

Onwards

Halten wir uns nicht an den aktuellen verfügbaren Features auf sondern schauen auf die Zukunft, auf die Weiterentwicklung. Schliesslich bestanden erste Google Glas Prototypen aus einem Rucksack mit Laptop, einer Skibrille mit Kamera und Bildschirm (Smartphone), Headset mit Kopfhörer und Mikrofon (siehe mein Artikel von 2017).

Das Apple Vision Consumer Gerät

  • ist durchsichtig
  • ist gewohnt und leicht
  • Sound kommt einfach

Bis dahin ist dann „Apple Vision“ (ohne das Pro) eine Brille, ohne Zusatzteile. Damit spatial computing sich durchsetzen kann, muss es Teil des Alltags werden und diesen Alltag substantiell einfacher machen. Dazu gehört für mich ein leichtes brillenartiges Gerät, denn der Formfaktor, das Prinzip Brille gibt es schon seit Jahrhunderten in unserer Gesellschaft und ist akzeptiert. Von 99% der Menschen im Sonnenbrillenbereich. Mit Sehhilfe Glas oder ungeschliffen. Aber eben durchsichtig. Und die Grundlage für ein Head-up Display, mit dem wir alles was wir sehen und wählen müssen, frei schwebend vor uns im Raum sehen.

Alle anderen Teile sind so reduziert und miniaturisiert, dass sie leicht verbaubar sind. Durch Software kann vieles ausgeglichen werden, und zB die Zahl der Kameras reduziert werden. Ein Beispiel dafür haben wir schon heute mit der Insta 360 Kamera, die mit zwei Linsen ein bearbeitbares Rundumbild in Kugelform liefert und durch die Software den Fokus ermöglicht.

Nächste Herausforderung

Akustik

Akustik, hören, ist immer noch eine Herausforderung, da nicht unbedingt jeder Schall auch nach aussen treten soll. Auch hier gibt es seit Jahren schon Beispiele vom Übertragen von Schall auf den Schädelknochen zB bei Jabra statt Dingern, die man im Ohr trägt.

Energie

Geringer Stromverbrauch und leichteste Stromspeicher. Oder Erzeugung von Strom im Gerät. Letzteres könnte im Glas der Brille entstehen. Es gibt bereits Muster zB vom KIT Karlsruhe, von durchsichtigen Photovoltaik Modulen, gerade im Kontext einer Brille. In Kombination mit miniaturisierter Energiespeicherung und geringem Stromverbrauch (bereits heute eine Stärke von Apple Silicon Chips).

Mehr Herausforderungen

Umgebung erkennen

Schon jetzt hat das iPhone Pro ein Lidar Laser eingebaut, mit dem die Umgebung auch tatsächlich dreidimensional erkennbar ist. Es können sogar digitale 3D-Modelle damit erzeugt werden. Es ist mir aktuell nicht klar, ob Vision Pro diese Funktion schon eingebaut hat, doch ich vermute es. Es soll ja auch die Möglichkeit geben, 3D Fotos und Videos aufzunehmen. So etwas aber in das Consumer Gerät Brille zu integrieren, wird sicher aufwändig.

Sinn aus Information machen

Weitere Herausforderung: aus den ganzen Informationen Sinn zu machen und für den Menschen eine Unterstützung zu schaffen. Damit meine ich einerseits die generelle Nutzung, die Usability, der Umgang mit den Interfaces (mehrere, denn wir haben mindestens drei: optisch, akustisch, räumlich). Und das intuitive Präsentieren von zeitlich passenden Informationen und Vorschlägen zu denen der Mensch dann nur noch unkompliziert zustimmt, ablehnt oder anpasst, zB durch einfache Gesten. zum Glück kommt gerade AI/KI.

Wo führt das hin, wie schaut das Apple Vision Consumer Produkt 2030 aus?

Ein leichtes Gerät in Form einer Brille mit durchsichtigen Gläsern, die Strom erzeugen. Die Miniaturisierung macht es möglich. Eine Art Head-up Display bringt die visuellen Inhalte in die Welt vor uns. Hell genug, damit es keine „Verbindungslemente“ mehr braucht. Leicht genug, damit es keinen Neck Strap mehr braucht. Lange noch in Kombination mit einem Extra Gerät, vielleicht einem uhrartigen Gerät oder sonstigen Schmuckstück. Denn beide Formen, Brille und Uhr bzw. Schmuckstück sind gesellschaftlich akzeptiert, teilweise seit Jahrtausenden. Ggf. in Kombination mit etwas im Ohr (Apple nennt es heute Airpods), das dann aber auch die Form eines Schmuckstücks haben kann. Im Idealfall hat sich das Ding im Ohr aber auch, wie das schokoladentafelgroße Gerät („Smartphone“), aufgelöst.

Vielleicht erst für ältere Menschen, die sowieso eine Brille tragen und dann auch später häufig eine Hörhilfe.

Wie kann die erweiterte Interaktion dann funktionieren?

Zum Beispiel mit Humane.

Ein gutes Beispiel zeigt Humane Co-Gründer Imran Chaudhri im TED Talk. Hier noch in Form einer kleinen flachen Schachtel, getragen in der Anzugtasche, normalerweise reserviert für ein Einstecktuch. Das Konzept funktioniert, der Formfaktor ist sicher nur ein Prototyp. Aber es ist leicht vorstellbar, diese Form der Interaktion eben auch in einem Apple Vision Gerät zu haben.

Nachtrag im November 2023: die Humane AI Pin ist ein Gerät, das meines Erachtens eine der zentralen Funktionen zeigt, die AI Wearables ausmachen und mit einem kaufbaren und nutzbaren Produkt uns zeigt, wie das ausschauen könnte. Einer der Humane Investoren ist Sam Altman, der Co-Gründer von OpenAI. Wie es funktioniert ist hier im Video sichtbar:

Ehemalige Apple Mitarbeitende sind die Humane Gründer

Ist es Zufall, dass Imran Chaudhri langjähriger Apple Designer und die andere Co-Gründerin, Bethany Bongiorno, langjährige Apple Projektleiterin ist? Und er eine Reihe von Patenten hält wie zB US-20220400235-A1 „Dynamic Optical Projection with Wearable Multimedia Devices“.

Humane Kurzinfo

„Humane ist eine Plattform, die Hardware, Software und Dienstleistungen für Verbraucher entwickelt und vertreibt, die sich vertraut, natürlich und menschlich anfühlen. Das Unternehmen glaubt an die Entwicklung von Spitzentechnologie, die sich natürlich, natürlich und menschlich anfühlt.“

Was ist das End Game für Apple Vision, bzw. für die Kategorie?

Sag niemals „final“, denn Entwicklungen gehen immer weiter. Hier gemeint eher der Zustand in 20 Jahren: Die Herausforderung wird sein, ein Gerät zu machen, das kein „Gerät“ mehr ist. Mit einem tragfähigen spatial computing Geschäftsmodell (ich habe 2018 dazu geschrieben). Und dafür Geld zu bekommen als Hersteller. Das wird für ein Unternehmen wie Apple nicht ganz einfach, da sie die Umsätze immer noch im Hardwarebereich erzielen und den Softwarebereich erst aufbauen. Bzw. Software aktuell kostenlos weitergeben. Doch die Apple Abo Modelle sind sehr inhalte-fokusiert und damit dann auch geeignet, Umsätze durch Erlebnisse auf den quasi abgeschafften Geräten zu generieren. Die Konzepte und Technologien sind da und auch dem weiteren Weg der Miniaturisierung.

Zugegebenermassen, es braucht viel Information, Kreativität und die Fähigkeit sowie Bereitschaft, sich Zukunft vorstellen zu wollen. Doch das ist ja gerade der Teil der Innovatoren ausmacht.

Über

Dr. Klaus Reichert

Hallo, Klaus Reichert hier. Ich bin unabhängiger Berater und kreativer Business Coach mit Herzblut für Innovation und begleite Unternehmen mit viel Erfahrung und Kreativität beim Innovationsmanagement und Innovationsstrategie auf dem Weg von der Vision zu enkeltauglichen Leistungen. Mein Standort ist Baden-Württemberg, zwischen Karlsruhe und Bodensee.

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Innovationscoaching kennenlernen. Denn es gibt kein Ende von Innovation. Nur Starts.

Mit dem Innovationscoaching Programm haben Unternehmen eine unkomplizierte und öffentlich geförderte Möglichkeit, einen kontinuierlichen Innovationsprozess einzuführen und die Transformation durch Digitalisierung, Klimawandel und Gesellschaft einfacher zu meistern. Wir klären Fragen und schauen, ob wir zusammen passen in einem kostenfreien Erstgespräch per Zoom oder Telefon.

Nach oben scrollen