Das erste von zwei gemeinsam mit der IHK Region Stuttgart geplanten Webinaren zum Projekt „SensAR“ am Mittwoch, den 24.03.2021, behandelte die Themenbereiche Objekterkennung und Visualisierung. Insgesamt erläuterten 10 Professor*innen und Mitarbeiter*innen den aktuellen Stand der entwickelten Tools und standen Rede und Antwort für die anwenderbezogenen Fragen und Vorschläge.
Das Projekt SensAR wird von der Carl-Zeiss-Stiftung mit 750.000 € in der Programmlinie Transfer gefördert. Der Austausch mit Anwendern und Transfer der Ergebnisse hat daher in diesem Vorhaben eine sehr große Bedeutung. Geplant und gehofft hatte man auf eine Präsenzveranstaltung, in der die Labore, die Messkammern und AR-Anwendungen interessierten KMU live vorgeführt werden können. Nach der Hälfte der Projektlaufzeit gibt es durchaus schon viel zu zeigen!
Nun musste das Format auf ein online-Webinar angepasst werden. Dem Zuspruch seitens der KMU tat dies keinen Abbruch: 30 Anmeldungen zeigten das Interesse und den Bedarf an Augmented Reality-Lösungen im Bereich der Produktion für KMU.
Wir möchten einen leichten Zugang für KMU zum Technologiefeld Augmented Reality ermöglichen.
Zu Beginn des einstündigen Webinars erläuterte Prof. Volker Coors als Gesamtprojektleiter die Idee hinter dem Projekt SensAR. Die Abkürzung steht für „Vermittlung von orts- und kontextbezogenen sensorischen Daten mittels Augmented Reality“. Der Ansatz konzentriert sich auf generalisierbare Abläufe, die in vielen Unternehmen vorkommen, ohne in spezifische Produktionsabläufe einzudringen. Ziel ist es, eine Entlastung durch automatisierte Erfassung und digitalisierte Assistenzsysteme zu erreichen. Kleineren und mittleren Unternehmen soll so ein leichterer Zugang zum Technologiefeld Augmented Reality ermöglicht werden.
Der Technologiemarkt hat sich gerade in den Bereichen Funksensoren, Kommunikationstechnologien und Sensornetzwerke stark entwickelt und auch im Internet der Dinge (IoT) und Industrie 4.0 ist dieser Trend zu beobachten. Es fehlt bisher jedoch ein ganzheitlicher Ansatz, der Forschungsbereiche wie die dynamische Objekterkennung, Ortung, Sensorik und Standards, UI sowie Datenschutz und -sicherheit vereint. In diesem ersten von zwei Webinaren wurden in zwei Workshops die Objekterkennung und User-Interface-Visualisierung mit den Teilnehmer*innen diskutiert. Nach einem kurzen Pitch in der kompletten Runde konnte jede*r selbst entscheiden, an welchem der beiden Breakout-Workshops teilgenommen wurde – die Wahl fiel dabei erfreulich ausgeglichen aus.
Beispielanwendungen an echten Systemen und Objekten zeigen am besten, was bereits alles möglich ist.
Anhand von Beispielanwendungen wurden die bisherigen Arbeiten zur Objekterkennung in der ersten Breakout-Session vorgestellt. Auf reges Interesse stieß die genaue Erfassung von Objekten in Werkshallen, wie zum Beispiel den fast überall vorkommenden Ladungsträgern. Hinter dieser einfach klingenden Aufgabe verbirgt sich ein hochgenaues terrestrisches Laserscanning, das eine 3-dimensionalen Punktwolke erzeugt. Diese wird mittels KI-Anwendung durch ein neuronales Netz semantisch segmentiert – es wird also jedem Punkt ein Label zugeordnet. Innerhalb dieser semantisch segmentierten Punktwolken erfolgt dann die Objekterkennung und eine genaue Positionierung kann ermittelt und dargestellt werden. In einem zweiten Ansatz wird nicht ein Laserscanning als Datenursprung verwendet, sondern Photogrammmetrie, also Bildaufnahmen aus denen ebenfalls Punktwolken automatisiert ermittelt werden können, um mobile Objekte wie Ladungsträger zu erkennen.
Semantisch segmentierte Bereiche in Bildern können genutzt werden, um Objekte aber auch Messwerte mit lokalem Bezug in AR-Anwendungen zu visualisieren. Dies wurde anhand einer RFID-Messkammer und einem Smartphone im Videomodus demonstriert.
In der zweiten Breakout-Session wurde anhand der HFT-eigenen RFID-Messkammer demonstriert, welche AR-Anwendungen im Projekt SensAR erarbeitet wurden. Über Filme wurden die Teilnehmer*innen mit in die Labore genommen und dabei erläutert, welche Dateneinblendungen über mobile Android-Geräte oder auch der HoloLens2 bisher umgesetzt wurden. Hierbei wurde auch die Indoor-Navigation mit in den Anwendungsfall einbezogen. Hierbei stand explizit immer auch die Frage des Mehrwerts für die Nutzer*innen im Vordergrund: Wieviel Inhalt sollte dargestellt werden, ist die Visualisierung intuitiv, wie gut ist die Interaktion mit den virtuellen und realen Objekten?
Die Teilnehmer*innen brachten sich mit ihren Ideen und Anregungen aktiv ein. Die bisherigen Anwendungsbeispiele konnten so um neue ergänzt werden, so dass die bisher angedachten noch stärker auf die tatsächlichen Bedarfe ausgerichtet werden können.
Wir sind gespannt auf den zweiten Workshop am 14. April, in dem dann die Themenbereiche Sensorik, Lokalisation und Datensicherheit vorgestellt werden.