Die virtuelle Welt erobert die Produktion

» Beitrag melden

AUTOMATICA in München von 19. bis 22. Juni 2018

Die virtuelle Welt erobert die Produktion
Grossansicht Bild
Mithilfe des Maschinellen Lernens wird der Griff-in-die- Kiste immer weiter verfeinert. Im Forschungsprojekt »DeepGrasping« entsteht aktuell eine virtuelle Lernumgebung für Roboter.
Archiv | 03.03.2018 | • Daten echtzeitnah in der »Smart Factory« erfassen • Augmented Reality zur Prozessplanung sinnvoll einsetzen • Künstliche Intelligenz für die Roboter-Programmierung nutzen • Konzepte für ergonomisches Arbeiten im Produktionsumfeld bieten

Am Messestand des Fraunhofer IPA in Halle A4, Stand 421, werden die vier Eckpfeiler von Industrie 4.0 – Produktion, Produkt, IT und Mensch – auf vielfältige Weise im Gesamtkontext einer digitalisierten Industriewelt erlebbar gemacht: Die Besucher können anhand mehrerer mit der Cloud intelligent zusammenspielender Exponate nachvollziehen, welche Lösungen das Stuttgarter Forschungsinstitut für verschiedene Abschnitte der industriellen Wertschöpfungskette anbietet.


Materialflusssimulationen so realistisch wie nie


Eine eigene Demonstrationsfläche ist der Roboternavigation vorbehalten. Dort zeigen Kai Pfeiffer und seine Kollegen mobile Roboter, die über die Cloud miteinander vernetzt sind. Sie kartieren ihre Umgebung kooperativ und planen ihre Routen mit Hilfe des virtuellen Abbildes der Produktion (Digitaler Schatten). »Spontan auftretende Hindernisse umfahren sie mit dem vorgegebenen Sicherheitsabstand, ohne dass es zu Staus oder gar Kollisionen kommt«, erklärt Pfeiffer.


Welche Vorteile die Cloud Navigation modernen Industrie-4.0-Architekturen darüber hinaus noch bietet, sieht nur, wer sich eine Augmented-Reality-Brille aufsetzt: Sofort wird klar, dass die eigentliche Demonstrationsfläche deutlich größer ist. Virtuelle Roboter fahren auch in angrenzenden Bereichen des Messestands herum und weichen Standbesuchern aus, die ihre Bahn kreuzen, ohne es auch nur zu ahnen. Der Sinn hinter dieser Demo: Mit den Daten, die die Cloud Navigation mittels mobiler Roboter und weiterer Sensoren in der Produktionshalle zusammenträgt, lassen sich in Echtzeit Materialflüsse simulieren, die der Realität viel näher kommen als das bisher möglich war. Zeit- und kostenintensive Praxistests mit Robotersystemen sind nicht mehr nötig.


Maschinelles Lernen: Übung macht den Meister


Die automatisierte Handhabungstechnik wird immer effizienter. Denn Felix Spenrath und sein Team entwickeln die bewährte Software bp3™ des Fraunhofer IPA, die dem erfolgreichen Griff-in-die-Kiste zu Grunde liegt, immer weiter. »Dank verbesserter Algorithmen und neuer Sensortechnik können Industrieroboter nun selbst flache, unsortiert gelagerte Blechteile erkennen und greifen«, sagt Spenrath. Die Informationen, die moderne 3DSensoren liefern, werden also optimal genutzt. Die neue, intuitive Benutzeroberfläche erleichtert und beschleunigt die Programmierung so sehr, dass sich die Investitionskosten für eine Handhabungszelle nun schon nach zwei Jahren amortisieren. Ein zweiarmiger Demonstrator auf dem Messestand veranschaulicht die jüngsten Fortschritte.


Mithilfe des Maschinellen Lernens werden die Objekterkennung und die Vereinzelung ungeordnet herumliegender Bauteile derzeit immer weiter verfeinert. Im Forschungsprojekt »DeepGrasping« entsteht aktuell eine virtuelle Lernumgebung. Darin üben Roboter bereits vor ihrer Inbetriebnahme unterschiedlichste Greifprozesse an den Werkstücken, mit denen sie später im operativen Betrieb arbeiten sollen. Neuronale Netze lernen aus diesen simulierten Griffen und verbessern so ihr Prozesswissen kontinuierlich – getreu dem Motto: »Übung macht den Meister«. Eine Präsentation informiert auf dem Messestand über das Projekt DeepGrasping und stellt erste Ergebnisse vor.


Software drag&bot vereinfacht Roboterprogrammierung


Roboter kommen in kleinen und mittelständischen Unternehmen bisher nur selten zum Einsatz. Der Grund: Die herstellerspezifischen Programmiersprachen sind so komplex, dass externe Fachleute beauftragt werden müssen, um einen Roboter an neue Aufgaben heranzuführen. »In Zeiten intuitiv bedienbarer Smartphones und Tablets ist eine derart zeit- und kostenintensive Roboter-Programmierung nicht mehr fortschrittlich«, findet Martin Naumann.


Der Forscher vom Fraunhofer IPA hat deshalb zusammen mit seinen Kollegen die Software drag&bot entwickelt, die den Programmieraufwand auf ein Minimum reduziert. Der Clou: drag&bot liefert fertige Programmbausteine, die sich über eine grafische Bedienoberfläche schnell und intuitiv zu komplexen Roboterapplikationen zusammenfügen lassen. Zusätzlich vereinfachen Bedien- und Eingabehilfen die Parametrisierung der Bausteine. Damit ist kein Expertenwissen mehr nötig, um Roboter verschiedener Hersteller umzuprogrammieren. Wie einfach sich drag&bot bedienen lässt, demonstriert Naumann mit einer Roboterzelle auf der Automatica 2018. Jeder interessierte Standbesucher kann dort mit ein paar Klicks selbst Handhabungs- oder Montageanwendungen programmieren.


Dank einer wiederverwendbaren Software-Infrastruktur erleichtert das Betriebssystem »Robot Operating System« (ROS) die Softwareerstellung sowohl für Roboter als auch für Robotersysteme, die komplexe Aufgaben ausführen. »Aber auch die standardisierten Schnittstellen stellen eine wesentliche Vereinfachung dar. Denn ROS stellt die gesamte Robotik auf eine gemeinsame Grundlage – so wie Linux bei Computern oder Android bei Smartphones«, erklärt Mirko Bordignon. Endanwender und Systemintegratoren müssen komplexe Funktionen nicht immer wieder neu entwickeln, denn diese stellt ihnen die Open-Source-Software ROS zur Verfügung – vor allem aus den Bereichen mobile Navigation, Greif- und Roboterbewegungsplanung, Simulation sowie Bild- und Sensorverarbeitung.


Und: ROS spart bares Geld. Eine wachsende Anzahl hoch entwickelter Softwarekomponenten ist frei verfügbar und erfüllt längst die Qualitätsanforderungen der Industrie. Andere gruppieren die Entwickler zu umfangreichen »Libraries« (Bibliotheken), in die ihre Erfahrungen aus vielen verschiedenen Forschungs- und Industrieprojekten einfließen. ROS-Industrial ist eine Inititative, die in Europa vom Fraunhofer IPA gemanagt wird und den Technologietransfer von ROS in die industrielle Umgebung fördert. Ein Demonstrator auf dem Messestand zeigt Hardware von großen Erstausrüstern, die perzeptionsgesteuerte Aufgaben ausführt – alle mit ROS programmiert.


Mobile Plattformen: Kompakt und wendig mit gelenkten Standardrädern


Flächenbewegliche mobile Roboter und fahrerlose Transportfahrzeuge können omnidirektional navigieren, Engstellen zuverlässig passieren und auf zeitraubende Rangierbewegungen verzichten. Allerdings sind derartige Roboter derzeit meist mit Mechanumoder Allseitenrädern ausgestattet und haben bei Schlupf, Odometrie und der Fähigkeit, losen Untergrund, Stufen und Schwellen zu überwinden, durchaus ihre Nachteile. Das Fraunhofer IPA setzt deshalb seit langem auf Antriebsmodule mit gelenkten Standardrädern und stellt die dritte und neueste Generation auf der diesjährigen Automatica vor.


»Weil fahrerlose Transportsysteme Lasten unterfahren und aufnehmen sollen, müssen sie möglichst flach sein«, betont Theo Jacobs, der das neueste Antriebsmodul konstruiert hat. Es kommt mit einem sehr geringen Bauraum oberhalb des Rades aus, ist aber dennoch mit einer vollwertigen Federung ausgestattet. Mit zwei parallelen Rädern pro Modul wird eine hohe Leistungsdichte erreicht: Bei Bedarf steht die vollständige Motorleistung für den Vortrieb zur Verfügung. Durch unterschiedliches Ansteuern der beiden Räder lässt sich eine Drehung des Moduls erreichen – ein zusätzlicher Lenkmotor entfällt. Auf der Messe präsentiert Jacobs die neueste Version der Antriebsmodule auf einem Teststand, mit dessen Hilfe Dauertests auf verschiedenen Untergründen und mit verschiedenen Bodenunebenheiten durchgeführt werden können.


Autonome Optimierung von komplexen Fertigungssystemen in der Stückgüterproduktion
Bei kapitalintensiven Fertigungssystemen sind Unternehmen darauf angewiesen, die Produktivität stets zu maximieren. Andernfalls drohen Kostendruck und Finanzierungslücken. Jedoch umfassen viele Fertigungssysteme eine Vielzahl an Stationen und arbeiten so schnell, dass Fehlerursachen mit bloßem Auge nicht mehr erkennbar sind. Hier bietet die Smarte Systemoptimierung von Felix Müller und seinem Team einen innovativen und bereits real einsatzfähigen Ansatz. Das Analysetool erkennt Fehler in verketteten Fertigungssystemen und zeigt deren Ursachen sowie die Fortpflanzung automatisiert und echtzeitnah auf.


Schlüsseltechnologie sind lernende Algorithmen, die speziell zur Analyse von schnelltaktenden Stückgüter-Produktionslinien entwickelt wurden. Zur Datenerhebung »von innen« kommt ein hochperformanter Konnektor zum Einsatz, der auf die Daten aus der Maschinensteuerung zugreift. Zusätzlich zeichnen intelligente Kameras »von außen« die relevanten Prozessmerkmale auf. So entsteht eine kontinuierliche Datenbasis, die zeitsynchron an das Analysetool übermittelt wird. Dieses kann nun mit den Algorithmen Rückschlüsse ziehen und die Informationen in gewünschter Form aufbereiten. Das Werkzeug arbeitet auch heraus, wie die Fehler zusammenhängen und kann sie priorisieren. Es eignet sich zudem für ein automatisiertes Maschinenbenchmarking. So lassen sich damit alle Maschinen eines Fuhrparks auf das höchstmögliche Niveau bringen. Reale Einsatzfälle in der Pharma-, Konsumgüter- und Automotive Produktion haben bereits Produktivitätssteigerungen von bis zu 15 Prozent erzielt.

 

Grossansicht Bild
An Ellenbogen und Schultern haben die Experten Antriebsmodule integriert, die Bewegungen mit hohem Drehmoment unterstützen. [Fraunhofer IPA/Rainer Bez]
Das »E-Bike zum Anziehen« schont die Gesundheit


Die IPA-Forscher tragen dazu bei, die Mitarbeiter in der Produktion körperlich zu entlasten. Deutlich wird das mit dem Stuttgart-Exo-Jacket, einem Oberkörperexoskelett, das den Träger mit zusätzlicher Kraft versorgt, ohne ihn einzuschränken. An Ellenbogen und Schultern haben die Experten Antriebsmodule integriert, die Bewegungen mit hohem Drehmoment unterstützen. Dabei sorgt eine Impedanzregelung mittels Drucksensoren in den Armschalen für eine geschmeidige Mitbewegung des Exoskeletts. An der Schulterpartie ist eine Gelenkkette mit fünf Rotationsachsen angebracht. Die Kette folgt der Schultergelenkgruppe in jede Position. Das Antriebselement sitzt also immer dort, wo die Schulter gerade ist. Auf diese Weise werden komplexe Bewegungen in drei Richtungen ermöglicht: nach oben, hinten und innen. Selbst Überkopfmontagen können bewältigt werden.


Da die Module nur aktiv werden, wenn sie tatsächlich gebraucht werden, lässt sich zusätzlich Energie sparen. Mittelfristig wollen die Wissenschaftler einen Modulkasten für unterschiedliche Einsatzgebiete entwickeln. Dafür wird ein bewegungsdatengestützter Entwicklungs- und Simulationsworkflow aufgebaut. Mittels eines detaillierten Muskelskelettmodells können die Entlastungen berechnet werden. Je nach Tätigkeit können sich Unternehmen dann individuelle Lösungen zusammenstellen.


»Virtual Fort Knox« nicht mehr allein, aber einzigartig


Bereits seit 2012 arbeitet das Fraunhofer IPA zusammen mit Unternehmen aus dem Mittelstand an Virtual Fort Knox (VFK), einer offenen Plattform für IT-Services für produzierende Unternehmen. Seit Mitte 2017 wird die VFK-Research-Plattform als verteile hybride Plattform bei sechs weiteren Instituten im Fraunhofer Verbund Produktion ausgerollt. Sie dient als kollaborative Forschungsplattform für die Entwicklung innovativer Dienste für die Produktion und bildet so die Grundlage für ein offenes, echtzeitfähiges Betriebssystem für die Fertigung. Das erklärte Ziel formuliert Joachim Seidelmann, Leiter DigiTools am Fraunhofer IPA, wie folgt: »Wir wollen Industrie 4.0-Konzepte umsetzen, mit denen die Anwender ihre Effizienz in der Produktion steigern können«.


Auf der Automatica wird VFK mit dem Festo CP Lab verbunden sein – einer miniaturisierten Umlaufbandanlage, die über mehrere Möglichkeiten der Steuerung verfügt. Gruppenleiter Daniel Stock dazu: »Wir zeigen, wie Anlagen einfach und flexibel vernetzt werden können und betrachten – beispielsweise zukünftig durch die aufkommende 5G-Technologie befähigt – nicht mehr nur primär die echtzeitnahe Datenfusion, sondern auch die Steuerung aus der Cloud, um Anwendern in Zukunft ganz neue Möglichkeiten zu bieten«.


Fragen und Kommentare (0)