Diese Website verwendet Funktionen, die Ihr Browser nicht unterstützt. Bitte aktualisieren Sie Ihren Browser auf eine aktuelle Version.
Prävention Aktuell

Redaktion, Text und Videos: Holger Schmidt
Fotos: Iris Wagner-Hoppe / photoresque

Medien
  • Universum Verlag
Built withPAGEFLOW

Mensch-Roboter-Kollaboration

Raus aus dem Käfig!

von Holger Schmidt

Roboter als Arbeitskollegen gehören längst schon zum Alltag. Zum einen die klassischen Industrieroboter, die hinter Zäunen oder Schutzwänden ihren Tätigkeiten nachgehen, um keine Menschen zu gefährden. Zum anderen Roboter, die für die direkte Zusammenarbeit mit Menschen gebaut sind.

In kleinen und mittleren Unternehmen (KMU) setzen sich inzwischen mehr und mehr diese Modelle durch, die dann tatsächlich echte Arbeitskollegen sein können. Es sind sogenannte Cobots, kollaborierende Roboter.

Die Maschinen müssen gewisse Anforderungen erfüllen, in erster Linie an die Sicherheit. Aber sie müssen auch einfach bedienbar und flexibel einsetzbar sein. Daran arbeitet der Augsburger Roboterhersteller Kuka, der PRÄVENTION AKTUELL Einblicke in die Forschung und Entwicklung gewährt hat.

Blick in die Zukunft

Im TechCenter von Kuka lässt sich ein Blick in die Zukunft erhaschen – Jürgen Blume trägt sie auf der Nase. Es ist eine Augmented-Reality-Brille. Der für neue Technologien zuständige Entwicklungsingenieur nimmt damit die reale Welt um ihn herum wahr und kann virtuelle Elemente hinzufügen. „Wie in Minority Report“, verweist er auf den modernen Science-Fiction-Klassiker mit Tom Cruise und grinst. Vor ihm erscheinen virtuelle Buttons, die er drücken kann. Für alle anderen sieht es so aus, als würde er nur mit den Fingern in der Luft malen.

Für alle anderen ist auch der weiße Tisch in der Mitte des Raumes leer. Für Blume befindet sich darauf ein kleinerer Roboter, den er virtuell in seine Realität eingefügt hat. „Ich kann über ein Menü Tools hinzufügen“, sagt er, tippt in der Luft und wählt als Werkzeug einen Sauggreifer. Schon steckt – für ihn sichtbar – am virtuellen Flansch des Roboters besagter Greifer.

Im visuellen Raum ist der Mensch geübt

Jürgen Blume

Natürlich kann die Technologie noch viel mehr. Virtuelle Räume erschaffen, die der späteren Arbeitsumgebung des Roboters 1:1 entsprechen. Und den Roboter die Arbeiten und Bewegungen ausführen lassen, die er später in Realität auch ausführen soll. Wenn die Entwicklung abgeschlossen ist, dürfte das eine große Hilfe sein. Denn die Theorie und die Zahlen aus dem Roboter-Koordinatensystem werden anschaulich, aus numerischen Daten werden visuelle: „Und im visuellen Raum ist der Mensch geübt“, sagt Blume.

Auf diese Weise lässt sich das Programm des Roboters einfach mit der Realität abgleichen und gegebenenfalls anpassen, ohne dass man ein Robotik-Experte sein muss. Stößt der Roboter irgendwo virtuell gegen? Dann sollte man besser die Bewegungsbahn oder die Arbeitsumgebung anpassen. Die Augmented Reality kommt auch der Arbeitssicherheit zugute, weil sich die aus der Risikobeurteilung vorgegebenen Arbeits- und Schutzräume, in denen Mensch und Maschine kollaborieren sollen, einfacher virtuell überprüfen lassen.

Im Hier und Jetzt

Wer sich für das Hier und Jetzt interessiert, ist im TechCenter ebenfalls an der richtigen Adresse. Gäste und potenzielle Kunden können die Bedienung selbst ausprobieren. Unter anderem am kleinsten Cobot, dem LBR iisy 3kg. Drückt man einen Knopf, leuchtet eine LED-Anzeige am Roboter blau. Dann kann man den Arm bewegen und dem Roboter seine Aufgabe beibringen. Das funktioniert so: Wir führen den Roboter mit der Hand zu einer Stelle, wo ein Bauteil liegt, im Beispiel ist dies ein Würfel. Das soll er aufnehmen und an einem anderen Punkt ablegen.

Eine klassische Pick-and-Place-Tätigkeit, wie sie etwa in der Logistik regelmäßig vorkommt. Gegenstände von Förderbändern nehmen und sie in Kartons legen. Oder auch, um Maschinen zu be- und entladen, wenn beispielsweise Werkstücke bearbeitet werden sollen. Über ein Bedienpad lässt sich der Ablauf unseres Handguidings einfach programmieren. Anschließend kann das Programm – die sogenannte Applikation – auf Knopfdruck gestartet werden. Und tatsächlich: Der Roboter fährt mit geöffnetem Greifer zu Position A, packt den Würfel, fährt zu Position B, öffnet den Greifer, und legt den Würfel ab.

0:00/0:00

Handguiding erfolgreich: Der Cobot fährt auf Knopfdruck sein Programm ab.

Gleichwohl ist Sicherheit auch bei den kleinen und leichten Cobots – oder gerade bei Cobots, weil sie ja mit Menschen zusammenarbeiten – das oberste Gebot. Beim Handguiding zum Beispiel darf der Roboter gewisse Geschwindigkeiten nicht überschreiten, um den Menschen nicht zu verletzen. Im Betrieb überwacht die Sicherheitssteuerung beispielsweise die Geschwindigkeit. Bewegt der Bediener die Maschine zu schnell, regelt der Cobot gegen oder es kann ein Stopp ausgeführt werden.

Drei Arten der Zusammenarbeit

Koexistenz

Mensch und Roboter arbeiten nebeneinander. Die Arbeitsräume überlappen sich nicht, Berührungen des Roboters sind nicht vorgesehen. Vollautomatische Arbeit ohne Schutzzaun.

Kooperation

Mensch und Roboter teilen sich einen Arbeitsraum, sie arbeiten aber nicht bei jedem Arbeitsschritt Hand in Hand. Es gibt definierte Eingriffszonen, in der der Roboter langsam fährt. In dieser Eingriffszone kann der Mensch Aufgaben ausführen, auch wenn der Roboter in dieser Zone tätig ist. Teilautomatisierung, der Mensch legt beispielsweise Material nach, das der Roboter bearbeitet.

Kollaboration

Mensch und Roboter teilen sich einen Arbeitsraum und führen gemeinsam eine Aufgabe aus. Zum Beispiel kann der Mensch den Roboter führen.

Die Gefährdungen

Im Umgang mit Robotern sind Quetschungen und Kollisionen die größten Gefährdungen. „Wenn ein Roboter einen Widerstand spürt, wo keiner sein sollte, bleibt er stehen“, erklärt Otmar Honsberg eine Sicherheitsfunktion. Er leitet beim Augsburger Automatisierungsspezialisten die Abteilung für Applikationsentwicklung (Global Application Engineering).

„Weichschalten“ nennt sich das im Fachjargon, wenn sich ein Roboter bei einer nicht vorgesehenen Berührung nachgiebig verhält oder aus dem Gefahrenbereich bewegt. „Ein klassischer Industrieroboter würde mehr Strom auf die Motoren geben und einfach weiterfahren – deswegen stehen die hinter einem Schutzzaun“, sagt Honsberg.

An einem Cobot veranschaulichen die Kuka-Ingenieure das Prinzip. Das Werkzeug ist ein drei Finger dicker, abgerundeter Metallstift. Der Roboterarm stößt diesen von oben auf eine kleine Platte. Ein Sensor misst eine Maximalkraft von 85 Newton. Wäre eine Hand zwischen Metallstift und Platte, könnte das zu Verletzungen führen. Erst recht, wenn der Roboter die Kraft erhöhen, weiterfahren und die Hand ein- oder gar zerquetschen würde.

Der Roboter spürt: Da stimmt etwas nicht

Otmar Honsberg

Abhilfe schafft eine die Sicherheitsfunktion Kollisionserkennung in Verbindung mit einem Schutzraum. „Der Roboter spürt: Da ist eine Kollision, da stimmt etwas nicht“, erklärt Otmar Honsberg. „Er fährt zurück und löst die Klemmung auf.“

0:00/0:00

Der Test zeigt: Spürt der Cobot einen unerwarteten Widerstand, stoppt er sofort.

Spannungsfeld zwischen Geschwindigkeit und Sicherheit

„Das System muss insgesamt sicher sein“, sagt Otmar Honsberg. Die einzelnen Komponenten, Software und Hardware, werden auf die Einhaltung von Grenzwerten hin überprüft und zertifiziert. Aber auch das Zusammenspiel der Komponenten wird getestet. Und dann kommt noch die Applikation hinzu, also die konkrete Anwendung des Roboters, die im Rahmen einer Gefährdungsbeurteilung überprüft werden muss. „Sortiere ich Tennisbälle oder Rasierklingen?“, gibt Honsberg ein plakatives Beispiel.

Ein Spannungsfeld besteht darin, dass Roboter auch dann möglichst schnell arbeiten sollen, wenn sie sich mit Menschen einen Arbeitsbereich teilen. „Unter Sicherheitsaspekten beißt sich das eigentlich“, sagt Honsberg. Klar: Wenn der Roboter mit hoher Geschwindigkeit mit einem Menschen zusammenstößt, ist die Verletzungsgefahr größer als bei niedrigen Geschwindigkeiten – auch bei Leichtbaurobotern wie dem „iisy“.

Sortiere ich Tennisbälle oder Rasierklingen?

Otmar Honsberg

Ein Szenario wird deshalb im TechCenter gerade getestet. Der Cobot, in dem Fall für Palettieraufgaben, ist mit Sensoren ausgestattet, die das Umfeld scannen. Betritt jemand das Schutzfeld, erhält der Roboter innerhalb von Millisekunden ein Signal und fährt automatisch langsamer. Selbst eine Kollision ist dann harmlos, außerdem schaltet sich der Cobot bei Berührung sofort weich. Ist das Umfeld wieder frei und damit sicher, fährt der Roboter wieder schnell und erledigt in der gewünschten Taktzeit seine Aufgabe.

Die beiden Videos verdeutlichen den Unterschied in der Geschwindigkeit. Im ersten Video kann der Cobot ungestört seine Aufgabe erledigen. Im zweiten Video betritt ein Mensch den Sensorbereich.

0:00/0:00

Ein Cobot stapelt in normaler Geschwindigkeit Kartons um.



0:00/0:00

Ein Cobot stapelt Kartons um - und wird sofort viel langsamer, sobald jemand das Sensorfeld betritt.

3D-Sensorik mit Sicherheitsfunktion

„Die Kollisionserkennung ist ein gutes Tool“, sagt Otmar Honsberg. Allerdings gebe es auch Prozesse, bei denen Kollisionen komplett verhindert werden müssen, weil der Roboter vielleicht mit scharfen Werkzeugen oder einer heißen Klebedüse ausgestattet ist. „Das muss über externe Sensorik geschafft werden“, sagt der Maschinenbauingenieur.

Um die Sicherheit zu gewährleisten, müssen mit aktuellem Stand der Technik mehrere Flächenscanner miteinander verschaltet werden. Häufig ist der Platzbedarf wegen der Sicherheitsabstände dann auch ungünstig. Honsberg rechnet aber diesbezüglich mit Entwicklungen, „die uns das Leben leichter machen“. Eine 3D-Sensorik mit Sicherheitsfunktion werde dann zwischen Mensch und Roboter unterscheiden können.

Auch die Bewegungsrichtung von Mensch und Roboter sowie die gefährdeten Körperteile werden mit berücksichtigt. Betritt ein Mensch einen bestimmten Bereich und bewegen sich diese aufeinander zu, erhält die Maschine automatisch den Befehl: Stopp! Entfernen sie sich voneinander, wären andere Handlungen möglich. „Dieses sichere Erkennen und Interagieren würde uns helfen“, sagt Honsberg.

Wohin geht die Reise?

Bohren, schrauben, kleben – das können die Roboter heute schon. Künstliche Intelligenz (KI) wird die Weiterentwicklung vorantreiben. Momentan müssen sich die Applikations-Programmierer viele Details und Eventualitäten vorher genau überlegen: Wie ist der standardisierte Ablauf des Arbeitsprozesses? Wie ist der Ablauf, wenn eine Störung im Prozess, ein Materialfehler oder eine Gefährdungssituation auftritt? „Vielleicht kann die KI diese Strategien automatisch generieren, sodass man sie nicht mehr im Programmcode verarbeiten muss“, sagt Honsberg. „Komplizierte Abläufe einfach umzusetzen, wird die treibende Kraft sein.“ Die Weiterentwicklung von KI-unterstützten Systemen werde dazu beitragen, die Interaktion zwischen der Roboter-Software und externen Sensoren, wie zum Beispiel Kameras, zu verbessern.

In Zukunft, so Honsbergs Vorstellung, könnten die Maschinen aber beispielsweise auch auf einem Fahrzeug installiert werden und in der Landwirtschaft im Vorbeifahren Äpfel von Bäumen pflücken oder Tomaten im Gewächshaus ernten. „Dann habe ich ein universales Tool, das verschiedenste Aufgaben erfüllt. Die Sensorik erkennt Objekte und wählt die dazu passende Greifstrategie aus“, beschreibt der Maschinenbauingenieur. „Ich brauche mich nicht mehr darum zu kümmern, wie es von A nach B kommt. Die Steuerung erkennt die Umgebung selbstständig und plant einen kollisionsfreien Weg.“ An solchen Funktionen tüfteln sie bei Kuka, um sie in nicht allzu ferner Zukunft zur Marktreife zu bringen. „Dann werden komplizierte Aufgabenstellungen einfach zu lösen sein.“

Sicher scheint: Der Trend wird dahin gehen, dass sich die Zusammenarbeit von Mensch und Roboter ausweitet und die Automatisierung Bereiche erschließt, die bislang wirtschaftlich noch unrentabel sind. Kuka erwartet, dass Cobots und klassische Industrieroboter technisch mehr und mehr verschmelzen. So entstehen Roboter, die intuitiv zu bedienen und einfach zu programmieren sind, um für verschiedene Aufgaben flexibel eingesetzt werden zu können.