Produktionsstationen werden lebendig
Im ersten Teil der zweiteiligen Beitragsserie habe ich die Vision einer intelligenten Produktion im Jahr 2071 erläutert und beschrieben, wie diese mithilfe von Multi-Agenten-Systemen erreicht werden könnte. Nun wird es darum gehen, wie wir die zugrundeliegenden Konzepte prototypisch umgesetzt haben.
Unser Szenario
Ziel unseres Projektes war es, über einen Prototypen zu demonstrieren, wie eine intelligente Produktion als Multi-Agenten-System umgesetzt werden könnte. Zur vollständigen Repräsentation des Produktionsprozesses in unserem Szenario mit mehreren Agenten nutzen wir eine Simulation.
Im Rahmen des Projekts ging es uns aber gerade auch darum, zu prüfen, wie ein Multi-Agenten-Produktionssystem mit echter Hardware realisiert werden kann. Wir wollten erforschen, welche Herausforderungen sich bei einer Hardware-Umsetzung ergeben und wie diese gelöst werden können.
Daher stellt die verwendete Simulation ein virtuelles Pendant unserer genutzten Hardware dar. Sie ermöglichte es uns, Entwicklung und Tests zu beschleunigen – gleichzeitig legten wir sie so aus, dass sie ohne größere Anpassungen der Software mit der eigentlichen Hardware ausgetauscht werden kann, sobald alle dafür nötigen Mechaniken und Mechanismen entwickelt sind. Im Verlauf des Artikels werde ich deshalb explizit auf die konkreten Hardwarekomponenten eingehen, auf die unsere Implementierung ausgelegt ist. Neben der simulierten Produktion haben wir zusätzlich einen realen autonomen Roboter mit der Zielhardware realisiert, welcher von der entwickelten Software angesteuert wird. Zum Ende des Artikels werde ich diesen näher beschreiben.