Klassifikation des Arbeitsfortschritts

Support-Vector-Machine-Ansatz für intelligente Arbeitsplätze

Autor/innen

  • Sascha Niedersteiner OTH Regensburg
  • Jonas Lang OTH Regensburg
  • Clemens Pohlt OTH Regensburg
  • Thomas Schlegl OTH Regensburg

DOI:

https://doi.org/10.17560/atp.v59i11.1911

Schlagworte:

Maschinelles Lernen, assistierender Arbeitsplatz, Mensch-Maschine-Interaktion, Tiefenkamera, robuste Erkennung des Arbeitsfortschritts

Abstract

Steigende Anforderungen an die Qualität von zum Teil manuell gefertigten Produkten führen dazu, dass Handarbeitsplätze mit Assistenzsystemen für die Unterstützung der am Arbeitsplatz arbeitenden Mitarbeiterinnen und Mitarbeiter ausgestattet werden. Der Beitrag beschreibt einen neuen Ansatz, um mittels Verfahren des maschinellen Lernens die Objekterkennung sowie die Transitionen eines, den Arbeitsprozess repräsentierenden Zustandsautomaten eines solchen Systems einzulernen. Hierfür werden nach einer Vorverarbeitung Daten aus einer Tiefenkamera in drei Stufen durch Support Vector Machines (SVM) klassifiziert und das Ergebnis mit dem Zustandsautomaten verknüpft. Das Konzept wird an einem industriellen Montageprozess überschaubarer Komplexität evaluiert; es zeigt gute Ergebnisse hinsichtlich der Robustheit gegenüber Fehlern bei der Objektklassifikation.

Literaturhinweise

David, H. (2015). Why are there still so many jobs? The history and future of workplace automation. The Journal of Economic Perspectives, 29(3), 3-30.

Frohm, J., Lindström, V., Winroth, M., & Stahre, J. (2006). The industry's view on automation in manufacturing. IFAC Proceedings Volumes, 39(4), 453-458

Belfiore, M. (2016). Automation Opportunities Abound for Quality Inspections. Abgerufen von http://www.automationworld.com/quality-software/automation-opportunities-abound-quality-inspections.

Niedersteiner, S., Pohlt, C., & Schlegl, T. (2015, November). Smart workbench: a multimodal and bidirectional assistance system for industrial application. In Industrial Electronics Society, IECON 2015-41st Annual Conference of the IEEE (pp. 002938-002943). IEEE.

Sugi, M., Matsumura, I., Tamura, Y., Ota, J., & Arai, T. (2008, May). Quantitative evaluation of physical assembly support in human supporting production system “attentive workbench”. In Robotics and Automation, 2008. ICRA 2008. IEEE International Conference on (pp. 3624-3629). IEEE.

Sugi, M., Nikaido, M., Tamura, Y., Ota, J., Arai, T., Kotani, K., ... & Sato, Y. (2005, April). Motion control of self-moving trays for human supporting production cell “attentive workbench”. In Robotics and Automation, 2005. ICRA 2005. Proceedings of the 2005 IEEE International Conference on (pp. 4080-4085). IEEE.

Sugi, M., Tamura, Y., Ota, J., Arai, T., Takamasu, K., & Suzuki, H. (2006, October). Implementation of Human Supporting Production System" AttentiveWorkbench". In Sice-icase, 2006. international joint conference (pp. 1270-1273). IEEE.

Molineros, J., & Sharma, R. (2001). Computer vision for guiding manual assembly. In Assembly and Task Planning, 2001, Proceedings of the IEEE International Symposium on (pp. 362-368). IEEE.

Bansal, S., Khandelwal, S., Gupta, S., & Goyal, D. (2013, September). Kitchen activity recognition based on scene context. In Image Processing (ICIP), 2013 20th IEEE International Conference on (pp. 3461-3465). IEEE.

Jauch, V. (2012). Positionserkennung von Werkzeugen in der Montage. In: ATZproduktion, 2012(02). Wiesbaden: Springer Fachmedien GmbH

OPS Solutions LLC. (2016). Light Guide Systems – Leading the Revolution in Manufacturing Light Guide System. Abgerufen von: http://www.ops-solutions.com/.

Bedrunka+Hirth GmbH (2017). Arbeitsplatz 4.0. – montieren/kommissionieren/kontrollieren. Abgerufen von http://www.bedrunka-hirth.de/produkte/arbeitsplatzsysteme/arbeitsplatz-40/

Lowe, D. G. (1999). Object recognition from local scale-invariant features. In Computer vision, 1999. The proceedings of the seventh IEEE international conference on (Vol. 2, pp. 1150-1157). IEEE.

Bay, H., Ess, A., Tuytelaars T., van Gool, L. (2008). Speeded-Up Robust Features (SURF). In: Computer Vision and Multimedia, 110. Jg., Nr. 3, S. 346–359.

Rublee, E., Rabaud, V., Konolige, K., & Bradski, G. (2011, November). ORB: An efficient alternative to SIFT or SURF. In Computer Vision (ICCV), 2011 IEEE international conference on (pp. 2564-2571). IEEE.

Leutenegger, S., Chli, M., & Siegwart, R. Y. (2011, November). BRISK: Binary robust invariant scalable keypoints. In Computer Vision (ICCV), 2011 IEEE International Conference on (pp. 2548-2555). IEEE.

Schölkopf, B., Williamson, R. C., Smola, A. J., Shawe-Taylor, J., & Platt, J. C. (2000). Support vector method for novelty detection. In Advances in neural information processing systems (pp. 582-588).

Cortes, C., Vapnik V. (1995). Support-Vector Networks. In: Machine Learning, vol. 20(3), S. 273–297. Doi: https://doi.org/10.1023/A:1022627411411

Pedregosa, F., Varoquaux, G., Gramfort, A., Michel, V., Thirion, B., Grisel, O., ... & Vanderplas, J. (2011). Scikit-learn: Machine learning in Python. Journal of Machine Learning Research, 12(Oct), 2825-2830.

Downloads

Veröffentlicht

17.11.2017