KI für die Gefahrenbereichsüberwachung – aber wie zuverlässig?
Baumaschinen stellen aufgrund ihres eingeschränkten Sichtfelds und des großen Bewegungsradius schon immer eine Gefahr für in der Nähe befindliche Personen dar. Trotz indirekter Sichthilfsmittel wie Spiegel oder Kamera-Monitor-Systeme treten weiterhin schwere Unfälle mit Personenschaden im Umfeld von Baumaschinen auf.
Die Personenerkennung mit Hilfe von so genannter Künstlicher Intelligenz ist dafür eine wichtige Technologie, um die Umgebung von großen Baumaschinen sicherer zu machen. KI-basierte Objekterkennungsalgorithmen sind äußerst leistungsfähig und können Erkennen, ob sich im Kamerabild eine Person befindet. Doch wie zuverlässig können Personen auf der Baustelle erkannt werden? KI-basierte Objekterkennungsalgorithmen basieren auf künstlichen, neuronalen Netzen, welche so komplex sind, dass ihr Verhalten nicht nachvollziehbar ist. In einem einjährigen Projekt im Auftrag der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) sind wir der Frage nachgegangen, wie zuverlässig KI-basierte Objekterkennungsalgorithmen funktionieren und vor allem, wann Sie nicht mehr funktionieren.
KI-basierte Algorithmen für die Personenerkennung werden häufig auf öffentlichen Bilddatensätzen, wie bspw. MS COCO trainiert. Personen sind darin häufig vertreten, sodass eine Erkennung im Allgemeinen gut funktioniert. Jedoch sind kaum Bilder von Baustellen in diesen Datensätzen enthalten, wo Personen Warnkleidung und Helme tragen und baustellenspezifische Arbeiten verrichten. Deshalb haben wir mehr als 10.000 Fotos von Baustellen gemacht, auf denen Personen in verschiedensten Situationen abgebildet sind. Mit Hilfe der gelabelten Bilddaten konnten wir nachweisen, in welchen Situationen, die etablierten Modelle wie bspw. YOLOv8 oder RT-DETR funktionieren. Der Datensatz ist veröffentlicht und kann für weitere Untersuchungen verwendet werden.- Er enthält sogar die Aufnahmen zum Nachweis des Prüfgrundsatz GS BAU – 71 der BG BAU.
KI-Systeme sind extrem mächtig, jedoch gibt es noch keine Methoden, um die korrekte Funktionsweise nachzuweisen und diese Systeme für sicherheitskritische Anwendungen einzusetzen. Weitere Forschung und auch Standardisierung auf dem Gebiet der Funktionalen Sicherheit von KI-Systemen ist hier notwendig. Eines ist jedoch schon abzusehen: Für den Nachweis der Funktionalität einer KI-basierten Objekterkennung werden die verwendeten Trainingsdaten elementar sein. Nur wer den Einsatzfall kennt, die Trainingsdaten dahingehend vorbereitet und dann nachweisen kann, dass die relevanten Situationen im Training berücksichtigt wurden, kann Transparent darstellen, dass das KI-System für die Anwendung geeignet ist. Deshalb haben wir einen ersten Schritt für diesen Anwendungsbezogenen Bilddatensatz gemacht.
Sie arbeiten an ähnlichen Themen oder möchten in diesen Bereich einsteigen? Wir freuen uns über Austausch.