Künstliche Intelligenz in Kamerasystemen
für explosinonsgefährdete Bereiche

 

 

KI_2.jpg

Ein Anlagenführer erkennt via Kameraüberwachung einen Brand im Ex-Bereich. Er identifiziert zwei verletzte Personen, leitet deren Evakuierung ein und hindert andere am Betreten der Gefahrenstelle. Gute Reaktion meinen Sie? Richtig. Nur, dass der Anlagenführer kein Mensch ist, sondern ein Deep-Learning-Algorithmus!

Unsere Vorstellung von Künstlicher Intelligenz ist geprägt durch Science-Fiction Klassiker wie Stanley Kubricks „2001: Odyssee im Weltraum“ oder James Camerons „Terminator“. In beiden Filmen wird die vom Menschen geschaffene Künstliche Intelligenz ihren Erbauern zum Verhängnis. Der HAL-9000-Computer in Kubricks Meisterwerk vertraut seinen Fähigkeiten mehr als denen seiner Erschaffer. Er beginnt diese zu sabotieren und wird schließlich zu deren Mörder. „Skynet“ aus „Terminator“ führt Krieg gegen seine menschlichen Erbauer. Aber was ist dran, an diesen apokalyptischen Visionen von „selbstbestimmten Maschinen“? Wie weit sind wir in der Entwicklung der Künstlichen Intelligenz? Und was hat das alles mit Kamerasystemen, modernen Industrieanlagen und explosionsgefährdeten Bereichen zu tun?

Künstliche Intelligenz

Um Künstliche Intelligenz einzuführen ist es sinnvoll sich zuerst mit natürlicher Intelligenz zu beschäftigen. Man kann diese definieren als die „Fähigkeit abstrakt zu denken und daraus Handeln abzuleiten“. Nach dieser Definition sind Menschen intelligent: Sie denken und handeln. Bei einem herkömmlichen Computerprogramm ist das nicht so. Weder denkt es, noch lernt es und es baut auch keine Erfahrungen aus seinem Handeln auf. Egal wie komplex klassische Algorithmen sind: Sie setzen nur um, was deren Programmierer ihnen vorgegeben hat. 

Lasst uns „GO“ spielen...

...dachten sich die Entwickler des Google-Unternehmens DeepMind und entwickelten AlphaGo. „GO“ ist ein Spiel, welches noch komplexer ist als Schach und AlphaGo wurde so programmiert, dass er „GO“ lernen konnte. Mit jedem Spiel verbesserte sich der Algorithmus und besiegte 2017 die „GO“-Weltelite in China. Der Algorithmus verfügt nicht nur über ein neuronales Netz, er hat zudem einen Kurzzeitspeicher. Dies entspricht weitestgehend einem „Gedächtnis“. Wenn jenes Ereignis in China im Jahr 2017 auch nicht die Geburtsstunde der Künstlichen Intelligenz war, so war es doch ein wesentlicher  Durchbruch. Was bedeutet dies in Bezug auf Kameras?

„Fern“ - Sehen

Der Wunsch ist wahrscheinlich nicht wesentlich neuer als die Menschheit selbst: Etwas sehen zu können, was jenseits des eigenen Blickfeldes liegt um dann adäquat darauf reagieren zu können. Umgesetzt wurde dieser Wunsch erstmalig 1942. Siemens hatte damals im Auftrag der Deutschen Armee die erste Überwachungskamera entwickelt, um die Raketenprüfstände in Peenemünde, an denen die V2-Rakete entwickelt wurde, lückenlos zu überwachen. Mit Hilfe von Kameras konnte man „Fern“-Sehen - Analysieren - (und) Handeln.

Elektronische Netzwerke

1996 brachte die schwedische Firma AXIS die erste Netzwerkkamera auf den Markt. Digitale Kameras bieten gegenüber analogen Systemen den wesentlichen Vorteil, dass Bildinformationen elektronisch vorliegen und folglich auch elektronisch analysiert werden können. Kameras werden schon lange nicht mehr nur zur rein bildgebenden Überwachung verwendet. Dank immer besser werdender Prozessoren kann die dezentrale Aufgabe der Bildauswertung direkt auf der Kamera – sogenannte on Edge Lösungen - durchgeführt werden. Vorteil: geringere Bandbreitennutzung, da die eigentliche Analyse aus den Rohdaten auf der Kamera durchgeführt wird und nur noch Metadaten weitergegeben werden müssen. Somit kann nahezu in Echtzeit auf Ereignisse reagiert werden. Mit zunehmender Rechnerleistung sind Analysefunktionen immer leistungsfähiger geworden. Algorithmen können z.B. Nummernschilder lesen oder Bewegungen erkennen. Vielleicht kann man sagen, dass in der Ablaufkette - „„Fern“-Sehen - Analysieren - Handeln“, elektronische Systeme immer geschickter das Analysieren übernehmen.

Machine Vision...

...ist durch die Fortschritte von klassischen Analysealgorithmen zu einer ganzen Branche herangewachsen. Spezielle Kameras mit interner oder externer CPU unterscheiden „gute Schrauben“ von „schlechten Schrauben“ in einer Frequenz, zu welcher weder das menschliche Auge, noch das menschliche Gehirn in der Lage wäre. Gesichter werden erkannt und verglichen und biometrische Daten gewinnen an Wichtigkeit. Wie leistungsfähig und komplex auch immer klassische Analysealgorithmen werden: Sie verarbeiten immer nur das, was die Programmierer ihnen vorgeben.

Deep Learning...

...ist ein entscheidender Schritt in Richtung Automatisierung intelligenten Verhaltens von Kamerasystemen und maschinellem Lernen. Das Ziel ist klar: Nicht der Anlagenführer soll sehen, dass es in der Anlage brennt, sondern das Kamerasystem selbst soll dies erkennen. Nicht der Operator soll sehen, dass Mitarbeiter in Gefahr sind. Das Kamerasystem selbst soll das erkennen.

Und das Kamerasystem soll Erfahrungen machen und aus diesen lernen. Technologisch wurden in den letzten Jahren schon entscheidende Fortschritte erzielt und dennoch stehen wir noch ziemlich am Anfang. Intelligente Kameras, wie unsere ExCam IPQ1615, sind mit doppelter CPU ausgestattet. Während die Haupt-CPU sich mit dem Videostreaming beschäftigt, ist die Deep Learning Processing Unit (DLPU) ausschließlich dafür vorgesehen intelligente Analysealgorithmen auszuführen. Unsere Ablaufkette ist zu „Sehen - Analysieren - Handeln - Lernen - Sehen - Analysieren - etc...“ geworden. Sie endet nicht mehr bei der Handlung, sondern ist mit dem „Lernen und Erfahrungen machen“ nahe an den Vorgängen, welche in unseren Gehirnen ablaufen. Einen ersten Blick in die Zukunft liefert die Anwendung der britischen Firma KCA DEUTAG.

Intelligente Sicherheit auf Bohranlagen

Bewegen sich die Arbeiter im gefährlichen Bereich? Wenn ja, was genau gefährdet die Arbeiter? Wie kann der Gefahr entgegengewirkt werden? Herkömmliche Analysealgorithmen kommen hier an ihre Grenzen.

„Die aktuellen Algorithmen, welche wir einsetzen, sind in der Lage sich bewegende Personen von sich bewegenden Gegenständen zu unterscheiden“, so Herr Schevel, Projektingenieur bei der KCA DEUTAG. Darüber hinaus kann die ExCam IPQ1615, dank neuer Technologie für Objekt Analyse, sogar zwischen PKW, LKW und Motorrad unterscheiden. Die enorme Verbesserung der Überwachungsfunktionen und die Genauigkeit der gesammelten Daten sorgen für weniger Unfälle auf der Anlage. „Natürlich wollen wir zukünftig noch deutlich mehr von unseren Kamerasystemen erfahren, z.B. ob eine Person steht oder liegt und ob die Person über eine geeignete Schutzausrüstung verfügt. Wir haben uns bewusst für die ExCam IPQ1615 von SAMCON entschieden, weil sie über eine eigene DLPU verfügt, welche auch zukünftigen Algorithmen eine adäquate Hardwareumgebung zur Verfügung stellt.“

AI in the field
Beispiel einer algorithmischen Gefahrenerkennung mit KI Ansatz

Aus Fehlern lernen

Denken wir uns in die Szene hinein, welche im obigen Bild dargestellt wird. Was denkt das „analoge Gehirn“ eines menschlichen Controllers?

Fünf Personen sichern eine unbekannte Ladung mit einem Seil. Zwei Personen sind aktiv, drei passiv. Alle fünf verfügen über Helme und Schwimmwesten und die Person am Seil steht „unter Last“. Eine Person legt die Hand auf die Schwimmweste der ersten Person, eine weitere, weibliche Person sichert das Seil in zweiter Reihe. Sie steht nahe an der Wasserkante, die durch ein Geländer gesichert ist.

Im zweiten Schritt interpretiert der erfahrene Operator die Szene: Die Person, welche unter Last steht, könnte aus dem Gleichgewicht geraten, sodass die Person an der Wasserkante im Falle eines Rückschlages nach hinten über das Geländer kippen könnte.

Neuronal passiert hier folgendes: Der Operator gleicht die Situation mit seiner Erfahrung ab. Ohne das „Wissen“, dass es zu einem Rückschlag kommen kann und ohne das „Wissen“, dass es lebensbedrohlich ist von der Bohrplattform in den offenen Ozean zu fallen, kann er die Szene nicht richtig bewerten. Und ohne die Szene richtig analysieren zu können kann er auch keine richtige Handlung einleiten.

Was kann Künstliche Intelligenz?

Die oben beschriebene Szene mit herkömmlichen Algorithmen zu interpretieren ist - Stand heute - schwierig bis unmöglich. Die meisten Analysealgorithmen interpretieren Bild, Bildveränderung (Bewegung) und/ oder Kontraste. Sie erkennen weder, wie sich eine Szene aufbaut, also deren Historie, noch verfügen sie über  Erfahrung, um einschätzen zu können, was passieren „könnte“.

KI-Algorithmen, welche solche Aufgaben zukünftig übernehmen werden, werden zunächst mit einem „Grundwissen gefüttert“, z.B.:
Arbeiter ohne Helm = Gefahr
Sichernde Person am Seil = Gefahr.
Dann lernen KI-Algorithmen selbstständig, auch mit Hilfe von erfahrenen Operatoren. Diese werden, wie Eltern an ihre Kinder, Erfahrungen an die KI-Algorithmen weitergeben. Wenn ein erfahrener Operator ähnliche Situationen viermal als gefährliche Situation bewertet, so sensibilisiert er den KI-Algorithmus dafür, die Situation bei der 5. Wiederholung selbst als gefährlich einzustufen. Zwei Punkte sind hierbei wesentlich:

Ein KI-Algorithmus erkennt nicht nur die Szene als Bild - also als Momentaufnahme. Dank seines Kurzzeitgedächtnisses kann er eine Szene auch in ihrem historischen Zusammenhang interpretieren.  Wenn ein Arbeiter, z.B. vor 2 Sekunden noch seinen Helm getragen und ihn nicht abgelegt hat, so ist es wahrscheinlich, dass er ihn noch trägt, selbst wenn er von einer anderen Person verdeckt wird. Ein Algorithmus ohne „Kurzzeitgedächtnis“ ist hierzu nicht in der Lage.

Der Algorithmus wird mit jeder Analyse besser. Wenn zweimal Personen in der Nähe der Wasserkante ins Wasser gefallen sind, so steigt seine „Sensibilität“ für Personen, die in der Nähe der Wasserkante stehen.

Aktives Handeln vs. Aktionen unterbinden

Aktives Handeln von KI-Algorithmen ist nach wie vor schwer vorstellbar. Was ist, wenn der KI-Algorithmus falsch entscheidet? Wer übernimmt hierfür die Verantwortung? Genau diese Frage stellt man sich auch bei den Bemühungen um autonomes Fahren. Müssen oder können wir den KI-Algorithmen moralische und ethische Grundsätze vermitteln? Wie soll ein Autopilot entscheiden, wenn er nur verhindern kann eine Gruppe von Schülern zu überfahren, indem er in den Gegenverkehr fährt und somit das Leben der Fahrzeuginsassen gefährdet? Bei KI-Algorithmen wird es, wie auch beim autonomen Fahren, Zwischenschritte geben, bis Systeme autonom agieren. Die beiden wichtigsten Schritte sind WARNEN und VERRIEGELN und finden sich schon heute häufig als Fahrassistenzsysteme in modernen Kraftfahrzeugen.

Warnen

Warnen kann ein Algorithmus den Anlagenfahrer. Das funktioniert in etwa wie ein lernwilliges Kind, was seinem Vater  sagt: „Sieh mal: Der Junge läuft auf den zugefrorenen See. Ist das nicht gefährlich?“ Hier handelt das Kind noch nicht selbstständig. Es nutzt die Rückmeldung seines Vaters um daraus Erfahrung zu machen. Wenn Papa die Feuerwehr ruft und der Junge nach dem Einbrechen ins Eis gerettet werden kann, so lernt der Junge: Das war gefährlich! Er lernt es ohne selbst gehandelt zu haben.

Verriegeln

Mit Verriegeln ist das Unterbinden von Aktionen, welche zur (weiteren) Gefahr führen könnten, gemeint. In modernen Fahrzeugen wird das Gaspedal verriegelt, wenn man bremst. In Bezug auf unsere Szene in Bild 2 könnte das System z.B. Schiffsverkehr unter der Plattform verhindern. Als konkretes Beispiel für eine potentielle Schadensabwendung kann der tragische Unfall bei der BASF im Herbst 2016 verwendet werden. Hier kam es, wahrscheinlich aufgrund eines Einschnittes mit einem Winkelschleifer in eine aktive Produktleitung, zu einem ersten Brand mit einer Serie von Explosionen. Ein mit Ethylhexanol beladenes Tankschiff lag zum Zeitpunkt der Explosionen am Pier um seine Ladung zu löschen. Zum Glück konnte die Feuerwehr ein Übergreifen der Brände auf das Schiff verhindern! Zukünftige KI-Algorithmen werden es als Gefahr erkennen können, wenn mit einem Schwingschleifer an einer aktiven Produktionsleitung gearbeitet wird. Sie werden in der Lage sein schneller präventiv zu agieren als ein geschulter Anlagenfahrer und sie werden Schiffe aus dem Gefahrenbereich lotsen sowie Handlungsempfehlungen aussprechen wie weitere Gefahren abgewendet werden können.

BASF Unglück 2016
BASF Unglück 2016

Fazit

KI wird in zunehmendem Maße die Sicherheit für Menschen in explosionsgefährdeten Anlagen erhöhen. Technologisch stehen wir hier am Anfang einer Entwicklung deren letzte Konsequenz noch schwer abzusehen ist. Über Erfahrungsrückkopplungen werden Algorithmen lernfähig, können Erlerntes auf komplexe Situationen anwenden. Ob ihr Handeln in ferner Zukunft besser ist als das menschliche ist eine ethische Frage. Zwar werden KI-Algorithmen sich nicht durch eine Kaffeepause ablenken lassen und somit weniger Fehler machen - aber werden sie einen Handlungsinstinkt entwickeln?
In den vergangenen Jahren wurden bedeutende Fortschritte erzielt. Die Entwicklung wird rasant weiter gehen. Machen Sie es wie KCA DEUTAG und rüsten Sie sich für das, was in Zukunft kommen mag.