Entwicklung „Unsere KI darf unter bestimmten Bedingungen selbstständig entscheiden“
Anbieter zum Thema
Seit zehn Jahren forscht Invenio Virtual Technologies an seiner KI-Software. Sie bewertet 3D-Daten – und darf inzwischen in einem vorgegebenen Rahmen selbst entscheiden. Geschäftsführer Hermann Gaigl erklärt die Hintergründe.

Herr Gaigl, wann und warum haben Sie angefangen an einer eigenen Lösung zur intelligenten Auswertung von 3D-Daten zu arbeiten?
Wir wussten schon vor über zehn Jahren, dass die riesigen Datenmengen nicht mehr manuell überprüft werden können. Die Volumina stiegen immer weiter an, der Einsatz von Fachpersonal auch. Die Kunden waren nicht bereit, mehr Geld zu investieren, sondern wollten immer günstiger einkaufen. Für uns gab es nur zwei Möglichkeiten: Entweder die Arbeitsplätze in sogenannte Low-Cost-Countries zu verlagern oder die Experten in Deutschland zu halten und mit KI zu unterstützen. Ersteres kam für mich nicht in Frage.
Woher stammt Ihre Expertise?
Wir sind ein mittelständisches Technologie-Unternehmen und haben vielfach bewiesen, dass wir mit intelligenter Technologie einiges bewegen und die Welt verändern können. Unsere ersten Erfolge haben wir erzielt, als wir mit unserem Softwarebaukasten „VT-DMU“ riesige 3D-Datenmengen analysieren konnten, etwa durch Kollisionsberechnung. Wir waren das erste Unternehmen, das über Nacht den gesamten Fuhrpark eines Automobilherstellers auf mögliche Probleme geprüft hat. Und das mit handelsüblicher Hardware.
Wie ging es weiter?
Für unsere Kunden war diese Neuheit zunächst ein absolutes Highlight, doch schon bald standen wir vor der nächsten Herausforderung: Wenn man in der Lage ist, einen ganzen Fuhrpark tagesaktuell auf mögliche Fehler zu berechnen, werden viele Millionen Ergebnisse erzeugt und deren Analyse gleicht der Suche nach einer Nadel im Heuhaufen. In den Ergebnissen sind sowohl bekannte Probleme als auch mögliche neue Kollisionen enthalten. Wir wollten es unseren Anwendern ermöglichen, nur noch die Ergebnisse zu sehen, die für sie neu sind.
Ist Ihnen das gelungen?
Ja. Die zweite Stufe haben wir erreicht, als wir unsere Software intelligent gemacht haben. Unsere sogenannte Vererbung ist bis heute einzigartig: Sie stellt sicher, dass Anwender nur neue oder veränderte Problemstellen vorgelegt bekommen. Wurde gestern eine Kollisionsstelle als kritisch bewertet, erkennt unsere Technologie das. Jede Problemstelle wird automatisch überprüft. Wenn sie identisch zum Vortag ist, übernimmt VT-DMU die Bewertung und Dokumentation. Hat sich die Stelle jedoch leicht verändert, wird teilvererbt, das heißt, die Historie oder Dokumentation wird übernommen und die Software fragt nach, ob die Bewertung beibehalten oder geändert werden soll.
Welche Herausforderungen gab es bei der Entwicklung von VT-DMU?
Als wir im Jahr 2014 angefangen hatten, an neuen Lösungen zur automatischen Bewertung von potenziellen Problemstellen in 3D-Daten zu arbeiten, haben wir auch schnell an künstlicher Intelligenz geforscht. Damals erschienen uns allerdings alle Lösungen in dem Bereich als wenig vielversprechend. All unsere Versuche, ein neuronales Netz an 3D-Daten zu trainieren, scheiterten. Der zweite Forschungsansatz „Geometrie verstehen“ schien deutlich vielversprechender. Je mehr wir über die Daten gelernt haben, umso klarer wurde unser Bild – wir wussten plötzlich, wie wir eine KI im 3D-Umfeld erfolgreich trainieren können.
Wie haben Ihre Kunden auf die KI reagiert?
Ab 2020 war unser erstes KI-Modul einsatzbereit. Unsere Kunden und Mitarbeiter zögerten zunächst. Bei vielen haben Ängste überwogen und es standen Fragen im Raum wie: Was macht die KI? Schadet sie mir? Wir haben darauf gesetzt, die KI sanft einzuführen. Sie sollte sich nicht verselbständigen, sondern Hand in Hand mit den Experten zusammenarbeiten. Die KI durfte lediglich vorbereiten; die Entscheidung, ob eine Kollision kritisch oder unkritisch ist, blieb zu 100 Prozent in Anwenderhand. Mit den Bildern aus unserer KI konnten die Experten potenzielle Problemstellen in Sekunden erfassen. Davor hat dies teils mehrere Minuten gedauert, weil erst 3D-Modelle visualisiert und die Problemstellen mit einem Schnitt analysiert werden mussten.
:quality(80)/p7i.vogel.de/wcms/1f/93/1f93e857dedb0f6608bf91cedf2d2e5e/0111635650.jpeg)
Engineering
KI im Ingenieurwesen – Führungskräfte stehen unter Druck
Unsere KI hat auch einen Bewertungsvorschlag mit Vertrauenslevel gemacht, damit die Anwender ein Gefühl dafür entwickeln konnten, wie die Software arbeitet und entscheidet. Jeder Anwender hat zum Beispiel sofort gesehen, dass die KI eine Problemstelle mit 95-prozentiger Wahrscheinlichkeit als unkritisch bewerten würde.
Wie war die Resonanz auf diese Vorgehensweise?
Das kam so gut an, dass die Anwender nicht mehr auf die KI verzichten wollten. Sie fassten Vertrauen und lernten mit der Technologie umzugehen. Viele Nutzer haben zum Beispiel eigene Filter eingestellt, um KI-Entscheidungen mit einem Vertrauenslevel von über 91 Prozent schneller abarbeiten zu können. Diesen Wert haben sie ermittelt, indem sie täglich mit der Software gearbeitet und Erfahrungen gesammelt haben. Anfangs lag der KI-Schwerpunkt auf Kollisionen, später wollten unsere Kunden die KI auch für Kontakt- und Abstandsprobleme verwenden.
Wie lautet Ihr Fazit der vergangenen Jahre?
Wir haben seit drei Jahren eine KI, die produktiv eingesetzt wird, also mit echten Daten arbeitet. Ein Schlüssel für die schnelle Akzeptanz waren zum einen die vollautomatisch erzeugten intelligenten Bilder, wie sie Experten selbst aufnehmen würden. Diese zeigen genau die Informationen an, die Anwender für Entscheidungen benötigen. Gleichzeitig sind die Bilder perfekt für die Projektdokumentation geeignet. Inzwischen erstellt die KI das Bildmaterial automatisch für alle untersuchten Problemstellen, also Kollisionen, Kontakte und Abstände. Für besonders komplexe Fragen, die auf einem Bild nicht eindeutig nachvollzogen werden können, verfügt unsere Technologie über ein zusätzliches Feature: In solchen Fällen kann auf eine 3D-Szene umgeschaltet werden, die weitere Einblicke in die Konfliktstelle ermöglicht.
Zum anderen hat unsere KI über die letzten Jahre mehrere Millionen Konfliktsituationen bewertet. Diese Vorschläge sind dann von Experten bestätigt oder abgelehnt worden. Dadurch wissen wir, wie gut unsere KI in der Praxis funktioniert. Es war jede Mühe wert, die wir in den Jahren der Forschung und Entwicklung auf uns genommen haben.
Wie eigenständig arbeitet Ihre KI inzwischen?
Plötzlich stand die Frage im Raum, ob die KI nicht einen Teil der potenziellen Problemstellen selbständig bewerten darf. Dazu mussten wir klären, wie fehleranfällig die Technik ist. Wir haben untersucht, wie oft KI-Bewertungen bestätigt und verworfen worden sind. Gemeinsam mit dem Kunden haben wir darüber gesprochen, wie viele Fehler die KI machen darf. Der Zielkorridor lag bei diesem Partner bei unter einem Prozent, für andere wären bis zu fünf Prozent in Ordnung. Wir wollten einer Zuverlässigkeit von 100 Prozent möglichst nahe kommen, wohl wissend, dass dies weder für eine KI noch für einen Menschen möglich ist.
:quality(80)/p7i.vogel.de/wcms/92/80/9280a1e2ddb284c6c3884915ff00cf1b/0110465241.jpeg)
Deutscher Ethikrat
„Die KI darf den Menschen nicht ersetzen“
Dafür haben wir sichergestellt, dass die Auswirkung eines Fehlers möglichst gering ausfällt. Wir haben also nicht nur die Schwelle gesucht, wo die KI möglichst wenig Fehler macht, sondern auch die Fehlerfolgen untersucht. Das bedeutet, dass wir uns jeden einzelnen Fehler angesehen und gefragt haben: Wie hat die KI bewertet und was sagt der Experte dazu? Dann haben wir uns gefragt, was passiert wäre, wenn der KI-Fehler nicht korrigiert worden wäre? Wie bereits erwähnt, lag die Schwelle für KI-Entscheidungen bei 91 Prozent. Ist sich die KI zu mindestens 91 Prozent sicher, dann vertrauen ihr die Anwender. Nur in wenigen Fällen müssen Experten korrigierend eingreifen.
Haben Sie dafür konkrete Zahlen?
Wir wollten mehr Sicherheit und haben genauer hingeschaut um die Frage zu klären: „Wann darf die KI selbständig entscheiden?“ Das Ergebnis lag bei 97 Prozent. Wenn die KI mit einer Wahrscheinlichkeit von 97 Prozent entscheidet, dann liegt die Fehlerquote unter 0,001 Prozent. In Summe hat die KI im untersuchten Zeitraum etwa 500.000 Bauteilpaarungen bewertet und war sich dabei zu mindestens 97 Prozent sicher. Bei genau vier Bewertungen waren Experten anderer Meinung und haben die Bewertung von unkritisch auf kritisch gesetzt.
Interessant war auch, warum KI-Entscheidungen geändert worden sind und welche Auswirkung dies auf den Folgeprozess gehabt hätte. Die Ergebnisse haben in allen vier Bewertungspunkten gezeigt, dass man die Entscheidung so oder so hätte treffen können. Die KI lag nicht falsch und damit hätte ihre Bewertung keine negativen Auswirkungen gehabt. Vermutlich hätten andere Experten wie die KI entschieden – das ist menschliches Ermessen.
Wo sehen Sie Potenziale für die Zukunft?
Mit etwas mehr Risikobereitschaft könnte man die Schwelle weiter absenken. Selbst bei einem Vertrauenslevel von 95 Prozent hätte die KI die Vorgabe von weniger als ein Prozent Fehlerquote erfüllt. Allerdings hätte es dann Fehler gegeben, die zu Qualitätsproblemen und Folgekosten hätten führen können. Dieses Risiko wollte noch niemand eingehen, sodass wir mit gutem Gefühl die Schwelle auf 97 Prozent festlegen und der KI freie Hand lassen. In Zukunft wird es viele weitere Innovationen geben, die in die KI einfließen und Anwender weiter entlasten. Wir bleiben am Ball.
Über Hermann Gaigl
Hermann Gaigl studierte Maschinenbau an der Technischen Universität München. Nach dem Studium startete er seine berufliche Laufbahn in der Automobilentwicklung, zunächst als Projektingenieur im Versuch. Danach wechselte er von der Hardware in die digitale Welt. Inzwischen arbeitet er seit über 25 Jahren in diesem Bereich. Heute ist Hermann Gaigl Geschäftsführer der Invenio Virtual Technologies GmbH, einem Teil der Invenio AG.
(ID:49544933)