Professor Eric Hilgendorf: "Es gilt, humanistische Werte auch im Zeitalter von Digitalisierung und KI zu verteidigen" - Beeindruckender Vortrag bei der Simon-Höchheimer-Gesellschaft Veitshöchheim
Professor Hilgendorf referierte über Recht und Ethik der KI
Die Simon-Höchheimer-Gesellschaft (SHG) hatte zum wissenschaftlichen Vortrag zum Thema 'Künstliche Intelligenz als Herausforderung für Ethik und Recht' durch den in Veitshöchheim wohnhaften ...
Link auf Mainpost-Online vom 6.5.2024
Die anlässlich der Eröffnung des jüdischen Kulturmuseums in Veitshöchheim 1995 gegründete Simon-Höchheimer-Gesellschaft (SHG), benannt nach dem berühmten Veitshöchheimer Aufklärer hat sich durch vielfältige Veranstaltungen wie hochkarätige Konzerte, wissenschaftliche Vorträge und dem Besuch von Ausstellungen sowie Exkursionen zu einem geschätzten Kulturträger entwickelt. Zweiter Vorsitzender und Schriftführer Alfred G. Schulz (li.) und Schatzmeister Dieter Scheckeler (2.v.r.) freuten sich am Donnerstagabend im Rathaus-Sitzungssaal zusammen mit Bürgermeister Jürgen Götz (re.) mit dem in Veitshöchheim wohnhaften Professor Dr. Dr. Eric Hilgendorf (2.v.l.) eine Koryphäe unter den derzeit 69 Vereinsmitgliedern zu haben. Der Lehrstuhlinhaber für Strafrecht, Informationsrecht und Rechtsinformatik an der Julius-Maximilians-Universität Würzburg (seit 2001) hatte sich bereit erklärt hatte, einen wissenschaftlichen Vortrag zum Thema „Künstliche Intelligenz als Herausforderung für Ethik und Recht“ zu halten.
Anmerkung: Die Ausführungen im Artikel gehen über den Vortrag des Professors weit hinaus, beruhen aber nach Recherchen im Internet weitgehend auf Veröffentlichungen von ihm oder von ihm in Interviews getätigten Aussagen.
Der Professor ist Mitglied im Direktorium des bidt (Bayerisches Forschungsinstitut für Digitale Transformation, ein Institut der Bayerischen Akademie der Wissenschaften).
Er ist Leiter der von ihm 2010 an seinem Lehrstuhl gegründeten bundesweit einzigartigen Forschungsstelle RobotRecht (FoRoRe), eine Denkfabrik, die sich mit den juristischen Folgen der Digitalisierung und Automatisierung beschäftigt und deren Mission es ist, die Hersteller und Anwender technischer Neuheiten im Bereich autonomer Systeme bei Rechtsfragen rund um digitale Innovationen sicher durch den Paragraphendschungel zu führen. Dies reicht von führerlosen Kraftfahrzeugen über kooperierende Industrie- oder Haushaltsroboter bis hin zu neuartigen Formen künstlich intelligenter Software. Die intensive Zusammenarbeit mit Herstellern, Zulieferern, Anwendern und Forschung ermöglicht eine praxisnahe Behandlung haftungsrechtlicher, strafrechtlicher und datenschutzrechtlicher Fragen und eine fundierte juristische Begleitung der technischen Entwicklung.
Hilgendorf gehört außerdem dem Bayerischen KI-Rat an, der zu je einem Drittel aus berufenen Mitgliedern der Hochschulen, der außeruniversitären Forschung und der Wirtschaft besteht und so alle Kompetenzen im Freistaat gebündelt werden. Es sind dies alles herausragende Persönlichkeiten mit ausgeprägter wissenschaftlicher und unternehmerischer Expertise, die zum Ziel haben, die Vernetzung innerhalb der KI-Community Bayern zu befördern, die Marke AI Made in Bavaria zu etablieren und dabei zu helfen, den Freistaat als weltweit führenden AI-District zu positionieren. Artificial Intelligence (AI) ist eine Disziplin der Informatik, für die in Deutschland das Synonym Künstliche Intelligenz (KI) genutzt wird. Die AI beschäftigt sich mit Methoden, die es Maschinen (Computern) ermöglichen, Aufgaben so zu lösen, wie dies ein Mensch mit seiner Intelligenz tun würde.
In diesen Funktionen befasst sich Hilgendorf mit rechtlichen und ethischen Fragen u.a. zu Autonomen Systeme und Künstlicher Intelligenz, Technik und Medienstrafrecht, insbesondere Computer- und Internetstrafrecht, Mediendidaktik, Medizin- und Biostrafrecht, Bioethik, auch und gerade im internationalen Kontext. So hat er in einer EU-Expertengruppe zur Künstlichen Intelligenz mitgearbeitet und berät auch die Bundesregierung zum Recht des autonomen Fahrens.
Seine Maxime: "Technik sollte so gestaltet werden, dass sie dem Gemeinwohl dient. Dazu bedarf es eines rechtlichen Rahmens, der an den Vorgaben von Menschenwürde und Menschenrechten ausgerichtet ist. Es gilt, humanistische Werte auch im Zeitalter von Digitalisierung und KI zu verteidigen."
Professor Hilgendorf: "Künstliche Intelligenz und Lernende Systeme mit einem eigenständigen Entscheidungsspielraum, werden immer mehr Teil der alltäglichen Lebenswelt. Das Recht ist gefordert, diese Entwicklung zu begleiten, zu steuern und gegebenenfalls zu begrenzen. Im Mittelpunkt stehen Themen wie z.B. die zivil- und strafrechtliche Haftung und der Umgang mit von Maschinen gesammelten Daten. Auch die zahlreichen neuen Vorgaben auf Europäischer Ebene, etwa durch die neue „KI-Verordnung“ der EU, sind zu berücksichtigen. Ebenso ist zu diskutieren, in welchen Lebensbereichen der Einsatz Künstlicher Intelligenz und „selbständiger“ Maschinen überhaupt sinnvoll und gesellschaftlich gewünscht ist. Schließlich sind mit Blick auf die Eigenständigkeit KI-gestützter Entscheidungen wichtige philosophische und rechtliche Grundlagen – wie etwa die Konzeptionen „Person“, „Verantwortung“ oder „Schuld“, aber auch die Natur von Normen und rechtliche Fragen einer möglichen Umstrukturierung von Gesellschaft – neu zu diskutieren."
Künstliche Intelligenz (KI) hat zuletzt in vielen Bereichen große Fortschritte gemacht – von der Automatisierung industrieller Prozesse bis hin zur Entwicklung von Sprachassistenten wie ChatGPT. KI-Modelle können heute detailgetreue Bilder generieren oder Texte schreiben, die von menschlichen Werken kaum zu unterscheiden sind. Mit diesen Errungenschaften gehen jedoch auch Risiken einher, insbesondere im Hinblick auf die Verbreitung von Fake News. Denn ein manipulierter Text kann sich viel schneller verbreiten, als er in den meisten Fällen faktengeprüft werden kann.
Im Vorfeld des jährlichen Treffen des Weltwirtschaftsforums (WEF) Mitte Januar 2024 in Davos hat das WEF einen globalen Risikobericht veröffentlicht. Fast 1.500 vom WEF befragte Experten stufen mehrheitlich die Verbreitung von Falschinformationen durch künstliche Intelligenz als die größte Gefahr für eine globale Krise in den nächsten zwei Jahren ein – gefährlicher sogar als Extremwetterereignisse.
Als Beispiel angeführt wurde: "Seit geraumer Zeit kursieren gefälschte, KI-generierte Audiodateien, die vermeintlich aus der Tagesschau stammen, online. Die Audios sollen den Eindruck erwecken, die Redaktion entschuldige sich für angebliche Lügen in der Berichterstattung. Darin heißt es: "Wir haben wissentlich die häufig gravierenden und teils tödlichen Nebenwirkungen der Corona-Impfung verschwiegen." Ein Deep Fake wurde im November 2023 auf einer Pegida Demo in Dresden abgespielt.
KI kann dazu verwendet werden, gefälschte Profile mit falschen Informationen zu erstellen. Diese können Einfluss auf die Finanzmärkte, die Außenpolitik sowie auf soziale Bewegungen nehmen. Manipulierte Texte und Bilder haben eine enorme Macht, um die öffentliche Meinung und Entscheidungsprozesse zu beeinflussen. Artikel, die massenweise mit Fehlinformationen versehen sind, können Fakten aushebeln und Menschen dazu veranlassen, Entscheidungen zu treffen, die nicht ihren besten Interessen und Bedürfnissen entsprechen.
KI ist nicht in der Lage, komplexe Urteile über den Wahrheitsgehalt der von ihr generierten Aussagen und Artikel zu treffen. Angesichts der zunehmenden Informationsflut, ist es wichtig, Informationen kritisch zu bewerten, ihre Glaubwürdigkeit und Richtigkeit einzuschätzen und verantwortungsvoll mit ihnen umzugehen.
Wie auf mdr zu lesen ist, finden in diesem Jahr weltweit mehr als 70 Wahlen statt, darunter die Präsidentenwahl in den USA und die Europawahl. Und auch in Brandenburg, Thüringen und Sachsen stehen Landtagswahlen an. Was also tun, um Falschinfos zu verhindern?
Dass die Politik mit Gesetzen bis dahin schon Fake News auf Social Media effektiv eingedämmt hat, ist unrealistisch, denn meistens erfolgt der Missbrauch immer schneller, als wie man hinterher praktisch regulieren kann.
Die KI Verordnung der Europäischen Union, die das Europäische Parlament am 13. März 2024 formal als das neue Gesetz zur Regulierung künstlicher Intelligenz (Artificial Intelligence Act – AI Act) verabschiedet hat, wird als eine vergleichsweise schnelle Reaktion der Politik angesehen. Wenn die Mitgliedsstaaten sich bis zur Europawahl einig werden, könnte sie voraussichtlich 2026 in Kraft treten. Bis dahin allerdings bleibt nur Bildung und Medienkompetenz der Nutzer, damit sie falsche von echten Informationen besser unterscheiden können.
Nach einer Studie der Bertelsmann Stiftung konnten fast die Hälfte der Deutschen nach eigenem Bekunden nicht einschätzen, ob Infos im Netz per Google richtig waren oder falsch, denn auch die Suchmaschinen nutzen zunehmend KI generierte Inhalte. So integriert Microsoft derzeit ChatGPT in seine Suche und bald auch in das gesamte Betriebssystem Windows 11. So enthielten Suchergebnisse zu anstehenden Wahlen, die ChatGPT ausspuckte, teilweise erfundene Umfragewerte.
Autonomes Fahren ist der einzige Bereich, in dem Deutschland laut Hilgendorf vorgeprescht ist und eine eigene nationale Regelung für KI erlassen hat. Im Straßenverkehrsgesetz wurde die Zulässigkeit von autonomen Fahrzeugen und der Umgang von solchen KI-Systemen mit hochkomplexen ethischen Fragen geregelt– etwa die Tötung von unschuldigen Verkehrsteilnehmern durch autonome Fahrzeuge in Dilemma-Situationen. Professor Hilgendorf konnte hier in einer eigenen Ethikkommission des Verkehrsministeriums mitarbeiten.
Der Professor outete sich als ein Verfechter von autonom fahrenden Autos
Hilgendorf: "Vielleicht sollte man nicht gleich von autonomen Fahrzeugen sprechen, sondern vom Fahren mit mehr und mehr autonomen Funktionen. Automatisierte Brems- und Ausweichsysteme werden den Verkehr sicherer machen. Man sollte nicht vergessen, dass ein Großteil der Unfälle auf menschliche Fehler zurückzuführen ist. Maschinen werden nicht müde, sie sind nicht aggressiv – und sie wollen auch nicht ihrer Freundin imponieren. Vollständig autonom fahrende Fahrzeuge wird es zwar in Deutschlands Städten so bald nicht geben. Wenn solche Autos aber auf separaten Fahrspuren oder in anderen für sie geschaffenen störungsfreien Umgebungen unterwegs sein können, würden sie viele Vorteile bringen – nicht nur im Hinblick auf die Sicherheit, sondern auch mit Blick auf die Bequemlichkeit des Reisens."
Ausführlich ging der Professor aber auf die Frage ein: Wer ist schuld, wenn ein autonom fahrendes Auto einen tödlichen Unfall verursacht? Der Halter, der Hersteller?
Es dürfte in den kommenden Jahren zu vielen Präzedenzfällen kommen, in denen entschieden werden muss, wer welchen Anteil der Schuld an Unfällen mit autonom handelnden Systemen hält.
Hilgendorf: Das Problem hat viele Aspekte. Zivilrechtlich geht es um Schadensersatz, hier ist in Deutschland der Halter in der Pflicht, beziehungsweise seine Versicherung. Strafrechtlich ist das viel komplizierter. Weder Halter noch Fahrer können ohne Weiteres verantwortlich gemacht werden – sie haben in der Unfallsituation ja nichts getan. Die Maschine können wir nicht bestrafen. Was bleibt, wäre unter Umständen der Programmierer oder der Hersteller. Ich halte eine Strafhaftung für denkbar, wenn der Hersteller nicht hinreichend Sorge dafür trägt, dass keine Menschen geschädigt werden. Das wird in der Strafrechtswissenschaft seit einiger Zeit diskutiert."
Grundsätzlich kann derjenige haften, der vorsätzlich oder fahrlässig eine Ursache für einen Schaden setzt. Wer zum Beispiel weiß, dass sein autonom fahrendes Fahrzeug einen gefährlichen Defekt aufweist, trotzdem das Fahrzeug in Gang setzt und so einen Schaden verursacht, der haftet sowohl zivil- als auch strafrechtlich. Noch deutlicher ist die Situation bei der Halter-Haftung: Der Halter wird zur Verantwortung gezogen, ganz unabhängig davon, welchen Autonomiegrad sein Fahrzeug besitzt. Für das Haftungsrecht besitzen die verschiedenen Autonomiegrade von Fahrzeugen also nur eine geringe Bedeutung."
Rechtsphilosophisch betrachtet: Können Maschinen überhaupt eine Schuld tragen oder eine Verantwortung besitzen?
Hilgendorf: "Nach dem in unserer Kultur entwickelten Schuldverständnis können Maschinen nicht schuldhaft handeln, weil wir „Schuld“ – übrigens ein hochgradig unbestimmter Begriff – mit Vorstellungen wie „freiem Willen“ und „Person“ verbinden.
Der Gesetzgeber ist bei der Festlegung von Verantwortung weitgehend frei, und insbesondere ist er nicht an philosophische Vorstellungen von „personalen Akteuren“, „freiem Willen“ und ähnlichen Begriffen gebunden. Das bedeutet natürlich nicht, dass diese philosophischen Debatten nicht auch für die Gesetzgebung von großem Interesse sind."
Sprachprogramme mit künstlicher Intelligenz
Der Professor schilderte zunächst den Fall "Tay". Dies war ein von Microsoft entwickelter Chatbot mit künstlicher Intelligenz, welcher am 23. März 2016 via Twitter an die Öffentlichkeit trat. Er verursachte nachfolgend eine öffentliche Kontroverse, als der Bot damit begann, anzügliche und beleidigende Tweets zu verfassen, was Microsoft zwang, den Dienst nur 16 Stunden nach seinem Start wieder abzuschalten.
Das Feld der an Hypes nicht armen Künstlichen Intelligenz (KI) ist nun um einen Kandidaten reicher: ChatGPT, ein Sprachsynthese-System, das Texte von bemerkenswerter Qualität erzeugt.
Hilgendorf: "Nicht auszuschließen ist, dass durch KI generierter Texte trotz bestehender Vorgaben zu rassistischen, frauenfeindlichen oder anderweitig inhaltlich inadäquaten Aussagen veranlasst werden kann. Andererseits wird erkannt, dass hier ein enormes Potential für Produktivitätssteigerungen als Basis für eine Überarbeitung durch Menschen liegt und nicht naiv als Endprodukt eines schöpferischen Prozesses gesehen wird. Aus dieser Perspektive sind ChatGPT und ähnliche Sprach-KI-Modelle weitere Assistenzsysteme für den Menschen Systeme, die konstruktiv mitarbeiten und keine Allwissenheit vorspiegeln., vergleichbar vielleicht mit einer maschinellen Übersetzung, einer Rechtschreibprüfung oder auch der manuellen Internetsuche, die uns täglich Inspiration liefert.
Ich beschränke mich auf die strafrechtliche Seite. Als Beleidiger käme der Hacker in Betracht, der das System manipuliert hat. Aber diese Leute sind unbekannt, sitzen möglicherweise im Ausland. Eine zweite Möglichkeit wäre das System selbst. Aber nach europäischer Tradition können wir Computer oder Software nicht strafrechtlich belangen. Sie werden dem Unternehmen kaum einen Vorsatz rassistischer Beleidigung nachweisen können. Aber Fahrlässigkeit könnte im Spiel sein, wenn ein KI-System wiederholt manipuliert werden kann. Da könnte man als Staatsanwalt schon hinschauen. Ich selbst sehe die Verantwortung insofern bei den Herstellern, als sie so sorgfältig programmieren sollten, dass die selbst lernenden Systeme eben nicht rassistisch, sexistisch oder beleidigend agieren können.
Ein großes Problemfeld sind Plagiate und Urheberrecht. Hersteller, die sehenden Auges in Kauf nehmen, dass ihre Systeme Urheberrecht verletzen, sollte man nicht davonkommen lassen. Plagiate gehen noch weiter, da müssen sich vor allem auch Universitäten Gedanken machen, wie sie die KI-Möglichkeiten in den Griff bekommen. Strafrecht sollte aber auch hier das letzte Mittel sein – nach Medienkompetenz, Aufklärung, Kontrollen.
Was passiert, wenn der smarte Rasenmäher statt des englischen Rasens des Gartenbesitzers die Salatpflanzenkultur des Biobauern nebenan mäht? Ein Hacker in das Steuerungssystem des Aufzugs eines Hochhauses eindringt und die elektronische Absturzsicherung manipuliert?
Wer haftet, wenn vernetzte Technik versagt? Siehe dazu nachstehender Link auf Fachartikel:
Fotos Dieter Gürz - Folien aus Vortrag Prof. Hilgendorf
Wer haftet, wenn vernetzte Technik versagt?
Die technischen Systeme, die uns umgeben, werden von Tag zu Tag autonomer. Mit ihrer zunehmenden Vernetzung wird die Suche nach der Ursache einer Fehlleistung immer komplexer. Die Haftungsrisiken ...
https://www.embedded-software-engineering.de/wer-haftet-wenn-vernetzte-technik-versagt-a-668706/