Schlagwort-Archiv: Ethik

Gesellschaftliche Entwicklun­gen als Treiber neuer Technologien im Banking

Ist die Rede von Technologie, denken viele von uns wohl an Roboter, selbstfahrende Autos oder Virtuelle Realitäten. Im Zentrum steht dabei die Datenverarbeitung. Dabei kann der Eindruck entstehen, als würde die Technologie ihre Verbreitung der Tatsache verdanken, dass sie einen neuen Bedarf in der Gesellschaft erzeugt, der ohne sie unentdeckt geblieben wäre, ist im „IT Finanzmagazin“ zu lesen. … mehr

 

Smartphones im Supermarkt führen zu Kaufrausch

Zum wöchentlichen Einkauf sollten Nutzer ihre Smartphones lieber nicht mitnehmen. Denn andernfalls laufen sie Gefahr, wesentlich mehr Geld auszugeben als geplant. Ladenbesitzer könnten von dieser Erkenntnis hingegen profitieren. Das zeigt eine aktuelle Studie der Stockholm School of Economics  und der University of Tennessee   laut „Pressetext“ … mehr

 

Neue Netzpolitische Gremien: Datenethikkommission besetzt, Digitalrat noch nicht

Ein Viertel der aktuellen Legislaturperiode ist bereits um und noch immer sind nicht alle netzpolitischen Gremien der Bundesregierung besetzt. Wer in den von der Union forcierten Digitalrat kommt, ist weiterhin unklar. Dafür nimmt die Ethikkommission in den nächsten Wochen ihre Arbeit auf. Sie soll eine Neuordnung des Datenrechts vorbereiten, berichtet „Netzpolitik.org“ . … mehr

 

Weltweite Studie „Elektronik der Zukunft“: Was Verbraucher über KI, Roboter und digitale Sicherheit denken

(Bildquelle: "obs/electronica/Christian Hartlmaier")

(Bildquelle: „obs/electronica/Christian Hartlmaier“)

81 Prozent der Verbraucher rund um den Globus wünschen sich, dass „elektronische Geräte der Zukunft“ das Leben vereinfachen. Was dabei künstliche Intelligenz (KI), Robotik und Digitalisierung dürfen und was nicht, wird von den Nutzern sehr differenziert betrachtet. So sind beispielsweise weltweit 71 Prozent der Verbraucher der Meinung, dass elektronische Geräte auch in Zukunft nur assistieren sollen und das eigene Denken der Menschen mit KI nicht ersetzen dürfen. Das sind Ergebnisse des electronica-Trend-Index (2. Auflage). Dafür wurden im Auftrag der „electronica“, Messe und Konferenz für Elektronik, 7.000 Verbraucher in den USA, China, Japan, Deutschland, Frankreich, Großbritannien und Italien von einem Marktforschungsinstitut im Juni 2018 bevölkerungsrepräsentativ befragt.

Navigationssysteme und Smartphones haben die intelligente Sprachsteuerung in den Privathaushalten bekannt gemacht.

Mit künstlicher Intelligenz und digitaler Vernetzung arbeiten Hersteller mit Hochdruck daran, den Siegeszug von smarter Elektronik auszubauen. Bei den Verbrauchern steht die Idee der Sprachsteuerung offenbar hoch im Kurs: Rund 60 Prozent der Konsumenten sind weltweit dafür, dass elektronische Geräte künftig in einen menschlichen Dialog treten können – etwa nach dem Vorbild bekannter Sprachassistenten wie Siri, Alexa oder Cortana. Besonders begeistert davon, sich künftig mit elektronischen Geräten unterhalten zu können, sind dabei die chinesischen (85 Prozent), amerikanischen (68 Prozent) und italienischen (66 Prozent) Konsumenten. Weltweit 17 Prozent lehnen sprechende Elektronik dagegen entschieden ab.

Was Roboter dürfen und was nicht

Zu „menschenähnlich“ sollten die digitalen Helfer nach übereinstimmender Meinung der Verbraucher allerdings nicht werden: Bei der Frage, wie Service-Roboter von morgen beschaffen sein sollten, sprechen sich 72 Prozent dafür aus, dass Roboter mit künstlicher Intelligenz eindeutig als Maschine erkennbar bleiben. Die stärksten Befürworter dafür sind Italiener (78 Prozent) und US-Amerikaner (77 Prozent). Aber auch in Japan, mit der im Vergleich schwächsten Zustimmung, gibt es in diesem Punkt eine klare Mehrheit von 69 Prozent der Befragten.

Roboter sollen selbständig lernen

Dagegen bewerten 72 Prozent der Befragten im weltweiten Durchschnitt positiv, dass Roboter künstliche Intelligenz einsetzen, um selbständig zu lernen und auf neue Situationen zu reagieren. Ebenso viele wünschen sich vom Roboter Entscheidungshilfen – allerdings sollte die Kontrolle in den Händen der Menschen bleiben.

Diese Grundeinstellung gilt generell für den Einsatz von künstlicher Intelligenz in elektronischen Geräten: Die große Mehrheit der Verbraucher möchte, dass die KI nur assistiert und nicht das eigene Denken ersetzt – der weltweite Durchschnitt dieser Meinung liegt nach der jüngsten Umfrage bei 71 Prozent. Allerdings ist diese Ansicht in einigen Ländern rückläufig: In Deutschland stimmten dieser Meinung im electronica-Trend-Index aus dem Jahre 2016 insgesamt 82 Prozent der Befragten zu – aktuell sind es noch 67 Prozent.

Geteilt ist dagegen die Meinung dazu, ob eine Maschine in der Lage sein soll, menschliche Gefühle zu erkennen und darauf zu reagieren: In den europäischen Ländern und Japan ist nur rund jeder Zweite dafür, in den USA knapp 60 Prozent – in China aber 85 Prozent.

 

 

Künstliche Intelligenz: Politik muss Grenzen setzen: KI-Diskussion erinnert an die der ersten Atombombe

Die Diskussion um das Thema Künstliche Intelligenz (KI) erinnert Dell-EMC-Chef Dinko Eror an die Kritik der ersten Atombombe. Er hält eine gesetzliche Regulierung für unabdingbar: Nicht alles, was technisch möglich ist, sollte auch erlaubt sein. Ein Bericht auf „CRN“. …mehr

 

 

„Beim Thema KI-Ethik reicht die Selbstverpflichtung der Industrie nicht aus“

Verständnis-Ethik-260x300Innovation ist wichtig, aber kein Selbstzweck, deshalb sollten sich Unternehmen und Wissenschaftler ethische Grenzen setzen. Notfalls müssen die Gesetzgeber nachhelfen, sagt Dinko Eror, Senior Vice President and Managing Director von Dell EMC in Deutschland.

Nicht alles, was technisch möglich ist, sollte auch erlaubt sein. Gerade im Umfeld der Künstlichen Intelligenz (KI) ist eine Diskussion entstanden, die stark an die Kritik der ersten Atombombe erinnert: Viele fürchten eine Entwicklung, die unumkehrbar ist und weitreichende Gefahren birgt.

Der Unternehmer Elon Musk etwa sieht in der KI „die größte Bedrohung für das Überleben der Menschheit“, und der in diesem Jahr verstorbene Physiker Stephen Hawking war bereits 2014 der Meinung, Menschen könnten aufgrund ihrer biologischen Limitierung mit KI nicht mithalten und würden am Ende „verdrängt“ werden. Eine Verselbstständigung der Technologie hatten Science-Fiction-Autoren schon Mitte des vergangenen Jahrhunderts thematisiert.

Eine solche Entwicklung hat eine besondere Tragweite, wenn Fehler entstehen. Amazons Gesichtserkennung etwa hat jüngst 28 Abgeordnete des US-Kongresses mit Häftlingen verwechselt. Überträgt man diese Fehlerquote von fünf Prozent auf die Ambitionen des US-Verteidigungsministeriums, werden ethische Zweifel schnell greifbar: Das Pentagon will unter anderem Drohnen und andere Waffen mit KI versehen, damit sie Ziele selbst identifizieren und „Entscheidungen selbst treffen“ können. Viele KI-Forscher betrachten solche Entwicklungen mit besonderer Skepsis – wenn nicht mit Abscheu; tausende von ihnen haben deshalb eine freiwillige Selbstverpflichtung unterschrieben, nicht an autonomen Waffensystemen zu forschen. Aber wie stehen die übrigen tausenden zu solchen Einsätzen?

Gefahr kommt auch aus einem ganz anderen Bereich: Mit KI, künstlichen neuronalen Netzen und erschreckend wenig Aufwand können mittlerweile mit sogar kostenlosen Apps täuschend echte Fake-Bilder und -Videos hergestellt werden. „Nicht auszudenken, was passiert, wenn durch ein Fake-Video eines Fake-Politikers ein Krieg entsteht“, gibt Dinko Eror zu bedenken.

Auch die Profilerstellung von beliebigen Internet- und Social-Media-Nutzern stellt für KI längst keine Hürde mehr dar. Die Technologie kann, in Verbindung mit der heutigen Rechenleistung, gigantische Datenmengen analysieren und etwa Muster erkennen. Unvergessen ist zum Beispiel die unerlaubte Auswertung der Daten zahlreicher Facebook- und Twitter-Profile durch Cambridge Analytica mit dem Ziel, die US-Wahlen 2016 zu beeinflussen – für viele der erste wirkliche Social-Media-Skandal.

Es gibt zahlreiche weitere Beispiele, die ethische Fragen aufwerfen – zudem dass die KI sich weiterentwickelt und jeden Tag schneller, leistungsfähiger und treffsicherer wird. Sogar IT-Unternehmen, die Vorreiter in Sachen KI, kommen deshalb mittlerweile ins Grübeln. Microsoft zum Beispiel betrachtet KI-basierte Gesichtserkennung als Bedrohung der fundamentalen Menschenrechte wie Privatsphäre und Meinungsfreiheit, so zumindest President Brad Smith in seinem Blog vor einigen Wochen.

Ist die Selbstverpflichtung von Industrie und Forschung also der richtige Weg, um ethische Innovationen – auch fernab von KI – sicherzustellen? „Nein. Die Wirtschaftsgeschichte hat gezeigt: Die Selbstverpflichtung von Industrie und Forschung führt nicht zu ethischen Innovationen“, erklärt Eror. „Sei es beim Dieselskandal, dem Rauchverbot, der Frauenquote oder der Nahrungsmitteltransparenz. Mögliche Absatzvorteile haben Unternehmen immer höher bewertet als ethisches Handeln. Ich bin mir sehr sicher, dass das auch in Zukunft so bleiben wird.“

Eine gesetzliche Regulierung ist deshalb unabdingbar. „Die angekündigte Strategie der Bundesregierung zur Künstlichen Intelligenz kommt zwar sehr spät, berücksichtigt aber Datenschutz und Informationssicherheit und betont an vielen Stellen die Notwendigkeit von ethischen Standards“, erklärt Eror, „das ist sehr zu begrüßen“. Auch die EU hat kürzlich ein KI-Maßnahmenpapier angekündigt, in dem ethische Rahmenbedingungen im Vordergrund stehen.

Die Frage bleibt, ob auch andere Regierungen ein Interesse daran haben, sich in diesem Sinne selbst einzuschränken. Die USA haben zwar bereits 2016 einen strategischen Forschungs- und Entwicklungsplan für KI vorgestellt und betonen dort sehr nachdrücklich das Thema „ethische KI“. Es bleibt aber offen, wie sie etwa ihre angekündigten aggressiven Verteidigungspläne darauf abstimmen wollen. China, ein Land, das nicht besonders zimperlich mit der Privatsphäre umgeht, wie die jüngste Maßnahme zur allgegenwärtigen Gesichtserkennung beweist, wird ethische Aspekte eher weniger in den Vordergrund stellen.

Seit vielen Jahren wird der Ruf nach einer neuen Wirtschaftsordnung laut. Sie soll, so die große Mehrheit der Deutschen, Turbokapitalismus und Wachstum um jeden Preis zugunsten von mehr Gerechtigkeit und Umweltschutz ablösen. „Angesichts des rapiden Fortschritts der Technik und des potenziellen Missbrauchs der KI ist es an der Zeit, auch die Unternehmens¬ethik ganz oben auf die Agenda zu setzen“, findet Eror.

„Kollege Roboter“ in den Arbeitswelten der Zukunft

Roboter können dem Menschen ähneln. Wie weit kann und soll die Unterstützung durch Roboter in der modernen Arbeitswelt reichen?  (Bildquelle: "obs/Bundesanstalt für Arbeitsschutz und Arbeitsmedizin/Uwe Voelkner / Fotoagentur FOX")

Roboter können dem Menschen ähneln. Wie weit kann und soll die Unterstützung durch Roboter in der modernen Arbeitswelt reichen? (Bildquelle: „obs/Bundesanstalt für Arbeitsschutz und Arbeitsmedizin/Uwe Voelkner / Fotoagentur FOX“)

„Wissen scha(f)ft gesunde Arbeit – Arbeitswelten der Zukunft menschengerecht gestalten“ lautet der Titel des Projekts der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA), mit dem sie zum Wissenschaftsjahr 2018 beiträgt. Mit „Kollege Roboter“ geht jetzt die erste von insgesamt vier Web-Dokumentationen online.

Die Dokumentation vermittelt multimedial in Text, Bild und Videosequenzen, wie Wissenschaft dazu beiträgt, die Zusammenarbeit von Mensch und Roboter optimal und menschengerecht zu gestalten. Erzählerisch beleuchtet sie dabei Chancen und Risiken der Technologie und bringt den Beitrag der Wissenschaft knapp und präzise auf den Punkt. „Kollege Roboter“ gibt es unter www.wissenschaftsjahr.baua.de.

Mit der Digitalisierung der Arbeitswelt geht eine stetige und rapide Zunahme der Anzahl sowie der Einsatzmöglichkeiten von Industrierobotern einher. Roboter arbeiten schnell, präzise und ermüden nicht. Dafür hält sich ihr Improvisationstalent in den engen Grenzen ihrer Programmierung. So wird auch künftig eine Zusammenarbeit zwischen Mensch und Roboter unerlässlich bleiben.

Doch wie muss diese Zusammenarbeit gestaltet werden, damit die Beschäftigten nicht nur sicher und frei von gesundheitlichen Beeinträchtigungen arbeiten, sondern auch ihre Qualifikationen und Fertigkeiten einbringen können?

Antworten auf diese und andere Fragen gibt „Kollege Roboter“. Die Web-Dokumentation im „Scrolly-Telling“-Format ist die erste von vier Dokumentationen, die im Rahmen des Projektes „Wissen scha(f)ft gesunde Arbeit – Arbeitswelten der Zukunft menschengerecht gestalten“ erstellt werden.

Das Projekt ist eingebunden in das Wissenschaftsjahr 2018 „Arbeitswelten der Zukunft“, einer Initiative des Bundesministeriums für Bildung und Forschung und wird von diesem finanziell gefördert. Die einzelnen Dokumentationen zeigen auf, wie Wissenschaft und Forschung dazu beitragen, vorausschauend Arbeitsplätze menschengerecht zu gestalten und zu sichern.

Ein Besuch bei „Kollege Roboter“ dauert rund 15 Minuten. Dabei scrollt sich der Interessierte durch die Dokumentation. Verständliche Texte, spannende Bilder und kurze Videosequenzen vermitteln nicht nur Chancen und Risiken der Technologie. Vielmehr geben Wissenschaftler Einblicke in ihre arbeitswissenschaftliche Forschung. Zudem zeigen Beispiele aus der betrieblichen Praxis, wie dieses Wissen die Arbeitssituation der Beschäftigten verbessern kann. Damit liefert die Dokumentation auch Fakten und Impulse, damit sich Bürger am Dialog im Wissenschaftsjahr beteiligen können.

Das Wissenschaftsjahr 2018 , eine Initiative des Bundesministeriums für Bildung und Forschung (BMBF), widmet sich dem Thema Arbeitswelten der Zukunft. Durch die Digitalisierung, alternative Arbeitsmodelle und die Entwicklung künstlicher Intelligenz stehen Forschung und Zivilgesellschaft vor neuen Chancen und Herausforderungen: Wie werden die Menschen in Zukunft arbeiten? Wie machen sie sich fit dafür? Und welche Rolle spielen Wissenschaft und Forschung bei der Gestaltung eben dieser neuen Arbeitswelten? Das Wissenschaftsjahr 2018 zeigt, welchen Einfluss soziale und technische Innovationen auf die Arbeitswelten von morgen haben – und wie diese nicht nur den Arbeitsalltag verändern, sondern auch neue Maßstäbe im gesellschaftspolitischen Dialog setzen. „Erleben. Erlernen. Gestalten.“ – unter diesem Motto werden Bürgerinnen und Bürger im Wissenschaftsjahr 2018 dazu aufgerufen, mitzumachen, Fragen zu stellen und gemeinsam Lösungsansätze zu finden.

Verfassungsbeschwerde gegen Staatstrojaner eingereicht

 Digitalcourage hat am Dienstag, 7. August 2018, Verfassungsbeschwerde gegen die Staatstrojaner in der Strafprozessordnung (StPO) eingereicht. Die Beschwerdeführer.innen fordern, § 100a Abs. 1 Satz 2 und 3, Abs. 3 bis 6, § 100b sowie § 100d Abs. 1 bis 3 und Abs. 5 StPO in der Fassung nach dem „Gesetz zur effektiveren und praxistauglicheren Ausgestaltung des Strafverfahrens“ für verfassungswidrig und nichtig zu erklären.  Angegriffen wird u.a. die unverhältnismäßige Tiefe des Eingriffs in das IT-Grundrecht und das Fernmeldegeheimnis.

Die Beschwerdeführenden sind Juristen, Grundrechtsaktivistinnen und Künstler. Alle sind potentiell durch den Einsatz von Staatstrojanern bedroht.

Der Liedermacher, Kabarettist und Autor, Marc-Uwe Kling ist einer der Beschwerdeführer und erklärt seine Betroffenheit von dem Gesetz mit seinen Publikationen: Die Känguru-Trilogie handelt ausführlich von seinem Zusammenleben in einer Wohngemeinschaft mit einem kommunistischen Känguru. Dieses hat nach eigener Aussage auf Seiten des Vietcong gekämpft, will das System umstürzen und betreibt einen Boxclub („Nazis boxen“). Auf Grund einiger absurder (realer) Erlebnisse anderer Beschwerdeführer mit der Polizei liegt die Befürchtung nahe, dass Strafverfolgungsbehörden das Känguru nicht als Romanfigur erkennen, sondern als Täter einer der in den §§ 100a Abs. 2, 100b Abs. 2 StPO genannten Anlasstaten einstufen und er Betroffener einer Online-Durchsuchung oder Quellen-Telekommunikationsüberwachung wird.

Trotz des bitteren Humors – Staatstrojaner sind eine ernste Bedrohung für die freiheitliche Demokratie. So sehen das auch die Beschwerdeführer.innen. Sie warnen vor dem Abbau des Rechtsstaats durch ausufernde Überwachung und vor Gefahren für die IT-Sicherheit. Um die Schadsoftware zu installieren, werden Sicherheitslücken in Hard- und Software von Geräten ausgenutzt. Diese stehen dann weiterhin offen – auch für Geheimdienste und Kriminelle.

 

Mehr Infos:

Erklärvideo: Warum sind Staatstrojaner gefährlich?

 Verfassungsrechtliche Argumente gegen den Staatstrojaner

Staatstrojaner: Chronologie des staatlichen Hackings

Studenten sehen Künstliche Intelligenz kritisch

Wenn sie ihnen dabei hilft, den Stau auf der A 5 zu umgehen oder die nächste S-Bahn zu erwischen, dann stehen deutsche Studierende Künstlicher Intelligenz (KI) durchaus positiv gegenüber. Laut einer Erhebung der Frankfurter Stellenbörse Univativ, deren Angebot auf Studenten, Absolventen und Berufseinsteiger abzielt, glauben mit 53 Prozent mehr als die Hälfte von 800 Umfrageteilnehmern, dass das derzeit wohl spannendste Feld der Informatik ihnen das Leben erleichtert. Mit Blick auf den Einstieg ins Arbeitsleben können aber ebenfalls mehr als die Hälfte der befragten Studenten der neuen Technologie nicht so viel Gutes abgewinnen: 56 Prozent stehen ihrem dortigen Einsatz, etwa in Form von Robot Recruiting, kritisch gegenüber, so die „FAZ“. …mehr…

 

Unternehmenskultur: Warum Digitalisierung und Wertewandel zusammengehören

Autorin Dr. Alexandra Hildebrandt schreibt in der „HuffingtonPost“: Es geht heute nicht nur darum, dass die Digitalisierung Unternehmenskulturen beeinflusst, sondern auch, ob diese die digitale Transformation ermöglichen. Beides ist gleichermaßen relevant. Um mit dem digitalen Wandel richtig umzugehen, braucht es Klugheit und Überlegung. Vor allem Traditionsunternehmen und Mittelständler sollten sich fragen, welche Dienstleistungen oder Produkte sie anbieten können und sich über ihren Kern bewusst sein. Wer digitale Prozesse richtig managen will, braucht ein tiefergehendes Verständnis der eigenen Unternehmenskultur – ein kurzer Wandel ist nicht nachhaltig. … mehr …

 

Interview: Warum für Techniker Ethik zunehmend wichtiger wird

Michael Teigeler, Geschäftsführer der Normungsorganisation VDE|DKE. (Bildquelle: VDE / Bernd Euring)

Michael Teigeler, Geschäftsführer der Normungsorganisation VDE|DKE. (Bildquelle: VDE / Bernd Euring)

Auf Initiative von VDE|DKE und IEEE (Institute of Electrical and Electronics Engineers) haben kürzlich acht große internationalen Standardisierungsorganisationen die Open Community for Ethics in Autonomous and Intelligent Systems (OCEANIS) in Wien gegründet. Michael Teigeler, Geschäftsführer der Normungsorganisation VDE|DKE, erklärt im Interview, warum das Thema „Ethik“ auch immer öfters von technischen Entscheidern aufgegriffen wird.

Was ist das Ziel von OCEANIS? Wie kam es zur Entscheidung, diese Open Community zu gründen?

Michael Teigeler: Künstliche Intelligenz gilt als die wichtigste Technik unseres Jahrzehnts. Ihre Entwicklung schreitet mit großen Schritten voran. Dabei ist schon jetzt klar, dass sie zu ähnlichen Umwälzungen führen wird wie die Einführung der Elektrotechnik Ende des vorletzten Jahrhunderts. Deshalb ist es wichtig, dass wir ethische Aspekte in der Entwicklung von KI verankern und zwar jetzt.

Wir Ingenieure und IT-Experten sind auf die Technik und den Algorithmus fokussiert, genau deshalb haben wir auch nicht Philosophie studiert. Nun greift KI aber in Bereiche, bei denen sich die elektrotechnische Community Gedanken über das „richtige“ und „falsche“ Verhalten einer Technologie machen muss. Und das schaffen wir nur im Schulterschluss mit Ethik-Experten.

Uns fehlt hierfür schlichtweg das Know-how über das Philosophen und Theologen verfügen. Ich maße mir nicht an, zu entscheiden, was richtig und falsch ist. Ich sprach mit meinem Kollegen Dr. Konstantinos Karachalios vom IEEE über das Thema und wir waren uns schnell einig, dass wir es nur auf internationaler Ebene lösen können und so kam der Gedanke, OCEANIS zu gründen.

Die Elektroindustrie ist die am stärksten global vernetzte Branche. Das gilt auch für die Normung. In Deutschland basieren die VDE-Bestimmungen heute größtenteils auf Europäischen Normen, die zu etwa 80 Prozent das Ergebnis der internationalen Normungsarbeit der IEC sind.

 Wie wollen Sie ethische Aspekte verankern? Wie kann sich das der Normalbürger vorstellen?

Michael Teigler: Zusammen mit Experten aus der Philosophie, Theologie, Psychologie, und Soziologie wollen wir einen Katalog an Anforderungen erarbeiten, die einer ethischen künstlichen Intelligenz „beizubringen“ sind.

An diesem Wertekatalog wird sich die internationale Normung halten. Genau deswegen ist es wichtig, dass wir alle Länder an Bord holen. OCEANIS ist damit ein Forum, in dem elektrotechnische Standardisierungsorganisationen zusammen mit anderen Organisationen Hand in Hand zusammenarbeiten. Die abgestimmten Leitlinien werden dann über die jeweiligen Standardisierungsorgane direkt in die internationale Normung fließen und sind damit für alle Länder verbindlich. Wir alle tragen Verantwortung dafür, wie KI eingesetzt wird.

Wie wollen Sie Wirtschaft und Politik Orientierung bieten?

Michael Teigler: Es ist wichtig, Ruhe in das Thema zu bringen. Und der Politik zu zeigen, wir nehmen unsere Verantwortung des technologischen Fortschritts ernst. Das gleiche gilt für die Wirtschaft. Indem wir das Thema Ethik in die Normung aufnehmen, nehmen wir den Unternehmen die große Hürde, sich alleine darum kümmern zu müssen. Im Alleingang würde diese Anstrengung sowieso keine Früchte tragen. Mehr als 5.500 Experten aus der Industrie erarbeiten bei VDE|DKE die VDE-Normen für die Elektroindustrie, die dann in die internationale Normung einfließen.

 Wenn Sie ethischen Aspekten bei KI mehr Gewicht verleihen wollen, dann öffnet das auch das Tor für viele philosophische Fragen. Die Mitglieder haben aber alle einen technischen Hintergrund. Wer leistet den philosophischen Anstoß?

Michael Teigler: Wie ich oben bereits erwähnt habe, ist OCEANIS ein offenes Forum. Wir sind gerade dabei, auf internationaler Ebene Fachdisziplinen wie Philosophie, Theologie, Soziologie und Psychologie anzusprechen. Auch die Geistes- und Sozialwissenschaften habe die Dringlichkeit des Themas erkannt. Gemeinsam werden wir Verantwortung übernehmen und unsere Komfortzone verlassen.

Vor 8 Jahren, als xethix startete, war das Thema „Ethik und Digitalisierung“ noch eher ein Randaspekt. Mittlerweile gibt es immer mehr Initiativen. Ist die Zeit reif, sich umfänglicher mit Technologie auseinanderzusetzen?

Michael Teigler: Es ist höchste Zeit, sich Gedanken über die Auswirkungen von künstlicher Intelligenz zu machen. Das sehen Sie allein an dem kritischen Warnruf führender Forscher Anfang des Jahres. Jetzt können wir noch in die Entwicklung eingreifen. Aber nur, wenn wir international an einem Strang ziehen. Mit künstlicher Intelligenz – die Forscher beschrieben sie zur Bösartigkeit fähig und begründeten dies technologisch und nicht auf Basis von Science Fiction – kann man ganze Gesellschaften aushebeln.

Deswegen ist es dem VDE ein großes Anliegen, den Mensch in den Mittelpunkt zu stellen. Wir wurden vor 125 Jahren gegründet, als die Einführung der Elektrotechnik zu großen Umbrüchen führte, ich erinnere an die sozialen Proteste im Zuge der Industrialisierung. Seitdem stehen wir für Aufklärung, Sicherheit und den Schutz der Bürgerinnen und Bürger. Damals schuf die Industrialisierung weitaus mehr Arbeitsplätze als verloren gingen. Es bedurfte damals eines Umdenkens. Und das ist auch heute der Fall. Wir müssen die Gesellschaft mitnehmen, mit Weiterbildung und Schulungen.

Wo sehen Sie OCEANIS in 5 Jahren?

Michael Teigler: Ich hoffe, dass wir zügig den Anforderungskatalog starten können. Eines dürfte sicher sein: Wir werden in fünf Jahren alle Standardisierungsorganisationen an Bord haben. Dadurch, dass alle big player bereits Mitglied von OCEANIS sind, ist die Motivation auf andere Länder hoch. Wer die Norm macht, hat den Markt. Ich sehe uns deshalb hier auf einem guten Weg. Und ich bin auch sehr optimistisch, dass die Zusammenarbeit mit uns „Nerds“ für die Philosophen und Theologen eine gute wird. Dazu ist das Thema einfach zu wichtig. KI wird kommen und wir müssen dafür sorgen, dass sie gut gestaltet wird zum Wohle der Menschheit.