Dr. Sepita Ansari Pir Seraei von Syzygy spricht im Interview über Ethik und KI

Dr. Sepita Ansari Pir Seraei ist Geschäftsführer der Digital-Marketing Agentur Syzygy.

Dr. Sepita Ansari Pir Seraei ist Geschäftsführer der Digital-Marketing Agentur Syzygy.

Der Umgang und die Beschäftigung mit Künstlicher Intelligenz gehört zum „daily business“ von Dr. Sepita Ansari Pir Seraei, denn als Geschäftsführer der Digital-Marketing Agentur Syzygy muss er sich mit allen Neuerungen auseinandersetzen, die das Online-Marketing verändern könnten. Im Interview erläutert er seine Position zu diesem oftmals sehr kontrovers gesehenen Thema.

Xethix: Was halten Sie von der KI-Strategie der Bundesregierung?

Dr. Sepita Ansari Pir Seraei: Die Idee der Bundesregierung Forschung, Entwicklung und Anwendung von KI auf ein führendes Niveau zu bringen, ist ein hehres und wichtiges Ziel, da die „Basis-Innovation“ unsere Wirtschaft und unser Leben verändern und verbessern wird. Sollten wir nicht an dieser Innovation partizipieren, werden wir im internationalen Wettbewerb im Bereich der Künstlichen Intelligenz weiterhin keine Rolle spielen und Anschluss an die Amerikanischen und Chinesischen Wirtschaftsunternehmen verlieren (GAFA, Baidu, uvm.) – das gilt übrigens für ganz Europa.

Die „Strategie“ der Bundesregierung liest sich zwar auf dem Papier recht detailliert, doch wird sie keinen größeren Effekt haben, solange die gesellschaftliche Akzeptanz für Daten und für künstliche Intelligenz gefördert wird, denn wie so häufig wurde die Gesellschaft bei dem Thema Künstlicher Intelligenz kommunikativ nicht mitgenommen. Unsere Deutschen Mitbürger haben nicht nur beim Thema KI Bedenken, sondern auch beim wichtigsten Baustein von KI, den Daten, wie viele Studien belegen.

Zudem ist die Infrastruktur für die Nutzung von Daten nicht gegeben und die politisch und medial viel zu heiß gekochte Datenschutzgrundverordnung wird es für kleinere und mittlere Unternehmen noch schwerer machen in dem Bereich der Künstlichen Intelligenz zu innovieren, da die Möglichkeiten der Datennutzung rechtlich erschwert werden und die größeren Netzwerke, wie z.B. Facebook/Instagram, Google/Youtube oder auch Amazon durch den Einwilligungszwang im Wettbewerb zu den deutschen Unternehmen einfacher an Daten herankommen.

Xethix:  Warum haben die Menschen so Angst vor KI?

Dr. Sepita Ansari Pir Seraei: Die Angst vor KI entsteht durch die Sorge, dass die eigenen Jobs zukünftig betroffen sind (und die Jobs unserer Kinder), aber natürlich auch durch den militärischen Einsatz von KI.

Die fehlende Kommunikation der Unternehmen, der Forscher, sowie der Politik verstärken (Bestätigen) dann diese Besorgnis.

 Xethix: Meist konzentriert sich diese Angst auf „emotionale KI“, diese ist aber nach Meinung vieler Experten noch lange nicht absehbar. Sehen Sie das auch so?

Dr. Sepita Ansari Pir Seraei: Emotionale KI / Emotional Recognition wird bereits z.B. in Chatbots eingesetzt, wo versucht wird, dass der Algorithmus „empathisch“ auf Nutzer reagiert – Letztendlich versucht der Algorithmus dabei nur auf das Verhalten der Menschen zu reagieren – Der Algorithmus hat quasi keine eigene Emotion, sondern „emotionale“ Muster. Zukünftig werden Algorithmen auf anderen Algorithmen treffen, um z.B. ein Friseur-Termin zu vereinbaren – Der Chatbot des Konsumenten macht mit dem Chatbot des Friseursalons einen Termin aus und die Termine werden dann beidseitig ins System gespeichert.

Angst vor emotionale KI oder generell KI ist immer unbegründet, da wir die Technologie für uns (positiv) nutzen sollten.

Xethix: Gehen wir mal von dem Fall aus, dass KI auch emotional agieren kann. Doch Algorithmen können immer nur mit den Informationen agieren, mit der sie befüttert wurden. Wer sollte entscheiden, mit welchen Informationen KI befüllt wird, sollte es hier auch ein „Vier-Augen-Prinzip“ geben?

Dr. Sepita Ansari Pir Seraei: Das ist genau die Gefahr, die auch die Bundesregierung sieht, dass wir in der KI abgeschlagen werden und die Algorithmen durch andere Hände gebaut/gesteuert werden. Erst wenn wir die Technologie (und die technologischen Märkte) beherrschen, können wir auch (ethisch) Einfluss nehmen.

Diese Gefahr ist akut – Wenn wir nicht mittel-/langfristig innerhalb der KI ein Wort mitsprechen, können wir auch nicht entscheiden ob es z.B. nicht immer externen (staatlichen) Zugang zum Algorithmus geben muss, sondern sind den Anweisungen/Regeln der führenden KI-Unternehmen unterworfen.

Xethix: Rein technisch wäre es möglich, Algorithmen per GPS l auf die territorial jeweils geltenden Ethiknormen umzukodieren, um unterschiedliche Wertvorstellungen national durchzusetzen. Zugleich stellte sich aber die Frage, ob und wie es möglich wäre, der Technik einen ethischen Standard zu geben, der global verbindlich sein könnte. Lässt sich dieses Dilemma lösen?

Dr. Sepita Ansari Pir Seraei: Meiner Meinung nach, wenn ich ihre Frage richtig verstanden habe, ist KI immer ein globales Thema. Wenn wir lokal bestimmen, welche Algorithmen per Grenzen laufen sollen, werden diese Gesetze umgangen. Als Beispiel können wir ad1 Amazon schwer vorgeben (und kontrollieren), wie sie innerhalb von Ländergrenzen die Algorithmen steuern  – zudem können wir ad2 auch den Konsumenten schwer vorschreiben, welche Portale er nutzen soll (damit er dann in bestimmte Länder-Algorithmen fällt) – diese Verbote funktionieren nur in einem Rahmen, wo rechtliche, bzw. wirtschaftliche Missstände vorliegen und auch da hat der Nutzer (aktuell) die technische Möglichkeit, diese Vorgaben zu umgehen.

 Xethix: Nach wie vor besteht ja auch die Hoffnung auf die wohlgesinnte KI: Wenn künstliche Intelligenz weit wirkungsvoller als heute Siri, Alexa, Jibo, Cortana und Candid als selbstbestimmter Kommunikationspartner des Menschen auftritt, kann sie diesem die Inputs für ethische Entscheidungen vorgeben?

Dr. Sepita Ansari Pir Seraei: Es gibt bei der künstlichen Intelligenz sehr viele positive Felder (Behandlung von Krankheiten, Autonomes Fahren, Kommunikation, Beratung, Analyse, …), die Konsumenten und Unternehmen die Arbeit erleichtern können und für (gesundheitliche) Wohlfahrt sorgen. Insbesondere die Assistenten werden für viel mehr Freizeit sorgen, da viele Arbeiten zukünftig verbal delegiert werden (Alexa, lass imow den Rasen mähen – OK Google, ich möchte nach Bremen mit meinem Auto, fahr das Auto vor und navigier mich über das nächste Starbucks usw. – Cortana, öffne Word, schreibe Artikel zu Ethik und KI, Überschrift Ethik und KI, erster Absatz: ….).

Problematisch ist immer noch, was mit „meinen“ Daten passieren – wer ist der Besitzer dieser Daten? Meiner Meinung nach, sollte der Besitzer der Daten immer der Konsument sein und wenn er diese an Dritte verkaufen möchte, ist das sein Recht. Aktuell sind die Daten in der Hand der „Datenkraken“, wie Google, Amazon und Facebook und das ist die Gefahr, dass diese Plattformen als zukünftiger Gate-Keeper nicht nur die Daten an Werbungstreibende weiterverkaufen, sondern zukünftig das Leben der Individuen bestimmen, bzw. kommunikativ manipulieren.

 Im Interview: Dr. Sepita Ansari Pir Seraei ist Geschäftsführer der Digital-Marketing Agentur Syzygy. Seit über 15 Jahren beschäftigt er sich mit dem Thema Online Marketing. Er ist Hochschuldozent an der Hochschule München, sowie an der Hochschule Würzburg-Schweinfurt, sowie stellv. Vorsitzender der Fokusgruppe Content-Marketing im Bundesverband Digitaler Wirtschaft (BVDW).  Syzygy ist einer der bekanntesten und besten Digital Marketing Agenturen im deutschen Markt. Von der ganzheitlichen Analyse, über Strategieentwicklung bis hin zur Implementierung stehen wir für maßgeschneiderte Lösungen, Nachhaltigkeit und eine transparente, partnerschaftliche Zusammenarbeit. Wir unterstützen unsere Kunden dabei in allen Phasen des Digitalen Marketings und haben uns insbesondere auf SEO, SEA, Content Marketing, Social Media und Analytics spezialisiert.

 

 

Hinterlasse eine Antwort

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

Du kannst folgende HTML-Tags benutzen: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>