Category Archives: Topstory

Dr. Sepita Ansari Pir Seraei von Syzygy spricht im Interview über Ethik und KI

Dr. Sepita Ansari Pir Seraei ist Geschäftsführer der Digital-Marketing Agentur Syzygy.

Dr. Sepita Ansari Pir Seraei ist Geschäftsführer der Digital-Marketing Agentur Syzygy.

Der Umgang und die Beschäftigung mit Künstlicher Intelligenz gehört zum „daily business“ von Dr. Sepita Ansari Pir Seraei, denn als Geschäftsführer der Digital-Marketing Agentur Syzygy muss er sich mit allen Neuerungen auseinandersetzen, die das Online-Marketing verändern könnten. Im Interview erläutert er seine Position zu diesem oftmals sehr kontrovers gesehenen Thema.

Xethix: Was halten Sie von der KI-Strategie der Bundesregierung?

Dr. Sepita Ansari Pir Seraei: Die Idee der Bundesregierung Forschung, Entwicklung und Anwendung von KI auf ein führendes Niveau zu bringen, ist ein hehres und wichtiges Ziel, da die „Basis-Innovation“ unsere Wirtschaft und unser Leben verändern und verbessern wird. Sollten wir nicht an dieser Innovation partizipieren, werden wir im internationalen Wettbewerb im Bereich der Künstlichen Intelligenz weiterhin keine Rolle spielen und Anschluss an die Amerikanischen und Chinesischen Wirtschaftsunternehmen verlieren (GAFA, Baidu, uvm.) – das gilt übrigens für ganz Europa.

Die „Strategie“ der Bundesregierung liest sich zwar auf dem Papier recht detailliert, doch wird sie keinen größeren Effekt haben, solange die gesellschaftliche Akzeptanz für Daten und für künstliche Intelligenz gefördert wird, denn wie so häufig wurde die Gesellschaft bei dem Thema Künstlicher Intelligenz kommunikativ nicht mitgenommen. Unsere Deutschen Mitbürger haben nicht nur beim Thema KI Bedenken, sondern auch beim wichtigsten Baustein von KI, den Daten, wie viele Studien belegen.

Zudem ist die Infrastruktur für die Nutzung von Daten nicht gegeben und die politisch und medial viel zu heiß gekochte Datenschutzgrundverordnung wird es für kleinere und mittlere Unternehmen noch schwerer machen in dem Bereich der Künstlichen Intelligenz zu innovieren, da die Möglichkeiten der Datennutzung rechtlich erschwert werden und die größeren Netzwerke, wie z.B. Facebook/Instagram, Google/Youtube oder auch Amazon durch den Einwilligungszwang im Wettbewerb zu den deutschen Unternehmen einfacher an Daten herankommen.

Xethix:  Warum haben die Menschen so Angst vor KI?

Dr. Sepita Ansari Pir Seraei: Die Angst vor KI entsteht durch die Sorge, dass die eigenen Jobs zukünftig betroffen sind (und die Jobs unserer Kinder), aber natürlich auch durch den militärischen Einsatz von KI.

Die fehlende Kommunikation der Unternehmen, der Forscher, sowie der Politik verstärken (Bestätigen) dann diese Besorgnis.

 Xethix: Meist konzentriert sich diese Angst auf „emotionale KI“, diese ist aber nach Meinung vieler Experten noch lange nicht absehbar. Sehen Sie das auch so?

Dr. Sepita Ansari Pir Seraei: Emotionale KI / Emotional Recognition wird bereits z.B. in Chatbots eingesetzt, wo versucht wird, dass der Algorithmus „empathisch“ auf Nutzer reagiert – Letztendlich versucht der Algorithmus dabei nur auf das Verhalten der Menschen zu reagieren – Der Algorithmus hat quasi keine eigene Emotion, sondern „emotionale“ Muster. Zukünftig werden Algorithmen auf anderen Algorithmen treffen, um z.B. ein Friseur-Termin zu vereinbaren – Der Chatbot des Konsumenten macht mit dem Chatbot des Friseursalons einen Termin aus und die Termine werden dann beidseitig ins System gespeichert.

Angst vor emotionale KI oder generell KI ist immer unbegründet, da wir die Technologie für uns (positiv) nutzen sollten.

Xethix: Gehen wir mal von dem Fall aus, dass KI auch emotional agieren kann. Doch Algorithmen können immer nur mit den Informationen agieren, mit der sie befüttert wurden. Wer sollte entscheiden, mit welchen Informationen KI befüllt wird, sollte es hier auch ein „Vier-Augen-Prinzip“ geben?

Dr. Sepita Ansari Pir Seraei: Das ist genau die Gefahr, die auch die Bundesregierung sieht, dass wir in der KI abgeschlagen werden und die Algorithmen durch andere Hände gebaut/gesteuert werden. Erst wenn wir die Technologie (und die technologischen Märkte) beherrschen, können wir auch (ethisch) Einfluss nehmen.

Diese Gefahr ist akut – Wenn wir nicht mittel-/langfristig innerhalb der KI ein Wort mitsprechen, können wir auch nicht entscheiden ob es z.B. nicht immer externen (staatlichen) Zugang zum Algorithmus geben muss, sondern sind den Anweisungen/Regeln der führenden KI-Unternehmen unterworfen.

Xethix: Rein technisch wäre es möglich, Algorithmen per GPS l auf die territorial jeweils geltenden Ethiknormen umzukodieren, um unterschiedliche Wertvorstellungen national durchzusetzen. Zugleich stellte sich aber die Frage, ob und wie es möglich wäre, der Technik einen ethischen Standard zu geben, der global verbindlich sein könnte. Lässt sich dieses Dilemma lösen?

Dr. Sepita Ansari Pir Seraei: Meiner Meinung nach, wenn ich ihre Frage richtig verstanden habe, ist KI immer ein globales Thema. Wenn wir lokal bestimmen, welche Algorithmen per Grenzen laufen sollen, werden diese Gesetze umgangen. Als Beispiel können wir ad1 Amazon schwer vorgeben (und kontrollieren), wie sie innerhalb von Ländergrenzen die Algorithmen steuern  – zudem können wir ad2 auch den Konsumenten schwer vorschreiben, welche Portale er nutzen soll (damit er dann in bestimmte Länder-Algorithmen fällt) – diese Verbote funktionieren nur in einem Rahmen, wo rechtliche, bzw. wirtschaftliche Missstände vorliegen und auch da hat der Nutzer (aktuell) die technische Möglichkeit, diese Vorgaben zu umgehen.

 Xethix: Nach wie vor besteht ja auch die Hoffnung auf die wohlgesinnte KI: Wenn künstliche Intelligenz weit wirkungsvoller als heute Siri, Alexa, Jibo, Cortana und Candid als selbstbestimmter Kommunikationspartner des Menschen auftritt, kann sie diesem die Inputs für ethische Entscheidungen vorgeben?

Dr. Sepita Ansari Pir Seraei: Es gibt bei der künstlichen Intelligenz sehr viele positive Felder (Behandlung von Krankheiten, Autonomes Fahren, Kommunikation, Beratung, Analyse, …), die Konsumenten und Unternehmen die Arbeit erleichtern können und für (gesundheitliche) Wohlfahrt sorgen. Insbesondere die Assistenten werden für viel mehr Freizeit sorgen, da viele Arbeiten zukünftig verbal delegiert werden (Alexa, lass imow den Rasen mähen – OK Google, ich möchte nach Bremen mit meinem Auto, fahr das Auto vor und navigier mich über das nächste Starbucks usw. – Cortana, öffne Word, schreibe Artikel zu Ethik und KI, Überschrift Ethik und KI, erster Absatz: ….).

Problematisch ist immer noch, was mit „meinen“ Daten passieren – wer ist der Besitzer dieser Daten? Meiner Meinung nach, sollte der Besitzer der Daten immer der Konsument sein und wenn er diese an Dritte verkaufen möchte, ist das sein Recht. Aktuell sind die Daten in der Hand der „Datenkraken“, wie Google, Amazon und Facebook und das ist die Gefahr, dass diese Plattformen als zukünftiger Gate-Keeper nicht nur die Daten an Werbungstreibende weiterverkaufen, sondern zukünftig das Leben der Individuen bestimmen, bzw. kommunikativ manipulieren.

 Im Interview: Dr. Sepita Ansari Pir Seraei ist Geschäftsführer der Digital-Marketing Agentur Syzygy. Seit über 15 Jahren beschäftigt er sich mit dem Thema Online Marketing. Er ist Hochschuldozent an der Hochschule München, sowie an der Hochschule Würzburg-Schweinfurt, sowie stellv. Vorsitzender der Fokusgruppe Content-Marketing im Bundesverband Digitaler Wirtschaft (BVDW).  Syzygy ist einer der bekanntesten und besten Digital Marketing Agenturen im deutschen Markt. Von der ganzheitlichen Analyse, über Strategieentwicklung bis hin zur Implementierung stehen wir für maßgeschneiderte Lösungen, Nachhaltigkeit und eine transparente, partnerschaftliche Zusammenarbeit. Wir unterstützen unsere Kunden dabei in allen Phasen des Digitalen Marketings und haben uns insbesondere auf SEO, SEA, Content Marketing, Social Media und Analytics spezialisiert.

 

 

Statements zur KI-Strategie der Bundesregierung

Die Gesellschaft für Informatik e.V. (GI) bewertet die „Strategie Künstliche Intelligenz“ der Bundesregierung als einen sehr wichtigen und vielversprechenden ersten Schritt auf dem Weg, Deutschland und Europa zur KI-Weltspitze zu entwickeln.

Gleichwohl schlägt die GI Konkretisierungen im Zuge der Umsetzung deKommunikation_Social_Media_rikilo_Fotoliar Strategie vor, insbesondere bei der interdisziplinären Forschung, bei der Vermeidung militärischer KI-Forschung und bei der Stärkung des akademischen Mittelbaus.

Deutschland und Europa sollen in Zukunft führender Standort für Künstliche Intelligenz (KI) werden.

Dafür hat die Bundesregierung auf der Kabinettssitzung in Potsdam eine „Strategie Künstliche Intelligenz“ beschlossen. Sie will damit einen „Rahmen für eine ganzheitliche politische Gestaltung der weiteren Entwicklung und Anwendung Künstlicher Intelligenz in Deutschland“ setzen. Die Gesellschaft für Informatik e.V. (GI) und der GI-Fachbereich ‚Künstliche Intelligenz‘ (GI-FBKI) als größte nationale, gemeinnützige KI-Organisation in Europa begrüßen diese KI-Strategie, sehen allerdings Konkretisierungsbedarf für deren Umsetzung bei der interdisziplinären Forschung, bei der Vermeidung militärischer KI-Forschung und bei der Stärkung des akademischen Mittelbaus in der KI-Forschung.

Prof. Dr. Hannes Federrath, Präsident der GI: „Die Gesellschaft für Informatik und insbesondere der Fachbereich ‚Künstliche Intelligenz‘ begrüßen die Bestrebung der Bundesregierung sowohl Forschung und Entwicklung als auch Anwendung von KI in Deutschland und Europa auf ein weltweit führendes Niveau zu bringen. Wir unterstützen insbesondere die verantwortungsvolle und am Gemeinwohl orientierte Entwicklung und Nutzung von KI. Die Strategie hat alle wesentlichen Vorschläge aufgenommen, die die GI im Rahmen des Konsultationsprozesses eingebracht hat. Jetzt muss die Bundesregierung schnell in den Umsetzungsmodus kommen und die aufgezeigten Maßnahmen in konkretes Regierungshandeln überführen.“

PD Dr. Matthias Klusch, Sprecher des GI-FBKI: „Wir begrüßen ausdrücklich die Bestrebung der Bundesregierung, die KI in Forschung, Lehre und praktischer Anwendung unter der Bezeichnung „Artificial Intelligence (AI) made in Germany“ signifikant zu fördern. Insbesondere unterstützen wir die Absicht, dass die Förderung auf einer breiten wissenschaftlichen und technologischen Basis unter Berücksichtigung bereits in Deutschland bestehender, exzellenter Kompetenzen in der KI als Ganzes erfolgen soll und nicht auf das KI-Teilgebiet Maschinelles Lernen beschränkt wird. Neben dem Aufbau von weiteren Zentren für KI-Spitzenforschung in Deutschland, mit besonderer Position des Deutschen Forschungszentrums für Künstliche Intelligenz, ist auch eine breitere Förderung von Hochschulen notwendig, um die Exzellenz auch in der Breite und durch optimale Ausbildung von benötigten Fachkräften in der KI zu ermöglichen.

Herausforderungen für die KI-Forschung

Eine der zentralen, künftigen Herausforderungen für die KI-Forschung stellt die Entwicklung von Methoden für eine geeignete Integration von unterschiedlichen KI-Technologien dar, wie die formal-logische Inferenz von Wissen, automatisches Planen oder Lernen mit neuronalen Netzen, das sogenannte ‚Deep Learning‘. Das kann zur Entwicklung von neuen, innovativen KI-Systemen und Anwendungen führen, die in einer realen Umwelt mit und für den Menschen sicher und verständlich nachvollziehbar, situativ optimal lernen, planen und handeln. Dabei sollte sich die KI-Forschung interdisziplinär auch am notwendigen kritischen, gesellschaftlichen Diskurs über Risiken und Chancen ihrer Anwendung und wirtschaftlichen Verwertung in Bereichen wie Industrie und Arbeit 4.0, Gesundheitswesen und autonomes Fahren, aktiv beteiligen – schon allein um überzogen optimistischen oder dystopischen Vorstellungen in diesem Kontext entgegenzuwirken.“

Mehr verantwortungsvolle, interdisziplinäre und keine militärische KI-Forschung

Die GI begrüßt deshalb ausdrücklich auch die Pläne der Bundesregierung zu einer verantwortungsvollen und am Gemeinwohl orientierten Entwicklung und Nutzung von KI und fordert mehr interdisziplinäre Forschung.

Prof. Dr. Christina B. Class, Sprecherin des GI-Fachbereichs ‚Informatik und Gesellschaft‘: „Der zunehmende Einsatz von KI wird nicht nur die Arbeitswelt und Geschäftsbeziehungen verändern, sondern die gesamte Gesellschaft. Daher müssen nicht nur die Sozialpartner, sondern alle betroffenen Gruppen einbezogen werden. Ein sogenanntes ‚Ethics by, in and for design‘ ist nicht ausreichend, um allen Fragen zu begegnen. Forschungsförderung muss sich auch auf interdisziplinäre Fragen beziehen. Die Veränderungen, die auf uns zukommen, müssen in allen Bereichen bewusst gestaltet werden, um die Grundwerte unserer freiheitlich demokratischen Grundordnung zu bewahren. Wir hoffen, dass die Bundesregierung die Strategie um tragfähige Vorhaben in diesen Fragen ergänzt.“

Die Erforschung von KI-Anwendungsmöglichkeiten zum Schutz der äußeren Sicherheit und für militärische Zwecke im Rahmen der Ressortzuständigkeiten sieht die GI äußerst kritisch. So unterstützt der GI-Fachbereich ‚Künstliche Intelligenz‘ die Initiative gegen intelligente, autonome Waffensysteme mit Entscheidungsgewalt zur Tötung von Menschen, sieht darin auch einen weiteren wichtigen Beitrag zu einem möglichen Markenkern der „AI made in Germany“ und fordert eine solche Berücksichtigung in der Konkretisierung der KI-Strategie der Bundesregierung.

Notwendiger Ausbau informatischer Bildung zu KI und in der Breite

Die Bundesregierung will, dass allen Schülerinnen und Schülern, die ab dem Schuljahr 2018/2019 eingeschult werden, bis zum Ende ihrer Schullaufbahn „ein umfassender Kanon digitaler Kompetenzen“ vermittelt wird. Die GI begrüßt diesen Anspruch ausdrücklich. Damit die allgemeinbildende Schule dem jedoch gerecht werden kann, braucht es allerdings mehr als den „Digital-Pakt“, der in erster Linie auf die nötige digitale Infrastruktur abzielt. Der Ausbau der informatischen Bildung, auch aber nicht nur zu Künstlicher Intelligenz, in den allgemeinbildenden und den berufsbildenden Schulen ist einer der wichtigsten Schlüssel für die Zukunftsfähigkeit unseres Landes, da diese Aufgabe nicht von anderen Fächern nebenbei erfüllt werden kann.

Prof. Dr. Torsten Brinda, Sprecher des GI-Fachbereichs ‚Informatik und Ausbildung/ Didaktik der Informatik‘: „Es ist unerlässlich, dass dabei ein wesentliches Augenmerk auf die Informatik als Leitwissenschaft der Digitalisierung gerichtet wird, und dass flächendeckend und verpflichtend alle Schülerinnen und Schüler entsprechende Kompetenzen erwerben. Das ist in der erforderlichen inhaltlichen Tiefe in der Breite fächerintegriert nicht möglich – es erfordert einerseits ein Fach „Informatik“ für alle und andererseits entsprechende Investitionen in die dafür erforderliche Ausbildung von Informatik-Lehrkräften. Der Bund muss den Ländern dafür gezielt Anreize setzen. Nur so können kommende Generationen zu mündigen und verantwortungsvollen Gestaltern des digitalen und gesellschaftlichen Wandels ausgebildet werden.“

Wissenschaftlichen Mittelbau in der KI stärken und Brain-Drain vermeiden

Die KI-Strategie sieht vor, ein Programm zur wissenschaftlichen Nachwuchsförderung und Lehre im Bereich KI aufzulegen; insbesondere sollen 100 KI-Professuren neu geschaffen werden. Das ist sehr zu begrüßen! Dabei ist sehr zu hoffen, dass diese Stellen nicht nur international konkurrenzfähig bestens und permanent ausgestattet werden, sondern auch inhaltlich die KI als Ganzes exzellent abdecken können und sich nicht, wie auf dem aktuellen Stellenmarkt bereits stark tendenziell sichtbar, nur rein auf maschinelles Lernen oder verwandte Felder wie Data Science beschränken.

Ansonsten besteht das sehr hohe Risiko, dass im internationalen Vergleich unser wissenschaftlicher Mittelbau in der deutschen KI-Forschung bereits auf kurze und mittlere Sicht extrem geschwächt wird – und damit auch ein ansteigendes Abwandern von Fachkräften und Experten in der KI ins Ausland („Brain-Drain“) einhergeht. Spitzenforschung braucht einen starken akademischen Mittelbau von Nachwuchswissenschaftlern: Sie sind das Rückgrat deutscher Spitzenforschung und wesentlicher Erfolgsfaktor für den Wissenschafts- und insbesondere den Informatik-Standort Deutschland.

Dr. Kerstin Lenk, Sprecherin des GI-Beirats für den wissenschaftlichen Nachwuchs: „Gerade im akademischen Mittelbau sind die Arbeitsverhältnisse oft prekär. Das ist ein generelles Problem. Um die Abwanderung des hoch qualifizierten wissenschaftlichen Nachwuchses in die Wirtschaft oder das Ausland kurzfristig zu verlangsamen und langfristig zu stoppen, sind konkrete Maßnahmen erforderlich. Befristete Arbeitsverträge, schlechte Arbeitsverhältnisse und Vergütung machen Wissenschaft für viele Nachwuchstalente zur unattraktiven Risikokarriere.“

Die Gesellschaft für Informatik e.V. (GI) ist mit rund 20.000 persönlichen und 250 korporativen Mitgliedern die größte und wichtigste Fachgesellschaft für Informatik im deutschsprachigen Raum und vertritt seit 1969 die Interessen der Informatikerinnen und Informatiker in Wissenschaft, Wirtschaft, öffentlicher Verwaltung, Gesellschaft und Politik. Mit 14 Fachbereichen, über 30 aktiven Regionalgruppen und unzähligen Fachgruppen ist die GI Plattform und Sprachrohr für alle Disziplinen in der Informatik. 

Der GI-Fachbereich ‚Künstliche Intelligenz‘ (GI-FBKI) ist Träger der von der GI geförderten wissenschaftlichen Arbeit auf allen Teilgebieten der Künstlichen Intelligenz. Der Fachbereich veranstaltet eine jährliche Fachtagung KI, auf der insbesondere Arbeiten aus seinen aktuell 11 Fachgruppen und Arbeitskreisen zum Fachgebiet Künstliche Intelligenz vorgestellt werden. Ferner gibt der Fachbereich die Zeitschrift „Künstliche Intelligenz“ im Springer Verlag heraus, die neben fachlichen Aufsätzen zur KI auch über Aktivitäten im Fachbereich berichtet. Der GI-FBKI ist mit über 1.000 Mitgliedern eine der größten und wichtigsten nationalen KI-Verbände in Europa und Teil der europäischen KI-Dachorganisation EurAI (European Association for Artificial Intelligence). Weitere Informationen finden Sie unter www.kuenstliche-intelligenz.de

 „Urbane Logistik: notwendig, möglich, gestaltbar – es braucht Willen zur Gestaltung“

Prof. Dr.-Ing. Thomas Wimmer ist Vorsitzender der Geschäftsführung bei der Bundesvereinigung Logistik e.V. (BVL)

Prof. Dr.-Ing. Thomas Wimmer ist Vorsitzender der Geschäftsführung bei der Bundesvereinigung Logistik e.V. (BVL)

In Deutschland erleben wir einen neuerlichen Trend der Verstädterung. Für Städte bietet sich die Chance, die Lebensqualität ihrer Bürgerinnen und Bürger durch mutige Schritte im Bereich der Urbanen Logistik erheblich zu verbessern. Sie ist ein zunehmend komplexes Handlungsfeld mit vielfältigen Akteuren und Stakeholdern. Eine eindeutige Rollenverteilung ist noch nicht erfolgt. Das Spiel um die Organisation und Ausgestaltung der Urbanen Logistik ist offen. Wir werden in näherer Zukunft interessante Modelle und Veränderungen erleben.

Städtische Infrastruktur ist historisch gesehen verschiedenen Entwicklungsschüben unterworfen gewesen. Eine erste Phase enormer Verstädterung begann in Europa zur Mitte des 19. Jahrhunderts. Einer der wichtigsten Antriebe dafür war die zunehmende Industrialisierung, die zu explosionsartigem Zuzug von arbeitsuchender Landbevölkerung führte.

Die bestehende Infrastruktur – Wohnungsbau, Verkehrswege, Versorgungsleitungen und vieles mehr – war hierfür nicht ausgelegt. Die aus Wachstum und Verdichtung der Städte als soziale Frage definierte Not großer Teile der städtischen Bevölkerung führte zu einer Reihe technischer und infrastruktureller Innovationen, insbesondere im Bereich Wasserversorgung und Kanalisation.

Der Bau großer Mietskasernen erforderte zudem deren Versorgung mit Energie, zunächst mit Kohle, später mit Gas und Strom (aus Verbrennung von Kohle). Die Anlieferung erforderte Eisenbahn- und/oder Wasserwege. Hieraus resultierte häufig eine Verschiebung der Stadtgrenzen nach außen. Die Städte wuchsen weiter, benötigten aber Nahverkehrsstrukturen, um Arbeiterinnen und Arbeiter über zum Teil lange Distanzen zu den immer öfter außerhalb des Stadtzentrums gelegenen Fabriken transportieren zu können.

Im Jahr 2005 lebten weltweit ca. 49 Prozent der Bevölkerung in Städten. Bis zum Jahr 2030 könnte dieser Anteil auf 60 Prozent steigen. In Deutschland erleben wir nach der Periode einer Suburbanisierung in der zweiten Hälfte des 20. Jahrhunderts seit einigen Jahren einen neuerlichen Trend zur Land-Stadt-Wanderung.

Laut jüngeren Prognosen wird in Deutschland der in Städten lebende Bevölkerungsanteil von derzeit gut 77 Prozent auf 78,6 Prozent im Jahr 2030 ansteigen und bis 2050 auf gut 84 Prozent wachsen. Auch Familien mit Kindern zieht es häufiger als früher in die Stadt beziehungsweise sie wandern nicht mehr ins Umland ab.

Der neuerliche Trend zum Wohnen in der Stadt lässt diese bereits jetzt spürbar wachsen. Verkehrsdichte und Wohnkosten sind Teil der aktuellen politischen Debatte.

Waren im 19. und 20. Jahrhundert infrastrukturelle Innovationen häufig in Neubaugebieten zu realisieren oder ließen sich vergleichsweise einfach in bestehende Strukturen integrieren, stellt die heutige Verdichtung bestehender städtischer Strukturen Verkehrs- und Stadtplaner sowie andere Akteure vor anders gelagerte Herausforderungen. Darüber hinaus hat sich die Gesetzgebung zu Planung und Realisierung von Infrastrukturprojekten gewandelt. Es ist nicht mehr mit einem am Reißbrett entworfenen „Masterplan fits it all“ getan.

Die Versorgung bereits bestehender Stadtteile als auch neuer Quartiere und ihrer Bewohner mit Gütern kann nur durch eine leistungsfähige Logistik erfolgen. Dennoch fehlt in der Wissenschaft wie auch in Politik und Verwaltung häufig Einsicht oder die Bereitschaft, Güterverkehre und Logistik als Eigenschaft und notwendige Voraussetzung städtischen Daseins zu verstehen und integriert zu berücksichtigen (Schwedes, Rammler; 2012; Mobile Cities).

Es sind gleichwohl Städte und Gemeinden selbst, denen aufgrund ihres Selbstverwaltungsrechts „unterhalb“ der staatlichen Ebene eine wichtige Akteursqualität in der Ausgestaltung der Urbanen Logistik zufällt. Laut Grundgesetz ist ihnen die Regelung der „örtlichen Angelegenheiten“ überlassen.

Zugleich entscheiden aber Bundes- und Landesverwaltungen über den Rahmen der kommunalen Aufgaben und Kompetenzen sowie ihre finanzielle Mittelausstattung. Bei zentralen Planungs- und Investitionsentscheidungen sprechen die Bundesländer ebenfalls ein gewichtiges Wort mit. Bundesgesetze sind dabei in erheblichem Maße zu berücksichtigen (vgl. Jungfer 2005 und Bogumil/Holtkamp 2006).

Stadtbewohner denken bei Verkehrsströmen in ihrem Umfeld zuweilen an den (eigenen) Individual- oder öffentlichen Nahverkehr.

Diese sind tendenziell positiv konnotiert. Lieferwagen, Lkws in Werks- und Versorgungsverkehren werden hingegen als eher störend empfunden. Der (Güterverkehrs-)Logistik wird demnach in der Stadt eine Rolle zugeschrieben, wie sie vor einigen Jahrzehnten in den Betrieben und der Betriebswirtschaft wahrgenommen wurde: Sie wird als selbstverständlich gegeben und als Teil eines größeren Systems akzeptiert und als etwas lästig empfunden – sofern überhaupt wahrgenommen.

Die Wahrnehmung änderte sich radikal in den vergangenen rund 40 Jahren. Gegenwärtig wird Logistik meistens als eigenständiger und zentraler Bestandteil der Wertschöpfungskette betrachtet. Auf dem Gebiet der städtischen Logistik stellen Firmen und Forscher bereits heute Lösungsansätze für eine Urbane Mobilität der Zukunft bereit.

Beispiel: Das Fraunhofer IML zeigt mit seinem Projekt GeNaLog zur geräuscharmen Nachtlogistik, dass die Umsetzung von Nachtbelieferungen gelingen und so zur Entlastung des Tagverkehrs beitragen kann. Hürden für eine konsequente Nutzung stellen unter anderem fehlende Einfahrerlaubnisse, Regelungen zur Geräuschemission und meist nicht optimierte Ladungsträger dar.

Darüber hinaus erproben eine Vielzahl von Start-ups wie auch bekannte Dienstleister aus der Paketzustellung neue Modelle der Warenbeförderung. Fahrzeuge der Sprinter-Klasse etwa werden durch Lastenfahrräder in verschiedenen Formen ersetzt. Diese Marktoffenheit ermöglicht es Start-ups, mit unterschiedlichen Konzepten und Geschäftsmodellen in den Wettbewerb zur Gestaltung zukünftiger Stadtlogistik einzutreten (Rytle, Kitcar u.a.).

Bekannt sind auch völlig neu konzipierte Lieferwagen mit Elektroantrieb, die gegenüber einem Lastenrad mehr Volumen transportieren und vor Ort weniger Lärm und Abgas produzieren als herkömmlich motorisierte Wagen.

Alle hier gewählten Beispiele zeigen, dass auf technischer Seite Fortschritte gemacht wurden. Viele Initiativen und technische Innovationen stoßen gleichwohl an Grenzen: Wenn sie zwar mit den Städten in deren gegenwärtigem Ist-Zustand arbeiten können und auf freien Flächen vor allem Wohn- und Büroquartiere entstehen, gleichzeitig aber keine „Räume städtischer Logistik“ vorgehalten werden. Logistiker liefern also bereits jetzt Innovationsangebote für eine Urbane Logistik, die aber in den Städten häufig noch nicht ausreichend mitgedacht wird.

Logistische Lösungen benötigen eine zeitgemäße Infrastruktur.

Dazu gehören Rad(schnell)wege, flexible Einfuhr- und Belieferungsbestimmungen, Entzerrung der Verkehre und vor allem ein abgestimmtes Mobilitätskonzept, das unbedingt auch städtische Logistik als eigene Betrachtungsgröße integriert. Jede Bürgerin, jeder Bürger einer Stadt ist auf die ein oder andere Weise zugleich Mobilitätsteilnehmer. Die Logistikorganisation in der Stadt wird sich stets an der existierenden Infrastruktur orientieren.

Gibt es reichlich auf Individualverkehre ausgelegte Verkehrswege, ist deren Mitbenutzung durch Lieferverkehre mit 3,5t-Fahrzeugen der Sprinter-Klasse die logische Folge. Als Alternative zum Status quo gilt eine Ausrichtung auf einen größeren Verkehrsmittelmix. Ein größerer Anteil von Kollektivverkehren würde eine neue Gestaltung von Urbanen Räumen ermöglichen und böte Logistikern einen Rahmen, um eine Stadt im Sinne der dort lebenden Bürger aufzuwerten. Dazu gehören auch Flächen für die städtische Logistik zur Gestaltung von Prozessen des Waren-Handling.

Bisher ist die Logistik als Neuansiedlung bis auf wenige, sehr kostspielige Ausnahmen (Abrechnung für Logistikimmobilien derzeit als Mietpreis je qm in zentralen Lagen – Wasserwerke zahlen keinen Mietpreis) am Stadtrand oder gar im Umland beschränkt.

Ein ausgeprägtes Bewusstsein für die Funktion von Logistik in der Stadt fehlt bei allen Akteuren (Bewohnern, Handel, Politik, Verwaltung etc.). In Initiativen für die Stärkung des städtischen Einzelhandels wird eine täglich mehrfach erfolgende Belieferung als Stand der Dinge erwartet, die Anlieferung aus einem entfernten Logistikzentrum bleibt jedoch verpönt. Die bigott anmutende Diskussion kreist somit um extrem hohes Straßenverkehrsaufkommen aufgrund umfänglicher Touren aus dem Umland und der gleichzeitigen Verneinung bzw. Nicht-Diskussion von innerstädtischen Lager- und Umschlagsflächen.

Diese wären eine Grundlage für die Umsetzung verkehrsberuhigter Anlieferungen. Hier entstehende Arbeitsplätze lägen zudem dichter an Wohngebieten. Reduziertes Pendeln würde außerdem verkehrsentlastend wirken und vor allem Emissionen einsparen. Die Logistik kann ihre Lösungen nur innerhalb der gesetzten Rahmenbedingungen anbieten und ist somit auf die Zusammenarbeit mit anderen Wirtschaftsbereichen, Verwaltung und Politik angewiesen.

Offensichtlich ist also das Thema der Gestaltung Urbaner Logistik kein rein wirtschaftliches Thema – das sollte und darf es nicht sein! Die verschiedenen Akteure bzw. Stakeholder einer Stadt sind gleichwohl derzeit noch nicht ausreichend, geschweige denn vollumfänglich erfasst. Zu den Stakeholdern zählen etwa der Einzelhandel, Gastronomen (insb. mit Außenbereichen), Logistikdienstleister, Wirtschaftsförderer, Stadtplaner, Quartiersmanager, Bürger, Immobilienentwickler und andere.

Eindeutige Rollenbeschreibungen fehlen sehr häufig, viele Akteure handeln in mehreren Rollen. Trennt die klassische Logistik zwischen Verlader, Transporteur und Empfänger ist die Urbane Logistik deutlich vielschichtiger. Mit Ansätzen wie dem Engagement von Kunden als Transporteuren werden Grenzen zwischen Stakeholdern zusätzlich verwischt.

Die Wünsche von End- und Geschäftskunden werden zudem anspruchsvoller: Die Ware soll schnell verfügbar, ökologisch sauber transportiert sein und unter als fair wahrgenommenen Arbeitsbedingungen geliefert werden. Gleichzeitig verhalten sich Kunden höchst preissensibel bei Lieferkosten. Sie erhöhen so den Kostendruck auf Logistikdienstleister und beklagen den „Wilden Westen“ des innerstädtischen Verkehrs – Staus, Emissionen, zugeparkte Wege und Einfahrten, fehlende Belieferungskonzepte etc.

Das Thema Wohnen überwiegt zudem in den Agenden der meisten größeren und mittelgroßen Städte und ihrer Bürger. Politischen Willen bzw. die Initiierung eines Willensbildungsprozesses kann die Logistik erfolgreich alleine kaum erwirken, ohne in den Verdacht zu geraten, Partikularinteressen zu verfolgen. Aufgrund ihres bisher hohen Flächenverbrauchs wird sie klassisch mit Fahrzeugen und Hallen zudem schnell als lästig, teuer oder als für das Stadtbild unattraktiv abqualifiziert. Es geht gleichwohl um mehr Imagebildung!

Deswegen benötigt es politische Initiative: Hier sei beispielhaft auf die knapp 30.000 Einwohner zählende Stadt Bad Hersfeld verwiesen, die eine neue Form der Innenstadtbelieferung definierte. Verwaltungsseitig gibt sie den Logistikern den Raum, innerhalb exakter Vorgaben die neuen Lieferkonzepte wirtschaftlich tragbar auszugestalten. Ein Hub außerhalb der Innenstadt dient als Anlieferungs- und Umschlagspunkt, von ihm erfolgt zentral und gebündelt die Auslieferung an die Privat- und Geschäftskunden in der Fußgängerzone.

Die gebündelten Transporte sollen den Verkehr in der Fußgängerzone reduzieren und somit Konflikte zwischen Transporteuren, Anliegern, Ordnungsamt und Fußgängern drastisch reduzieren helfen. In die gleiche Richtung weist die Initiierung von Mini-Depots, an die sich Kunden der Geschäfte ihre Einkäufe liefern lassen können, um sie dort gebündelt abzuholen oder sie von dort nach Hause liefern zu lassen. Das Beispiel zeigt auf, dass es also nicht um schlichte Lieferzeitbeschränkungen geht, sondern um die Entwicklung und Möglichmachung von alternativen Konzepten.

Fazit: Aufgrund geänderter Ansprüche und Konsumgewohnheiten, Umweltschutzgedanken und weiterer Urbanisierung der Gesellschaft herrscht erneut Handlungsbedarf für einen Entwicklungsschub in der Organisation und Ausgestaltung städtischer Mobilität und Logistik. Die Herausforderungen waren auch im 19. Jahrhundert nicht klein. Eine konsequente Nutzung vorhandener technischer

Autor: Prof. Dr.-Ing. Thomas Wimmer, Vorsitzender der Geschäftsführung; Christoph Meyer, Leiter Forschung und Veranstaltungen; Sebastian Huster, Projektmanager, Bundesvereinigung Logistik e.V. (BVL). Prof. Dr. Thomas Wimmer ist Referent in der EXCHAiNGE-Session ”Start-ups, Corporates or Customers: Who is actually doing the Innovation?” am 20.11.2018 (Hypermotion-Lab | Ausstellungsbereich Halle 5.1)

 

Mit Sicherheit auf dem Weg in die Plattformökonomie

Bildquelle: Fotolia_146248266_M

Bildquelle: Fotolia_146248266_M

Wenngleich in den Diskussionen rund um das Thema Plattformökonomie der Fokus zumeist auf die Geschäftsmodelle gelegt wird, gibt es mittlerweile vermehrt Jene, die eine Technologiebetrachtung als bedeutender erachten.

Auch bei der Beurteilung von Chancen und Risiken herrscht keine Einigkeit – während von einigen Experten die Plattformökonomie als das probate Mittel im globalen Wettbewerb ausgewiesen wird, sehen andere wie etwa Prof. Lutz Becker, Leiter der Business School und Studiendekan Sustainable Marketing & Leadership an der Hochschule Fresenius, Köln hier gleichwohl Probleme.

So vertritt er unter anderem die Auffassung, dass „Plattformen aufgrund ihrer Marktmacht die Wirtschaftsverfassung unterhöhlen“. Ebenso müsse hinterfragt werden, wie die zunehmende Komplexität noch kontrollierbar sei. Eine Frage, die – im Sinne der Resilienz – definitiv auch im Kontext der notwendigen Sicherheit zu stellen ist. „Denn festzuhalten ist, dass die Plattformökonomie Angebot und Nachfrage datenbasiert zusammenbringt“, so Bernd Fuhlert, Experte für Datenschutz und Online Reputation Management sowie Geschäftsführer der @-yet GmbH

Bezüglich des digitalen Durchdringungsgrads und einer daraus resultierenden Effizienzsteigerung gibt es momentan bei deutschen Unternehmen kaum ein einheitliches Bild. Die eher zögerliche Haltung liegt teilweise darin begründet, dass sich vielfach – basierend auf dem bestehenden Geschäftsmodell – noch kein strategischer Ansatz für ein neues, disruptives entwickeln ließ; sowie damit einhergehend auch, dass sich aus den bisherigen Aktivitäten in Richtung digitale Transformation, gemäß den Ergebnissen einer aktuellen Lünendonk-Studie, momentan nur wenig Wettbewerbsvorteile ergeben.

Gleichwohl werden jedoch bereits weitere programmatische Schritte unternommen: die Etablierung digitaler Plattformen im industriellen Umfeld. Diese Entwicklung ist erklärbar, denn zum einen ist eine gewisse Dringlichkeit nicht zuletzt aus dem Grund geboten, weil sich hier, anders als im Konsumentenbereich, noch keine Vormachtstellung internationaler Unternehmen herausgebildet hat.

Zum anderen sind Grundprinzip und Erfolgsrezept der bekannten Unternehmen wie Amazon oder Airbnb relativ gut reproduzierbar – mehrseitige Plattformen erleichtern im erheblichen Maße Interaktion und Transaktion zwischen unterschiedlichen Parteien.

Doch über den Erfolg wird bei den industriellen Plattformen auch, weitaus mehr als im Konsumentenbereich, die Gewährleistung der Sicherheit entscheiden. Nicht zuletzt unter dem Aspekt, dass „Wirtschaftsspionage seit jeher einer der Schwerpunkte der Ausspähungsaktivitäten fremder Nachrichtendienste ist“ wie Michael George, Leiter Cyber-Allianz-Zentrum, Bayerisches Landesamt für Verfassungsschutz erklärt.

 Mögliche Angriffsziele

Die grundsätzliche Betrachtung von Plattformen erfasst zwei Dimensionen: die wirtschaftliche sowie die technologische. Gemäß letzterer basiert die Plattformökonomie unter anderem im ersten Schritt auf dem Zusammenwachsen von Informationstechnologie (IT) mit der Operational Technologie (OT) auf dem Shop Floor. Denn dies ermöglicht, im Rahmen von Industrie 4.0 die Vernetzung einzelner Unternehmensebenen sowie eine unternehmensübergreifende Vernetzung mit Kunden und Lieferanten.

Im Weiteren ergeben sich dann, aus der vertikalen und horizontalen Integration auf der einen Seite, in Verbindung mit Plattformtechnologien wie Infrastructure as a Service (IaaS) auf der anderen Seite die Voraussetzungen für neue Geschäftsmodelle, da dadurch die Einsetzbarkeit zur Interaktionen sowie Transaktionen mit vielen unterschiedlichen Marktteilnehmern besteht. Hierin liegen jedoch nicht nur Chancen sondern auch Risiken. Denn, so die Erfahrung von Michael George, „Angriffe sind umso erfolgreicher, je zielgerichteter sie ausgeübt werden können“. Aus diesem Grund optimieren Angreifer ihre Methoden beständig.

So beobachtet der Experte momentan, dass die so genannte Watering-Hole-Attacke vermehrt zum Einsatz kommt. Diese basiert – entlehnt aus dem Tierreich in der Wüste – auf der Annahme, dass es bestimmte Portale, Plattformen oder Systeme gibt, die viele Anwender mit hoher Wahrscheinlichkeit oft aufsuchen müssen.

Dem Gedanken aus der Tierwelt folgend, werden Anwender also nicht direkt angegriffen, sondern das von ihnen zwangsläufig genutzte ‚Wasserloch’ infiziert, da dies weitaus effizienter und wirkungsvoller ist. In der Praxis wurden entsprechende Angriffe zum Beispiel auf Unternehmen aus dem Energiesektor durchgeführt – unter anderem indem die Webseiten eines Anbieters unter Ausnutzung einer Sicherheitslücke dergestalt manipuliert wurden, dass Rechner von Besuchern hinterher mit Schadsoftware in Form eines Fernsteuerungs-Trojaners (RAT) infiziert waren.

Zudem werden permanent gravierende Schwachstellen publik gemacht: Beispielsweise aktuell die Sicherheitslücken Spectre und Meltdown – letzterer in erster Linie detektiert bei Prozessoren von Intel – aus denen sich verschiedene Zugriffsmöglichkeiten, wie etwa das Auslesen von Speichern, ergeben. Auch wenn sich nach Ansicht von Prof. Becker ein Angriff über Spectre keinesfalls leicht realisieren lässt, so geht er doch davon aus, dass diese Lücke ausgenutzt wird „weil sich ein erhöhter Aufwand immer lohnt, wenn mit einer einzigen Attacke viel erreicht werden kann“. Zusätzlich gefährdet seien Unternehmen auch, da oftmals noch – gerade im Produktionsumfeld – veraltete Hard- und Software vorzufinden ist, die per se nicht mehr den erforderlichen Sicherheitsstandards entsprechen kann. „Insgesamt gesehen stellt“, so Bernd Fuhlert, „also Digitalisierung ohne IT-Sicherheit im Fokus klar erkennbar ein unkalkulierbares Risiko für Verbraucher und Unternehmen dar.“

Der richtige Schutz

Im Zuge von Industrie 4.0 ist es nicht mehr möglich, ein Unternehmen nach außen komplett abzuschotten, da dies dem Prinzip der notwendigen durchgängigen Kommunikation und Interaktion widerspricht. Von daher nutzt es nach Ansicht von Michael George nur wenig, sich darauf zu fokussieren alle internen Schnittstellen wie USB-Ports und DVD-Laufwerke abzusichern, während zwangsläufig durchlässige Übergänge zum Internet bestehen. Aber da auch die herkömmliche Perimeter-Sicherheit, mittels derer die Übergänge zwischen Unternehmensnetzwerk und Internet geschützt werden sollen, nicht mehr ausreichen, müssen Unternehmen generell umdenken.

Seit 2016 ist Bernd Fuhlert Geschäftsführer der @yet GmbH.

Seit 2016 ist Bernd Fuhlert Geschäftsführer der @yet GmbH.

Folglich sollte, nach Meinung von Fuhlert und George, die Grundlage der Abwehrstrategie die Annahme bildet, dass „es ein Angreifer erfolgreich schafft, bis ins interne Unternehmensnetzwerk vorzudringen“. Dass dieser Gedanke substanziell ist, darin sind sich beide Experten einig. Denn daraus lässt sich ableiten, dass die Durchführung geeigneter Gegenmaßnahmen darauf basieren, den Angreifer möglichst zeitnah zu identifizieren. Wobei dies wiederum nicht so zu verstehen sei, dass Unternehmen dem Aufdecken und Absichern von Schwachstellen keine oder nur wenig Bedeutung mehr beimessen sollten.

Ein weiterer wesentlicher Ansatz – gerade im Kontext der Plattformökonomie – ist nach Meinung von George der Austausch von Angriffsmethoden und Erfahrungswerten zwischen den Unternehmen über eine neutrale Plattform. Dies sei von daher sinnvoll, da somit schnellstmöglich und effizient nach Lösungsmöglichkeiten zur Ab- und Gegenwehr gesucht werden könne.

Plattformen – mehr mögliche Risiken

Lutz Becker, selbst viele Jahre in der IT-Industrie tätig, sieht jedoch im Kontext der Plattformökonomie nicht nur Risiken im Bereich der IT-Sicherheit, sondern vorrangig angesichts ökonomischer Aspekte. Plattformen können seines Erachtens nicht nur eine wirtschaftliche Marktmacht entfalten, wie es heute bei Google, Apple, Facebook oder Amazon sichtbar wird, sondern auch Auswirkungen auf ganze Marktsegmenten, etwa dem Tourismus, haben. Denn sie substituieren wichtige Funktionen des Marktes und hebeln damit unter Umständen dessen Freiheit aus. „Ludwig Erhard hat das Wettbewerbsrecht völlig zurecht als Wirtschaftsverfassung bezeichnet“, so Becker, „wir beobachten aber im Moment, dass dieses Recht, nicht den tatsächlichen Gegebenheiten der Digitalen Welt gerecht wird, also so gesehen, ein zahnloser Tiger ist. Was wir also benötigen ist eine neue Wettbewerbsordnung für die digitale Welt.“

Für ihn steht vor allem dabei die Frage der Resilienz im Mittelpunkt. Plattformen legen die Spielregeln der Märkte fest haben und haben damit immer auch eine Gate-Keeper-Funktion. Das macht sie einerseits effizient, aber andererseits anfällig. Märkte hingegen, in denen sich die Spielregeln und Austauschbeziehungen im Zusammenspiel der vielen unabhängigen Marktteilnehmern entwickeln, sind deutlich resilienter, aber eben nicht so effizient. Folglich liegt für ihn die Wahrheit in der Mitte.

Fazit

Allein aufgrund der steigenden Komplexität sowie im Sinne der Resilienz gilt es Maßnahmen und Methoden zum Schutz gegen Angriffe neu zu überdenken.

Damit einhergehen muss unter anderem das Clustern in Sicherheitsbereiche, was – heruntergebrochen auf die Unternehmen – ein ganzheitliches Risikomanagement erfordert. Für den Entwurf der weiteren Strategie zur Absicherung bedarf es hier, so Fuhlert, dann „erst einmal, das wertvolle unternehmensinterne Know-how zu identifizieren und im nächsten Schritt zu definieren, wie sich dieses mit entsprechenden Lösungen schützen lässt“. Dafür sollten die bekannten Maßnahmen wie Patch-Management oder Segmentierung der Netzwerkbereiche – auch wenn sie natürlich kein Allheilmittel sind – zum Einsatz kommen, denn diese bieten die Grundlage für ein gutes Schutzniveau. Aber entscheidend aus Sicht von Bernd Fuhlert ist ferner, dass „die Politik für die Plattformökonomie einen Ordnungsrahmen setzen muss, damit Sicherheit endlich den richtigen Stellenwert bekommt und nicht blind digitalisiert wird“. Zudem sollte hierüber auch ermöglicht werden, global faire Spielregeln für alle – kleine nationale ebenso wie multinationale – Unternehmen zu gewährleisten, um eine Benachteiligung aufgrund individueller Gesetzgebungen auszuschließen.

Coester_Ulla_2016

Ulla Coester, xethix.com/xethix-Diskurs®, Dozentin Hochschule Fresenius und wissenschaftliche Mitarbeiterin skip. Institut für angewandte digitale Visualisierung e.V an der Hochschule Fresenius

Dieser Artikel erschien in verkürzter Form in der IT&Production, Ausgabe März 2018, Teo Verlag GmbH (Seite 74/75)

Sharewashing“ unterspült Kultur des Teilens

ShareconomyDie aufstrebende Sharing Economy des Internets hat ein Image-Problem: Wenn Werte wie Kooperation und Nachhaltigkeit auch von traditionell profitorientierten Plattformen reklamiert werden, bewirkt das Verunsicherung und Distanz gegenüber der gesamten Branche. Diesen Effekt des so genannten Sharewashing haben Forscher des Karlsruher Instituts für Technologie (KIT) in einer umfragebasierten, im Online-Journal Sustainability veröffentlichten Studie erstmals belegt.

Das elementare Prinzip des Teilens verbindet Gemeinschaften

Das elementare Prinzip des Teilens verbindet Gemeinschaften und trägt dazu bei, Ressourcen sinnvoll zu nutzen. Auf Internet-Plattformen ist Teilen zum Ausgangspunkt neuartiger Geschäftsmodelle geworden. Die aufstrebende, sich ausdifferenzierende „Sharing Economy“ läuft jedoch Gefahr, das Grundvertrauen ihrer Nutzerinnen und Nutzer im Marketing-Nebel einflussreicher Trittbrettfahrer zu verlieren.

„Auch eher kommerziell orientierte Plattformen wie Uber oder Airbnb haben sich in ihrem Marketing positiv besetzte Sharing-Werte wie Kooperation und Nachhaltigkeit auf die Fahnen geschrieben“, stellt Florian Hawlitschek vom Institut für Informationswirtschaft und Marketing (IISM) des KIT fest. Wie die Wahrnehmung dieses als Sharewashing bekannten Phänomens die Nutzer von Peer-to-Peer-Sharing-Plattformen beeinflusst, hat ein Team von IISM-Forschern nun erstmals empirisch untersucht.

In einer systematischen Befragung von 145 jungen, internetaffinen Verbraucherinnen und Verbrauchern konnten die Wissenschaftler zeigen, dass Sharewashing dort, wo Nutzer darauf aufmerksam werden, häufig entweder Verwirrung bewirkt – im Hinblick auf positive und negative Effekte der Plattformnutzung – oder das Gefühl, unabsehbare soziale und ökologische Risiken einzugehen. „Der damit einhergehende Vertrauensschwund“, erläutert Co-Autor Professor Timm Teubner von der Technischen Universität Berlin, „gilt zunächst dem Betreiber der jeweiligen Plattform. Mittelbar beschädigt er jedoch die gesamte Sharing Economy und die sie auszeichnende Kultur des Teilens.“

Dieser Befund ist brisant, insofern Vertrauen als Schlüsselfaktor für das Teilen beziehungsweise die gemeinsame Nutzung von, zum Beispiel, Autos, Wohnungen und Lebensmitteln gilt. „Für Betreiber von Plattformen und Geschäftsmodellen, die in der öffentlichen Wahrnehmung mit dem Sharing-Begriff assoziiert werden, ist es deshalb wichtig, die von uns beschriebenen Zusammenhänge und Mechanismen zu beachten und in ihre Corporate Social Responsibility-Strategien einzubeziehen“, sagt Florian Hawlitschek, Hauptautor der Studie. Zugleich, betont Hawlitschek, müsse die Selbstdarstellung von Unternehmen, die auf Teilen tatsächlich gar nicht angelegt sind, „nicht raffinierter werden, sondern ehrlicher“.

Corporate Social Responsibility-Strategie

Die Studie baut auf der durch die Goldmedia-Gruppe ausgezeichneten Bachelor-Arbeit von Patrick Tu sowie auf einem Konferenzbeitrag der Autoren beim 4th International Workshop on the Sharing Economy, in Lund, Sweden, auf.

 Sharewashing

Der englische Begriff „Sharewashing“ – eine Verbindung von „to share“ (teilen) und „to whitewash“ (beschönigen) – existiert erst seit wenigen Jahren. Der Begriff gilt als Analogiebildung zu dem seit den frühen 1990-er Jahren gebräuchlichen „Greenwashing“, welches die Marketing-Aktivitäten von Unternehmen (etwa Ölfirmen) bezeichnet, sich, in Kontrast zu ihrem tatsächlichen Geschäftsgebaren, ein „grünes“, d. h. umweltbewusstes und nachhaltigkeitsorientiertes, Image aufzubauen.

Sharewashing bezeichnet eine ganz ähnliche Art der Verbrauchertäuschung, jedoch im Kontext der digitalen Plattform-Ökonomie: Unternehmen bzw. Plattformbetreiber betreiben Sharewashing, wenn sie sich als Teil der idealistisch grundierten, sozial und ökologisch ausgerichteten Sharing Economy präsentieren, während ihr tatsächliches Geschäftsmodell schlicht auf Profit abzielt.

Warum künstliche Intelligenz Wissen und Regulierung braucht

Wolf Ingomar Faecks ist Senior Vice President und Industry Lead Automotive/Mobility/Manufacturing/Health bei  Publicis.Sapient EMEA/APAC.

Wolf Ingomar Faecks ist Senior Vice President und Industry Lead Automotive/Mobility/Manufacturing/Health bei Publicis.Sapient EMEA/APAC.

Noch ein Beitrag über die Möglichkeiten der Künstlichen Intelligenz? Oder eher einer über deren Risiken? Wolf Ingomar Faecks, im Management einer Digitalberatung, plädiert dafür, den Menschen klar zu machen, dass Künstliche Intelligenz dem Menschen das Denken nicht abnehmen kann und darf.

Das Hype-Thema „Künstliche Intelligenz“ (KI) besteht aus zwei Bestandteilen: „Künstlich“ und „Intelligenz“. Wie diese beiden Bestandteile derzeit in der medialen Berichterstattung durcheinandergemischt werden, reicht von kritikloser Bewunderung über sehr gemischte Gefühle bis hin zu kategorischer Ablehnung.

Wolf Ingomar Faecks, Senior Vice President und Industry Lead Automotive/Mobility/Manufacturing/Health, Publicis.Sapient EMEA/APAC, ist Experte für die digitale Business Transformation der Publicis Groupe. Er befasst sich seit Jahren mit den unterschiedlichen Facetten der KI. Im Interview erzählt er, warum die so genannten Clarke‘schen Gesetze* und insbesondere die These, dass „jede hinreichend fortschrittliche Technologie nicht von Magie zu unterscheiden sei“, so gut zu Künstlicher Intelligenz passen und warum KI zum Denken anregen sollte.

 Xethix: Die Geschwindigkeit in der technologischen Weiterentwicklung hat zugenommen und eine Regulierung findet meist erst dann statt, wenn etwas passiert ist. So werden Ängste geschürt. Wie ließe sich das besser machen?

Faecks: Nicht nur die Geschwindigkeit der technologischen Entwicklung nimmt zu. In immer kürzerer Zeit wird eine steigende Masse an Informationen produziert und verbreitet. Doch ein Mensch kann nur linear denken, nicht exponentiell. Das würden die Menschen aber sehr gern. Deswegen unterliegen viele der Fehleinschätzung, dass sie in exponentiellen Umfeldern mehr Zeit haben, alle diese Informationen aufzunehmen – und ihnen auch generell mehr Zeit zur Verfügung steht. Das stimmt aber nicht und so entsteht ein Informations-Gap zwischen Fakten, tatsächlichem Wissen und gefühltem Wissen. Daher laufen heute viele Personen Gefahr, Falschinformationen aufzusitzen. Und das ist dann wiederum die Ursache, warum so viele beim Thema Künstliche Intelligenz so diffuse Ängste verspüren.

Xethix: Der Informatiker und Philosoph Jaron Lanier hat in seinem neuen Buch die These formuliert, dass die Bösen keine Angst vor dem Einsatz von Künstlicher Intelligenz haben und fordert deswegen auch eine Regulierung, um die Guten zu schützen.

Faecks: Hier kommt das so genannte Clarke‘sche Gesetz ins Spiel, die Unterscheidung von Technologie und Magie. Wenn man zu viel über die Risiken redet, dann haben die Guten Angst, innovative Technologien einzusetzen, weil sie sie nicht verstehen. Doch das Problem ist nicht die Technologie, sondern eher, dass der Algorithmus mit den falschen Daten gefüttert wird.

Ein Algorithmus braucht ein Verständnis für das, was zwischen Input und Output passiert. Wenn ich nicht weiß, was die Maschine entscheidet, dann kann sie den Menschen nicht ersetzen. Der Mensch hat dann die Möglichkeit abzuwägen. Deswegen bevorzuge ich auch eher den Begriff Intelligent Augmentation (IA), statt Artificial Intelligence (AI). Maschinen können Prozesse dank vieler Informationen besser automatisieren und die Arbeit des Menschen ergänzen, eine echte eigene Denkleistung können sie nicht hervorbringen.

Jaron Lanier hat auch die These formuliert, dass sich schlechte Nachrichten mehr und schneller verbreiten. Daher müssen diejenigen, die Nachrichten verbreiten, auch besonders sorgfältig damit umgehen und benötigen Regulierungen. Regulierung per se ist nichts Schlimmes. Sie hilft dabei, ethischer zu handeln. Das gilt natürlich auch für den Umgang mit Künstlicher Intelligenz.

Xethix: Google hat 7 Prinzipien zum Umgang mit Künstlicher Intelligenz veröffentlicht. Denn das Thema „mobile first“ ist vorbei, jetzt ist „AI first“ die Ansage.

Faecks: Genau. Ray Kurzweil, Director of Engineering bei Google, beschäftigt sich seit langem mit dem Übergang von Mensch und Maschine und ist auch überzeugt: Man kann keine Plattform führen, ohne Verantwortung zu übernehmen. Ich persönlich finde die Thesen von Google gut. Aber werden sie auch umgesetzt und kontrolliert? Etwa über einen Beirat? Firmen sollten nicht Entscheidungen für die Menschen treffen, diese Entscheidungen sollten vielmehr in einem kritischen Diskurs stattfinden. Plattformanbieter könnten aber den Raum für solche Auseinandersetzungen schaffen, damit sich Menschen bilden und informieren können, um dann eigene Entscheidungen zu treffen.

*Sir Arthur Charles Clarke war ein britischer Physiker und Science-Fiction-Schriftsteller. Er hat im Rahmen seiner Werke die folgenden drei, als „Gesetze“ bezeichneten, axiomatischen Vorhersagen aufgestellt: „Wenn ein angesehener, aber älterer Wissenschaftler behauptet, dass etwas möglich ist, hat er mit an Sicherheit grenzender Wahrscheinlichkeit Recht. Wenn er behauptet, dass etwas unmöglich ist, hat er höchstwahrscheinlich unrecht.“ „Der einzige Weg, die Grenzen des Möglichen zu finden, ist, ein klein wenig über diese hinaus in das Unmögliche vorzustoßen.“ „Jede hinreichend fortschrittliche Technologie ist von Magie nicht zu unterscheiden.“

Von diesen drei „Gesetzen“ hat insbesondere das dritte – nicht nur innerhalb der Science-Fiction-Literatur – den Charakter eines Sprichworts erreicht.

 

Links zum Thema: Googles Research Department zu AI: https://ai.google/

Cyber Defense in Europa: gleiche Gefahr – unterschiedliche nationale Antworten

blitze Mit dem European Cyber Defense Report hat Deloitte relevante nationale Sicherheitsstrategien aus 29 europäischen Staaten, den USA, Russland sowie China analysiert und zudem Zukunftsszenarien entwickelt, die die Cybersicherheitslandschaft 2030 in Europa abbilden. Im ersten Teil der Studie stehen der systematische Vergleich und die Analyse öffentlich zugänglicher Strategiedokumente: Diese zeigen, dass Cyberbedrohungen – neben Terrorismus und organisierter Kriminalität – als Top-Risiken benannt werden.

Im Hinblick darauf, wie Cybersicherheit jeweils definiert und gehandhabt wird, gibt es länderübergreifend allerdings so viele Unterschiede, dass ein Vergleich kaum möglich ist. Besonders deutlich zeigt das die Diskussion um offensive Maßnahmen. Bestimmte Länder erklären deutlich, dass auch offensive Maßnahmen zur Cyberverteidigung gehören. Andere Länder erwähnen diese zwar, aber bleiben eine klare Aussage zur Rechtmäßigkeit und Wirksamkeit schuldig.

Nationale Strategien nicht immer auf neuestem Stand

Die Ansprüche an die nationalen Sicherheitsstrategien der europäischen Länder verändern und erhöhen sich mit der Vielzahl und Volatilität möglicher Bedrohungsszenarien. Strategien, dem zu begegnen, müssen hiermit Schritt halten.

Verteidigung: Schutz rangiert vor Reaktion

Nahezu alle Strategien haben die Sicherung der kritischen Infrastrukturen (97%) sowie die Gewährleistung sicherer und robuster Informationssysteme (93%) als Ziel. Kaum erwähnt wird hingegen eine schnelle Reaktion auf Cyberangriffe.

„Neben der Sicherung unserer Infrastrukturen und Systeme muss zunehmend auch die Fähigkeit zur adäquaten Reaktion im Falle eines Angriffs aus bzw. auf den Cyberraum in den Fokus genommen werden. Dazu bedarf es einer politischen, rechtlichen und fähigkeitsbezogenen Rahmensetzung. Mit der Errichtung des Kommandos Cyber und Informationsraum hat Deutschland hier bereits eine erste Grundlage geschaffen“, resümiert Katrin Rohmann, Industry Leader Government & Public Services bei Deloitte.

Zahlreiche Akteure, unklare Zuständigkeiten

Die Cybersicherheitsstrategien der Staaten benennen unterschiedliche Akteure. Deren Zahl variiert von zwei bis zweistellig. Im schlechtesten Fall kann daraus ein Verantwortungs- und Zuständigkeitsvakuum entstehen. Unweigerlich steigen mit der Zahl der Akteure potenziell der Koordinationsbedarf zur Lageeinschätzung und die Reaktionszeit im Ernstfall.

Zum Ende des ersten Teils des Reports werden Handlungsfelder identifiziert: Stärkere internationale Kooperationen, einheitliche Definitionen und klare Verantwortungszuweisungen sind erforderlich. Strategien müssen dynamisch mit der Gefährdung weiterentwickelt werden, dazu müssen die Treiber künftiger Entwicklungen identifiziert und beobachtet werden. Der zweite Teil des Reports greift diese Handlungsfelder auf und nutzt die Szenariomethodik, um mögliche Zukunftsbilder aufzuzeigen.

Durch moderne Cybersicherheit zu einem digitalen Leben in Europa: vier mögliche Szenarien

Um in Europa die Weichen für eine sichere, digitale Zukunft zu setzen und Antworten auf die Frage nach der Ausgestaltung der Cybersicherheitslandschaft 2030 zu finden, entstehen nach einer auf Künstlicher Intelligenz basierenden Analyse vier mögliche Zukunftsbilder – abhängig davon, ob ein national und international akzeptierter Rechtsrahmen besteht oder nicht und ob Cyberangriffe antizipiert und Angreifer wirksam verfolgt werden können:

  1. Goldener Käfig: In diesem Szenario ist Europa sicher und stabil und sieht sich mit wenig Disruption konfrontiert. Es gibt eine klar definierte und funktionierende regelbasierte Ordnung sowie ausreichende Effektivität bei der Antizipation von Cyberbedrohungen und der Attribution von Cyberangriffen.
  2. Selbstschutz: In dieser Welt ist Europa bürokratisch, extrem unsicher und technologisch fragmentiert. Obwohl es kleine thematische Inseln der Sicherheit gibt, ist Cybersicherheit außerhalb dieser Bereiche lückenhaft.
  3. Cyber-Oligarchie: In diesem Szenario beherrscht eine kleine Elite von Cyberexperten die Cybersicherheitslandschaft in Europa. Cybersicherheit wird nicht mehr vom Staat gesteuert. Stattdessen wird sie privat nach den „Gesetzen des Stärkeren” durchgesetzt.
  4. Cyber-Darwinismus: In dieser alternativen Zukunft ist Europa zu einem Dschungel geworden, der auf der Basis einer Laissez-faire-Mentalität arbeitet. Während kleine Inseln mit einem hohen Maß an (Cyber-)Sicherheit innerhalb von „gated communities“ existieren, ist die Außenwelt unsicher. Daraus resultiert ein Zwei-Klassen-Sicherheitssystem, das niedrige Sicherheitsklassen stark diskriminiert und ausschließt.

„Auch wenn sich im digitalen Zeitalter niemand hundertprozentig gegen Cyberangriffe schützen kann, sind Vorbereitung und eine auf die aktuellsten Entwicklungen abgestimmte Cybersicherheitsstrategie essenziell. Es besteht Handlungsbedarf. Wir müssen bei der Gestaltung der digitalen Zukunft Europas und dieser Thematik ein gemeinsames Verständnis entwickeln, Komplexität reduzieren, die Dinge begreifbar machen und Unsicherheiten ausräumen“, so Katrin Rohmann.

Inhaltlich verantwortlich für die Studie sind Katrin Rohmann, Industry Leader Government & Public Services bei Deloitte, und Peter Wirnsperger, Deloitte Partner und Cyber Risk Leader.

Studie: Immer mehr Europäer wohnen in Smart Homes, Deutschland zieht nur langsam mit

Mit smarten Kameras von LUPUS-Electronics haben Sie ihr Zuhause von überall aus im Blick © LUPUS-Electronics

Mit smarten Kameras von LUPUS-Electronics haben Sie ihr Zuhause von überall aus im Blick © LUPUS-Electronics

Nach einer Studie im Auftrag von Linksys, einem Spezialisten für Home-Networking-Lösungen, wird das Zuhause der meisten Europäer durch den Einsatz von IoT-Geräten immer „smarter“. Die Bandbreite reicht von smartem Licht, Temperaturreglern und Kühlschränken hin zu selbstlernenden Haushaltsgeräten.

Die Deutschen halten sich beim Kauf vernetzter Heimgeräte jedoch im Vergleich eher zurück – ein Trend, den auch die gerade zu Ende gegangene IFA in Berlin bestätigt: Dort waren zwar hallenweise Smart-Home-Produkte zu bestaunen, doch ändert das nichts an der Tatsache, dass sie erst nach und nach den deutschen Massenmarkt erobern. Der Preis und das ausgeprägte Sicherheitsdenken der Deutschen sind dabei wohl die Haupthindernisse für die Smart-Home-Verbreitung hierzulande.

Auf europäischer Ebene gesehen ist der Trend ein anderer: „Insgesamt nimmt die Anzahl der Smart Devices in europäischen Haushalten rapide zu, was bedeutet, dass die Verbraucher auf größere und schnellere WLAN-Netzwerke umsteigen müssen, um Schritt zu halten“, erklärt Andrea Bruno, Sales Director Linksys Europe. „Selbst, wenn man nur Netflix über einen Smart TV streamt, wird so viel Bandbreite benötigt, dass es die Nutzung des WLANs im gesamten Haushalt beeinträchtigt.“

Smart TVs führend in europäischen Haushalten

Die Ergebnisse der Studie zeigen, dass die Mehrheit (66 Prozent) der befragten Europäer mindestens einen oder mehrere Smart TVs (18,4 Prozent) besitzen. Die Niederländer stehen mit 69,2 Prozent an der Spitze, gefolgt vom Vereinigten Königreich (68,2 Prozent) und Deutschland (65,3 Prozent). Frankreich hat mit 58,9 Prozent die wenigsten Smart TVs im Einsatz.

Europäer schauen auch internetbasiertes Fernsehen. Tatsächlich geben bereits 28,8 Prozent der Befragten an, dass ihr primäres Fernsehsignal internetbasiert sei. Die Ergebnisse zeigen die höchste Quote in Frankreich (39,2 Prozent) und den Niederlanden (34,8 Prozent), die niedrigste in Deutschland (21,5 Prozent). Die Befragten beziehen auch Abo-TV-Dienste wie Netflix, HBO oder Amazon Prime (41,6 Prozent), laden Serien und Filme herunter (31,4 Prozent), und streamen (Sport-)Veranstaltungen live (17,9 Prozent).

Sprachassistenten auf dem Vormarsch

Während Smart TVs schon festen Einzug in mehr als die Hälfte europäischer Haushalte gefunden haben, gewinnen auch weitere IoT-Geräte an Beliebtheit. Dazu gehören Sprachassistenten wie Amazon Echo, Amazon Alexa und Google Home, derzeit mit 21,9 Prozent und steigender Tendenz.

Direkt dahinter liegen smarte Beleuchtung wie die Glühbirnen Philips Hue und Ikea Tradfri (Einsatz in 18 Prozent der Haushalte) und vernetzte Sicherheitskameras (im Besitz von 17,5 Prozent der Befragten), gefolgt von Temperaturreglern (wie Nest, Netatmo), smarten Steckdosen (beispielsweise von Wemo, Fibaro) und sogar Türklingeln wie Ring bei 12,3 Prozent.

 

Deutschland: Kein Early Adopter

  • Im europäischen Vergleich würden sich die Deutschen selbst am wenigsten als Early Adopter für das Smart Home bezeichnen (21,3 Prozent).
  • Im Vergleich zu anderen Ländern ist bei den Deutschen die Wahrscheinlichkeit am geringsten, dass sie folgende Smart Devices besitzen: Smarte Steckdosen (15 Prozent), vernetzte Sicherheitskameras (13 Prozent), smarte Temperaturregler (9 Prozent) und smarte Türklingeln (8 Prozent).
  • Auch künftig sind die Deutschen im Vergleich am wenigsten daran interessiert, folgende Smart Devices zu kaufen: Smart TVs oder Connected TVs (55 Prozent), smarte Steckdosen (31 Prozent), smarte Schalter (28 Prozent), vernetzte Sicherheitskameras (26 Prozent), smarte Temperaturregler (26 Prozent) und smarte Türklingeln (21 Prozent).

Wo geht der Trend hin?

Im europäischen Durchschnitt wollen 35 Prozent der Studienteilnehmer ihr Zuhause künftig durch den gesteigerten Einsatz von IoT-Geräten smarter machen. Insbesondere an smarter Beleuchtung sind 43,6 Prozent interessiert. 28,4 Prozent ziehen sogar einen Kauf in den nächsten zwei Jahren in Betracht. Über den Kauf von Sprachassistenten in den nächsten zwei Jahren denken 16 Prozent nach.

„Während wir jetzt über smartes Licht und Sprachassistenten sprechen, werden wir in den nächsten Jahren zu noch intelligenteren vernetzten Geräten im Haushalt übergehen, die durch künstliche Intelligenz (KI) und maschinelles Lernen gesteuert werden. Zum Beispiel Lösungen wie Phyn, ein smartes Wassermanagementsystem, das anhand des Wasserverbrauchs des Nutzers lernt und undichte Leitungen sofort meldet.  Oder intelligente Küchen, die den Ofen automatisch vorheizen und nach Rezepten Mahlzeiten vorbereiten. All diese Innovationen werden die Anzahl der IoT-Geräte im Haus und damit den Bedarf an leistungsstarkem WLAN steigern. Wer ein Smart Home will, muss sich darauf vorbereiten und auch das darunterliegende Netzwerk zukunftssicher machen“, betont Linksys Sales Director Andrea Bruno.

Über die Studie

Vanson Bourne führte diese Studie im Auftrag von Linksys (Teil von Belkin International) durch. Die Ergebnisse basieren auf einer webbasierten Umfrage unter 8.000 Verbrauchern. Die Studienteilnehmer wurden im Mai und Juni 2018 befragt; sie kamen aus Großbritannien (2.000), den Niederlanden (2.000), Deutschland (2.000) und Frankreich (1.000), den Vereinigten Arabischen Emiraten (500) und dem Königreich Saudi-Arabien (500). Um sich für die Umfrage zu qualifizieren, mussten die Befragten die folgenden Auswahlkriterien erfüllen:

  • Sie mussten zwischen 18 und 64 Jahre alt sein.
  • Sie mussten in ihrem Haushalt eine Art Entscheidungsverantwortung für den Kauf neuer Technologien haben.
  • Sie mussten zu Hause entweder einen WLAN-Router oder ein WLAN-Router/Modem-Kombinationsgerät verwenden.

Kundenservice & Co.: Wie Bots die Zukunft bestimmen

In nicht allzu ferner Zukunft übernehmen autonome Systeme eine Vielzahl von Aufgaben. Während Menschen von zahlreichen alltäglichen Aufgaben entlastet werden, besteht zugleich die Befürchtung, dass wir mit dieser Entwicklung auch an Autonomie verlieren könnten. (Copyright: Daimler und Benz Stiftung/Oestergaard)betroffenen wissenschaftlichen Disziplinen beleuchtet, wie autonome Systeme unser Leben und auch unser Selbstverständnis verändern werden. (Copyright: Daimler und Benz Stiftung/Oestergaard).

In nicht allzu ferner Zukunft übernehmen autonome Systeme eine Vielzahl von Aufgaben. Während Menschen von zahlreichen alltäglichen Aufgaben entlastet werden, besteht zugleich die Befürchtung, dass wir mit dieser Entwicklung auch an Autonomie verlieren könnten. (Copyright: Daimler und Benz Stiftung/Oestergaard)betroffenen wissenschaftlichen Disziplinen beleuchtet, wie autonome Systeme unser Leben und auch unser Selbstverständnis verändern werden. (Copyright: Daimler und Benz Stiftung/Oestergaard).

Künstliche Intelligenz verändert unser tägliches Leben. Galt der Touchscreen bei Smartphones vor zehn Jahren noch als Sensation, ist er heute völlig selbstverständlich geworden. Die nächste große Veränderung, die ähnlich einschneidend sein wird, erobert gerade weltweit die Märkte: Sprache als neues Interface. Stichworte: Amazons Alexa und Google Home. Millionen dieser Geräte stehen bereits in Haushalten in aller Welt. Auch beim Thema Kundenservice spielen Bots und Sprache eine immer wichtigere Rolle.

Chatbots und andere KI-gesteuerte virtuelle Agenten haben den Kundenservice bereits jetzt in seiner Struktur vollkommen verändert. Doch das ist nur der Anfang der „Bot-Revolution“, denn durch APIs werden Chatbots mit nachhaltigen Lernprozessen verknüpft und tauchen plötzlich an Orten auf, an denen man sie nie vermutet hätte.

Menschliche Züge: Chatbots verbessern den Service

Das Kontaktcenter der Zukunft erhält bereits beim Klingeln des Telefons Informationen über den Kunden und kann mit einer relativ großen Wahrscheinlichkeit voraussagen, worüber der Anrufer gleich sprechen möchte. Die dahinterstehende künstliche Intelligenz (KI) macht den Menschen jedoch nicht überflüssig, sondern ergänzt ihn. Sie erweitert bloß die Fähigkeiten der dort Angestellten, greift ihnen in vielen Situationen unter die Arme und macht sie so produktiver.

Auf diese Weise können Anfragen schneller und besser bearbeitet werden. Ein Beispiel: Man ruft seine Bank an und bleibt erst einmal in der Warteschleife stecken – oder muss sein Anliegen einem Mitarbeiter nach dem anderen immer wieder neu erklären.

Viele Finanzinstitute haben ihre Customer Journey deshalb mithilfe von Chatbots verkürzt, die häufig gestellte Fragen schneller und direkter beantworten können. Ist trotzdem ein Gespräch notwendig, wird der Kunde zu einem „echten“ Mitarbeiter weitergeleitet, der Zugriff auf die Vorgeschichte und die Chat-Kommunikation seines Gesprächspartners hat.

Das verbessert die Servicequalität und die Customer Experience insgesamt deutlich. Menschen haben gerne mit Menschen zu tun. Doch die künstliche Intelligenz sorgt dafür, dass immer häufiger menschenähnliche virtuelle Assistenten und Chatbots zum Einsatz kommen. Sie nutzen die natürliche Sprache, um – aufbauend auf der traditionellen Kommunikation zwischen Mitarbeiter und Klient – immer mehr Nuancen und Zusammenhänge zu verstehen. Viele Unternehmen integrieren Chatbots in ihre vorhandenen Applikationen, um den steigenden Kundenansprüchen gerecht zu werden und die Customer Experience zu optimieren.

Nahtlose Kommunikation

Schlechter Kundenservice kann einen Konzern teuer zu stehen kommen: Er beeinträchtigt die Kundenloyalität, führt zu Kundenabwanderungen und behindert die Akquise neuer Kundschaft. Doch Chatbots, CPaaS und andere Technologien mit kontextbezogener Kommunikation werden künftig dafür sorgen, dass weniger Applikationen benötigt werden, um Vorgänge abzuwickeln.

Und sie werden den Prozess beschleunigen, mit dem der Kunde über Verzögerungen beziehungsweise Änderungen benachrichtigt wird. Beides bringt den Unternehmen riesige Vorteile.

Die „Bot-Revolution“ hat Technologien hervorgebracht, die bei Kundenanfragen oder -problemen mehr Kontext liefern und im Handumdrehen eine Lösung parat haben. Doch damit nicht genug: Die Bots können überall mit dem Kunden kommunizieren – per Chat, per In-App-Mitteilung, per SMS oder per Sprachnachricht.

Diese nahtlose Kommunikation ist in vielen Bereichen immer noch eines der größten Probleme bei der Customer Experience: Unternehmen können die unterschiedlichen Kommunikationskanäle (SMS, Festnetz, Apps, Sprachnachricht, Social Media) oft nicht unter einen gemeinsamen Hut bringen.

Sprich: Sie sind nicht in der Lage, diese verschiedenen Kommunikationsstränge zu einem fortlaufenden Dialog zu verknüpfen. In jedem Kanal musste der Kunde immer wieder neu erklären, wer er ist und was er gerade möchte. Denn jedes Gespräch, das auf einem Kanal geführt wurde, fand isoliert von der Kommunikation auf den anderen Kanälen statt. Dies ändert sich gerade zum Positiven.

Chatbots in CRM-Plattformen oder Datenbanken einbetten

Einer der wichtigsten Treiber für die Weiterentwicklung der Chatbots ist die technische Integration. Bots können in CRM-Plattformen, Unified-Communications-Systeme oder interne Datenbanken integriert werden. Chatbots, die isoliert eingesetzt werden, sind lediglich vorprogrammierte Antwortpakete – sie verfügen weder über Daten, die einen weiterbringen, noch über ein Backup.

Ein integrierter Chatbot dagegen kann beispielsweise historische Daten nutzen, um sich wiederholende Fragen zu übergehen. Er kann auch durch Sentimentanalysen erkennen, wann ein Nutzer verärgert ist – und ihn dann umgehend an einen Call-Center-Mitarbeiter weiterleiten. Über APIs haben die Unternehmen die Möglichkeit, ihre Chatbots in ein breiter aufgestelltes Communications-Ökosystem einzubinden und sie nicht nur intelligenter, sondern auch nützlicher zu machen. Darüber hinaus wurden einige der wichtigsten KI-Innovationen der letzten Zeit im Bereich Voice-Bots entwickelt.

Voice als User Interface

Immer mehr Geräte lassen sich per Sprache steuern, etwa die eingangs erwähnten Smart-Home-Assistenten Amazon Alexa und Google Home. Sprachbefehle sind nicht nur schneller, sie machen – anders als bei der manuellen Eingabe – den Blick auf den Bildschirm überflüssig. Mit dieser unkomplizierten Methode können private und berufliche Aufgaben in kürzerer Zeit abgearbeitet werden, ohne den Tagesablauf zu unterbrechen.

Und das ist erst der Anfang: Sprach- und Gestensteuerung halten zum Beispiel auch in Autos Einzug. In Zukunft werden wir per Sprachinterface unser Leben – privat wie beruflich – organisieren. Das gilt auch für das Einkaufen: Bald werden wir uns unter dem Stichwort „Voice Commerce“ online mit Sprachbots über die Produkte unterhalten, für die wir uns interessieren. Dadurch wird das Argument „Beratung bekommt man nur im Laden“ hinfällig, was wiederum die Art, wie wir shoppen, massiv beeinflusst. Mehr noch: Das gesamte Internet erfährt eine Transformation – von der bald altmodischen Texteingabe samt Maus und Tastatur hin zu einem von Videos und Sprache dominierten System. Bildschirme und Tastaturen werden irgendwann zu Raritäten zählen.

Oberste Priorität: Entwicklung von plattformübergreifenden Bots

Die Entwicklung von Programmen für Geräte mit künstlicher Intelligenz und virtuellen Agenten beziehungsweise Assistenten gehört für zukunftsorientierte Entwickler mittlerweile zu den obersten Prioritäten. In dieses Forschungsfeld werden derzeit Milliarden investiert. Zwar ist es nach wie vor eine Herausforderung, Bots zu entwickeln, die plattformübergreifend interagieren.

Doch in den nächsten Monaten und Jahren wird es immer mehr SDKs und andere Frameworks geben, mit denen plattformübergreifende Voice-Bots geschaffen werden können. Wir steuern auf eine Welt zu, in der API-gestützte Bots, die nahtlos zwischen verschiedenen Kanälen wie Telefon und Chat wechseln, die Norm sein werden. Den meisten Bots liegt eine Technologie zugrunde, die natürliche Sprachverarbeitung mit Spracherkennung kombiniert und auf beinahe jeden Kommunikationskanal angewendet werden kann.

Für den Kunden ist das ein Segen, denn so kann er mit den Bots interagieren, wie es ihm gerade gefällt: über Facebook Messenger, WhatsApp, per Voice, Chat oder Messaging. Diese Art flexibler, dynamischer künstlicher Intelligenz wird dafür sorgen, dass der Kundenservice konsistenter und umfassender wird. Kunden, die Hilfe brauchen, werden jederzeit Unterstützung bekommen, und zwar über jeden beliebigen Kanal.

Autor: Thomas Klar ist Country Manager Deutschland für Nexmo, der API-Plattform von Vonage. Er verfügt über langjährige Erfahrungen im Bereich Cloud Communication und Business Technology und konzentriert sich bei Nexmo auf den Ausbau der aktuellen Marktpräsenz und des vorhandenen EMEA-Kundenstamms sowie um die globale Expansion von Nexmo. Der Fokus liegt hierbei auf dem deutschen Markt. 

Fünf Megatrends, welche die Grenzen zwischen Mensch und Maschine verwischen werden

blitzeVon den 35 Must-Watch-Technologien, die im Emerging Technologies Hype Cycle 2018 vertreten sind, hat das Research- und Beratungsunternehmen Gartner fünf Megatrends identifiziert, welche die Grenzen zwischen Mensch und Maschine verwischen werden. Gerade Technologien wie Künstliche Intelligenz (KI) spielen eine entscheidende Rolle dabei, dass Unternehmen flächendeckend, immer verfügbar und mit Unternehmens-Ökosystemen verbunden sind, um in naher Zukunft bestehen zu können.

Diese Megatrends werden laut Gartner die Zukunft maßgebend prägen

  1. Demokratisierung von KI: Auf KI basierende Technologien werden in den nächsten zehn Jahren virtuell jedem zur Verfügung stehen. KI wird einem breiten Publikum zugänglich und Early Adopter werden auf neue Situationen treffen und Probleme lösen, die ihnen bislang unbekannt waren. Demokratisierte KI wird unter anderem folgende Technologien voranbringen: Autonomes Fahren (Level 4 und 5), intelligente Roboter, virtuelle Assistenten, AI Platform as a Service, autonome mobile Roboter und viele weitere.
  1. Digitalisierte Ökosysteme: Diese werden zum Grundstein von New Business Modellen, die Menschen und Technologien verbinden. Dieser Trend wird von Technologien wie Blockchain, IoT Plattformen, Digital Twin, Data Security Blockchain und Knowledge Graph vorangetrieben.
  1. Do-It-Yourself Biohacking: Die nächste Dekade wird zum transhumanen Zeitalter– in dieser kann Biologie gehackt werden. Besonders hier stellt sich die Frage, inwiefern die Gesellschaft verschiedene Anwendungsbereiche akzeptieren wird und welche ethischen Fragen sich daraus ergeben werden.
  1. Transparente immersive Erfahrungen: Der Mensch wird auch weiterhin im Mittelpunkt von Technologie stehen, bei der Menschen, Unternehmen und Dinge zunehmend transparenter werden. Dies ermöglicht neue Bereiche und ein smarteres Leben und Arbeiten.
  1. Flächendeckende Infrastruktur: Infrastruktur ist nicht länger auf Unternehmensziele ausgerichtet. Die Einführung und breite Popularität von Cloud Computing und seinen vielen Varianzen ermöglichen ein stets verfügbares und grenzenloses Umfeld.
(Bildquelle: Gartner August 2018)

(Bildquelle: Gartner August 2018)

„Wirtschafts- und Technologieführer werden weiterhin mit einer sich rasant beschleunigenden technologischen Innovation konfrontiert sein, die die Art und Weise, wie sie mit ihren Mitarbeitern interagieren, mit ihren Partnern zusammenarbeiten und Produkte und Dienstleistungen für ihre Kunden schaffen, tiefgreifend beeinflussen wird“, betont Mike J. Walker, Research Vice President bei Gartner. „CIOs und Technologieführer sollten stets den Markt im Blick haben und neue Technologien prüfen und bewerten. So lassen sich neue Möglichkeiten mit hohem Wirkungspotenzial und strategischer Relevanz für ihr Unternehmen identifizieren.“

Der Emerging Technologies Hype Cycle ist der am längsten bestehende jährliche Gartner Hype Cycle und bietet einen branchenübergreifenden Ausblick auf die Technologien und Trends, die Unternehmensstrategen, Chief Innovation Officers, R&D-Leiter, Unternehmer, globale Marktentwickler und Teams im Bereich Emerging Technologies bei der Entwicklung ihres Portfolios berücksichtigen sollten.

Weltweite Studie „Elektronik der Zukunft“: Was Verbraucher über KI, Roboter und digitale Sicherheit denken

(Bildquelle: "obs/electronica/Christian Hartlmaier")

(Bildquelle: „obs/electronica/Christian Hartlmaier“)

81 Prozent der Verbraucher rund um den Globus wünschen sich, dass „elektronische Geräte der Zukunft“ das Leben vereinfachen. Was dabei künstliche Intelligenz (KI), Robotik und Digitalisierung dürfen und was nicht, wird von den Nutzern sehr differenziert betrachtet. So sind beispielsweise weltweit 71 Prozent der Verbraucher der Meinung, dass elektronische Geräte auch in Zukunft nur assistieren sollen und das eigene Denken der Menschen mit KI nicht ersetzen dürfen. Das sind Ergebnisse des electronica-Trend-Index (2. Auflage). Dafür wurden im Auftrag der „electronica“, Messe und Konferenz für Elektronik, 7.000 Verbraucher in den USA, China, Japan, Deutschland, Frankreich, Großbritannien und Italien von einem Marktforschungsinstitut im Juni 2018 bevölkerungsrepräsentativ befragt.

Navigationssysteme und Smartphones haben die intelligente Sprachsteuerung in den Privathaushalten bekannt gemacht.

Mit künstlicher Intelligenz und digitaler Vernetzung arbeiten Hersteller mit Hochdruck daran, den Siegeszug von smarter Elektronik auszubauen. Bei den Verbrauchern steht die Idee der Sprachsteuerung offenbar hoch im Kurs: Rund 60 Prozent der Konsumenten sind weltweit dafür, dass elektronische Geräte künftig in einen menschlichen Dialog treten können – etwa nach dem Vorbild bekannter Sprachassistenten wie Siri, Alexa oder Cortana. Besonders begeistert davon, sich künftig mit elektronischen Geräten unterhalten zu können, sind dabei die chinesischen (85 Prozent), amerikanischen (68 Prozent) und italienischen (66 Prozent) Konsumenten. Weltweit 17 Prozent lehnen sprechende Elektronik dagegen entschieden ab.

Was Roboter dürfen und was nicht

Zu „menschenähnlich“ sollten die digitalen Helfer nach übereinstimmender Meinung der Verbraucher allerdings nicht werden: Bei der Frage, wie Service-Roboter von morgen beschaffen sein sollten, sprechen sich 72 Prozent dafür aus, dass Roboter mit künstlicher Intelligenz eindeutig als Maschine erkennbar bleiben. Die stärksten Befürworter dafür sind Italiener (78 Prozent) und US-Amerikaner (77 Prozent). Aber auch in Japan, mit der im Vergleich schwächsten Zustimmung, gibt es in diesem Punkt eine klare Mehrheit von 69 Prozent der Befragten.

Roboter sollen selbständig lernen

Dagegen bewerten 72 Prozent der Befragten im weltweiten Durchschnitt positiv, dass Roboter künstliche Intelligenz einsetzen, um selbständig zu lernen und auf neue Situationen zu reagieren. Ebenso viele wünschen sich vom Roboter Entscheidungshilfen – allerdings sollte die Kontrolle in den Händen der Menschen bleiben.

Diese Grundeinstellung gilt generell für den Einsatz von künstlicher Intelligenz in elektronischen Geräten: Die große Mehrheit der Verbraucher möchte, dass die KI nur assistiert und nicht das eigene Denken ersetzt – der weltweite Durchschnitt dieser Meinung liegt nach der jüngsten Umfrage bei 71 Prozent. Allerdings ist diese Ansicht in einigen Ländern rückläufig: In Deutschland stimmten dieser Meinung im electronica-Trend-Index aus dem Jahre 2016 insgesamt 82 Prozent der Befragten zu – aktuell sind es noch 67 Prozent.

Geteilt ist dagegen die Meinung dazu, ob eine Maschine in der Lage sein soll, menschliche Gefühle zu erkennen und darauf zu reagieren: In den europäischen Ländern und Japan ist nur rund jeder Zweite dafür, in den USA knapp 60 Prozent – in China aber 85 Prozent.

 

 

„Beim Thema KI-Ethik reicht die Selbstverpflichtung der Industrie nicht aus“

Verständnis-Ethik-260x300Innovation ist wichtig, aber kein Selbstzweck, deshalb sollten sich Unternehmen und Wissenschaftler ethische Grenzen setzen. Notfalls müssen die Gesetzgeber nachhelfen, sagt Dinko Eror, Senior Vice President and Managing Director von Dell EMC in Deutschland.

Nicht alles, was technisch möglich ist, sollte auch erlaubt sein. Gerade im Umfeld der Künstlichen Intelligenz (KI) ist eine Diskussion entstanden, die stark an die Kritik der ersten Atombombe erinnert: Viele fürchten eine Entwicklung, die unumkehrbar ist und weitreichende Gefahren birgt.

Der Unternehmer Elon Musk etwa sieht in der KI „die größte Bedrohung für das Überleben der Menschheit“, und der in diesem Jahr verstorbene Physiker Stephen Hawking war bereits 2014 der Meinung, Menschen könnten aufgrund ihrer biologischen Limitierung mit KI nicht mithalten und würden am Ende „verdrängt“ werden. Eine Verselbstständigung der Technologie hatten Science-Fiction-Autoren schon Mitte des vergangenen Jahrhunderts thematisiert.

Eine solche Entwicklung hat eine besondere Tragweite, wenn Fehler entstehen. Amazons Gesichtserkennung etwa hat jüngst 28 Abgeordnete des US-Kongresses mit Häftlingen verwechselt. Überträgt man diese Fehlerquote von fünf Prozent auf die Ambitionen des US-Verteidigungsministeriums, werden ethische Zweifel schnell greifbar: Das Pentagon will unter anderem Drohnen und andere Waffen mit KI versehen, damit sie Ziele selbst identifizieren und „Entscheidungen selbst treffen“ können. Viele KI-Forscher betrachten solche Entwicklungen mit besonderer Skepsis – wenn nicht mit Abscheu; tausende von ihnen haben deshalb eine freiwillige Selbstverpflichtung unterschrieben, nicht an autonomen Waffensystemen zu forschen. Aber wie stehen die übrigen tausenden zu solchen Einsätzen?

Gefahr kommt auch aus einem ganz anderen Bereich: Mit KI, künstlichen neuronalen Netzen und erschreckend wenig Aufwand können mittlerweile mit sogar kostenlosen Apps täuschend echte Fake-Bilder und -Videos hergestellt werden. „Nicht auszudenken, was passiert, wenn durch ein Fake-Video eines Fake-Politikers ein Krieg entsteht“, gibt Dinko Eror zu bedenken.

Auch die Profilerstellung von beliebigen Internet- und Social-Media-Nutzern stellt für KI längst keine Hürde mehr dar. Die Technologie kann, in Verbindung mit der heutigen Rechenleistung, gigantische Datenmengen analysieren und etwa Muster erkennen. Unvergessen ist zum Beispiel die unerlaubte Auswertung der Daten zahlreicher Facebook- und Twitter-Profile durch Cambridge Analytica mit dem Ziel, die US-Wahlen 2016 zu beeinflussen – für viele der erste wirkliche Social-Media-Skandal.

Es gibt zahlreiche weitere Beispiele, die ethische Fragen aufwerfen – zudem dass die KI sich weiterentwickelt und jeden Tag schneller, leistungsfähiger und treffsicherer wird. Sogar IT-Unternehmen, die Vorreiter in Sachen KI, kommen deshalb mittlerweile ins Grübeln. Microsoft zum Beispiel betrachtet KI-basierte Gesichtserkennung als Bedrohung der fundamentalen Menschenrechte wie Privatsphäre und Meinungsfreiheit, so zumindest President Brad Smith in seinem Blog vor einigen Wochen.

Ist die Selbstverpflichtung von Industrie und Forschung also der richtige Weg, um ethische Innovationen – auch fernab von KI – sicherzustellen? „Nein. Die Wirtschaftsgeschichte hat gezeigt: Die Selbstverpflichtung von Industrie und Forschung führt nicht zu ethischen Innovationen“, erklärt Eror. „Sei es beim Dieselskandal, dem Rauchverbot, der Frauenquote oder der Nahrungsmitteltransparenz. Mögliche Absatzvorteile haben Unternehmen immer höher bewertet als ethisches Handeln. Ich bin mir sehr sicher, dass das auch in Zukunft so bleiben wird.“

Eine gesetzliche Regulierung ist deshalb unabdingbar. „Die angekündigte Strategie der Bundesregierung zur Künstlichen Intelligenz kommt zwar sehr spät, berücksichtigt aber Datenschutz und Informationssicherheit und betont an vielen Stellen die Notwendigkeit von ethischen Standards“, erklärt Eror, „das ist sehr zu begrüßen“. Auch die EU hat kürzlich ein KI-Maßnahmenpapier angekündigt, in dem ethische Rahmenbedingungen im Vordergrund stehen.

Die Frage bleibt, ob auch andere Regierungen ein Interesse daran haben, sich in diesem Sinne selbst einzuschränken. Die USA haben zwar bereits 2016 einen strategischen Forschungs- und Entwicklungsplan für KI vorgestellt und betonen dort sehr nachdrücklich das Thema „ethische KI“. Es bleibt aber offen, wie sie etwa ihre angekündigten aggressiven Verteidigungspläne darauf abstimmen wollen. China, ein Land, das nicht besonders zimperlich mit der Privatsphäre umgeht, wie die jüngste Maßnahme zur allgegenwärtigen Gesichtserkennung beweist, wird ethische Aspekte eher weniger in den Vordergrund stellen.

Seit vielen Jahren wird der Ruf nach einer neuen Wirtschaftsordnung laut. Sie soll, so die große Mehrheit der Deutschen, Turbokapitalismus und Wachstum um jeden Preis zugunsten von mehr Gerechtigkeit und Umweltschutz ablösen. „Angesichts des rapiden Fortschritts der Technik und des potenziellen Missbrauchs der KI ist es an der Zeit, auch die Unternehmens¬ethik ganz oben auf die Agenda zu setzen“, findet Eror.

Mehr Sicherheit im Internet: Blockchain kann digitale Identitäten sichern

blockchainDigitale Identitäten ermöglichen es, die Akteure im Internet zweifelsfrei zu identifizieren – seien es Menschen, Geräte im Internet der Dinge oder Chat-Bots. Die Blockchain-Technologie könnte hier zukünftig Vorteile bieten gegenüber herkömmlichen Methoden: Anwender könnten mit Blockchain-Lösungen etwa ihre digitale Identität vollständig selbst verwalten.

„Eine Blockchain-Lösung kann einen öffentlichen Schlüssel an eine Identität binden, ähnlich wie es eine Public-Key-Infrastruktur (PKI) tut, allerdings ohne dass man dabei eine zentrale Instanz benötigt“, sagt Klaus Schmeh von cryptovision. Auf den Internet Security Days (ISDs) am 20. und 21. September 2018 in Brühl bei Köln hält Schmeh einen Vortrag zu diesem Thema. „Durch den Verzicht auf eine zentrale Instanz hat man naturgemäß weniger Einflussmöglichkeiten – mit allen Vor- und Nachteilen.“

Blockchain kann PKI ergänzen

Mit der jungen Blockchain-Technologie sind weitere Lösungen für digitale Identitäten denkbar – so ließe sich eine vertrauenswürdige Instanz auch in eine Blockchain-Lösung integrieren. Mittels Personalausweis beispielsweise können sich die Anwender dann für die Blockchain registrieren, die ihre Identität überall im Netz zweifelsfrei belegt.

„Die Blockchain-Technologie ist eine ideale Ergänzung zu einer Public-Key-Infrastruktur, in der Praxis wird sie diese jedoch nie vollständig ersetzen“, gibt Markus Schaffrin zu bedenken. Er ist Geschäftsbereichsleiter Mitglieder-Services und Security-Experte im eco – Verband der Internetwirtschaft e. V. Ein Unternehmen beispielsweise, das die Schlüsselvergabe an Angestellte regeln will oder ein Staat, der rechtlich bindende digitale Signaturen vergeben möchte, kann auf eine zentrale Instanz kaum verzichten.

Identitäten-Lösungen fürs Internet der Dinge

Als transparente und dezentralisierte Plattform ist die Blockchain jedoch generell geeignet, die digitale Identitätskrise mit immer mehr Akteuren und Geräten im Internet zu entschärfen. User könnten beispielsweise mithilfe der eigenen, auf die Blockchain gestützten Identität viele verschiedene Online-Dienste sicher und bequem nutzen.

Damit ließen sich etwa die aktuell beliebte Authentifizierung mittels Social Media Account ersetzen. Statt einer sozialen Plattform weitere persönliche Daten anzuvertrauen, würde jeder Nutzer seine Online-Identität selbst mitbringen, ganz im Sinne einer Self-Sovereign Identity (SSI).

Bevor entsprechende Lösungen geschaffen werden können, gilt es jedoch noch Fragen zu beantworten – etwa wie sich das zeit- und energieintensive Proof-of-Work-Verfahren der Blockchain vereinfachen ließe. Das Internet der Dinge und die Zahl der Transaktionen wächst rasant, hier bräuchte es schnellere und effektivere Verifizierungsmethoden. „Neue Möglichkeiten bietet etwa das Distributed-Ledger-Projekt IOTA, das Transaktionen grundlegend anders verarbeitet als die klassische Blockchain“, sagt Schmeh. Die unterschiedlichen Distributed-Ledger-Technologien könnten also schon bald Lösungen für die digitale Identitätskrise schaffen.

Interview: Warum für Techniker Ethik zunehmend wichtiger wird

Michael Teigeler, Geschäftsführer der Normungsorganisation VDE|DKE. (Bildquelle: VDE / Bernd Euring)

Michael Teigeler, Geschäftsführer der Normungsorganisation VDE|DKE. (Bildquelle: VDE / Bernd Euring)

Auf Initiative von VDE|DKE und IEEE (Institute of Electrical and Electronics Engineers) haben kürzlich acht große internationalen Standardisierungsorganisationen die Open Community for Ethics in Autonomous and Intelligent Systems (OCEANIS) in Wien gegründet. Michael Teigeler, Geschäftsführer der Normungsorganisation VDE|DKE, erklärt im Interview, warum das Thema „Ethik“ auch immer öfters von technischen Entscheidern aufgegriffen wird.

Was ist das Ziel von OCEANIS? Wie kam es zur Entscheidung, diese Open Community zu gründen?

Michael Teigeler: Künstliche Intelligenz gilt als die wichtigste Technik unseres Jahrzehnts. Ihre Entwicklung schreitet mit großen Schritten voran. Dabei ist schon jetzt klar, dass sie zu ähnlichen Umwälzungen führen wird wie die Einführung der Elektrotechnik Ende des vorletzten Jahrhunderts. Deshalb ist es wichtig, dass wir ethische Aspekte in der Entwicklung von KI verankern und zwar jetzt.

Wir Ingenieure und IT-Experten sind auf die Technik und den Algorithmus fokussiert, genau deshalb haben wir auch nicht Philosophie studiert. Nun greift KI aber in Bereiche, bei denen sich die elektrotechnische Community Gedanken über das „richtige“ und „falsche“ Verhalten einer Technologie machen muss. Und das schaffen wir nur im Schulterschluss mit Ethik-Experten.

Uns fehlt hierfür schlichtweg das Know-how über das Philosophen und Theologen verfügen. Ich maße mir nicht an, zu entscheiden, was richtig und falsch ist. Ich sprach mit meinem Kollegen Dr. Konstantinos Karachalios vom IEEE über das Thema und wir waren uns schnell einig, dass wir es nur auf internationaler Ebene lösen können und so kam der Gedanke, OCEANIS zu gründen.

Die Elektroindustrie ist die am stärksten global vernetzte Branche. Das gilt auch für die Normung. In Deutschland basieren die VDE-Bestimmungen heute größtenteils auf Europäischen Normen, die zu etwa 80 Prozent das Ergebnis der internationalen Normungsarbeit der IEC sind.

 Wie wollen Sie ethische Aspekte verankern? Wie kann sich das der Normalbürger vorstellen?

Michael Teigler: Zusammen mit Experten aus der Philosophie, Theologie, Psychologie, und Soziologie wollen wir einen Katalog an Anforderungen erarbeiten, die einer ethischen künstlichen Intelligenz „beizubringen“ sind.

An diesem Wertekatalog wird sich die internationale Normung halten. Genau deswegen ist es wichtig, dass wir alle Länder an Bord holen. OCEANIS ist damit ein Forum, in dem elektrotechnische Standardisierungsorganisationen zusammen mit anderen Organisationen Hand in Hand zusammenarbeiten. Die abgestimmten Leitlinien werden dann über die jeweiligen Standardisierungsorgane direkt in die internationale Normung fließen und sind damit für alle Länder verbindlich. Wir alle tragen Verantwortung dafür, wie KI eingesetzt wird.

Wie wollen Sie Wirtschaft und Politik Orientierung bieten?

Michael Teigler: Es ist wichtig, Ruhe in das Thema zu bringen. Und der Politik zu zeigen, wir nehmen unsere Verantwortung des technologischen Fortschritts ernst. Das gleiche gilt für die Wirtschaft. Indem wir das Thema Ethik in die Normung aufnehmen, nehmen wir den Unternehmen die große Hürde, sich alleine darum kümmern zu müssen. Im Alleingang würde diese Anstrengung sowieso keine Früchte tragen. Mehr als 5.500 Experten aus der Industrie erarbeiten bei VDE|DKE die VDE-Normen für die Elektroindustrie, die dann in die internationale Normung einfließen.

 Wenn Sie ethischen Aspekten bei KI mehr Gewicht verleihen wollen, dann öffnet das auch das Tor für viele philosophische Fragen. Die Mitglieder haben aber alle einen technischen Hintergrund. Wer leistet den philosophischen Anstoß?

Michael Teigler: Wie ich oben bereits erwähnt habe, ist OCEANIS ein offenes Forum. Wir sind gerade dabei, auf internationaler Ebene Fachdisziplinen wie Philosophie, Theologie, Soziologie und Psychologie anzusprechen. Auch die Geistes- und Sozialwissenschaften habe die Dringlichkeit des Themas erkannt. Gemeinsam werden wir Verantwortung übernehmen und unsere Komfortzone verlassen.

Vor 8 Jahren, als xethix startete, war das Thema „Ethik und Digitalisierung“ noch eher ein Randaspekt. Mittlerweile gibt es immer mehr Initiativen. Ist die Zeit reif, sich umfänglicher mit Technologie auseinanderzusetzen?

Michael Teigler: Es ist höchste Zeit, sich Gedanken über die Auswirkungen von künstlicher Intelligenz zu machen. Das sehen Sie allein an dem kritischen Warnruf führender Forscher Anfang des Jahres. Jetzt können wir noch in die Entwicklung eingreifen. Aber nur, wenn wir international an einem Strang ziehen. Mit künstlicher Intelligenz – die Forscher beschrieben sie zur Bösartigkeit fähig und begründeten dies technologisch und nicht auf Basis von Science Fiction – kann man ganze Gesellschaften aushebeln.

Deswegen ist es dem VDE ein großes Anliegen, den Mensch in den Mittelpunkt zu stellen. Wir wurden vor 125 Jahren gegründet, als die Einführung der Elektrotechnik zu großen Umbrüchen führte, ich erinnere an die sozialen Proteste im Zuge der Industrialisierung. Seitdem stehen wir für Aufklärung, Sicherheit und den Schutz der Bürgerinnen und Bürger. Damals schuf die Industrialisierung weitaus mehr Arbeitsplätze als verloren gingen. Es bedurfte damals eines Umdenkens. Und das ist auch heute der Fall. Wir müssen die Gesellschaft mitnehmen, mit Weiterbildung und Schulungen.

Wo sehen Sie OCEANIS in 5 Jahren?

Michael Teigler: Ich hoffe, dass wir zügig den Anforderungskatalog starten können. Eines dürfte sicher sein: Wir werden in fünf Jahren alle Standardisierungsorganisationen an Bord haben. Dadurch, dass alle big player bereits Mitglied von OCEANIS sind, ist die Motivation auf andere Länder hoch. Wer die Norm macht, hat den Markt. Ich sehe uns deshalb hier auf einem guten Weg. Und ich bin auch sehr optimistisch, dass die Zusammenarbeit mit uns „Nerds“ für die Philosophen und Theologen eine gute wird. Dazu ist das Thema einfach zu wichtig. KI wird kommen und wir müssen dafür sorgen, dass sie gut gestaltet wird zum Wohle der Menschheit.

 

Trotz modernster Technologien bleibt ein ernstes Sicherheitsrisiko: Der Mensch!

WP_001874Vergangenem nachzutrauern, ist selten zielführend. Dennoch: Was waren das noch für Zeiten für die IT und deren Nutzer, als E-Mail-Spam wohl immens nervte, aber in der Regel wenig Schaden anrichtete. Sieht man einmal von der erzwungenen Beschäftigung der Betroffenen ab, den Müll auszusortieren.

Heutzutage fahren Kriminelle ungleich härtere Geschütze auf, um Angriffe per E-Mail zu führen und die Adressaten in die Falle tappen zu lassen. Nur allzu oft sind die Phishing-Kampagnen derart clever, dass neben aller selbstverständlichen Abwehrtechnologie, die eine letzte Verteidigungslinie mitunter die wichtigste ist: Die menschliche Firewall.

Denn oft ist die Lösegeldforderung nur einen bösartigen Klick entfernt. Mitarbeiterschulungen und -trainings sollten daher unbedingt regelmäßiger Bestandteil einer Sicherheitsstrategie der Unternehmen sein, damit die Kollegen und Kolleginnen lernen, Phishing-Versuche zu erkennen und entsprechend sensibel damit umzugehen.

Als erstes stellt sich die Frage, wovor Nutzer auf der Hut sein müssen, wenn es um Phishing-E-Mails geht. Denn die Kriminellen haben nicht nur „die eine“ Methode in petto. Ihre Kreativität kennt kaum Grenzen: Allein im vergangenen Juni blockierte Barracuda weltweit über 1,7 Millionen Phishing-E-Mails.

Beispiele aus dem Alltag

Die folgenden Beispiele tatsächlich stattgefundener Phishing-Versuche verdeutlichen, wie vielfältig, komplex und letzten Endes clever Kriminelle vorgehen, um über das immer noch beliebteste Einfallstor E-Mail* an ihr Ziel zu gelangen.

  • Geldbetrügereien versprechen dem potenziellen Opfer einen attraktiven Geldbetrag.
    So können Geldbetrügereien aussehen (Bildquelle: Barracuda Networks)

    So können Geldbetrügereien aussehen (Bildquelle: Barracuda Networks)

    Antwortet der E-Mail-Empfänger, verlangen die Kriminellen in der Regel eine kleinere Summe und versprechen im Gegenzug eine größere Summe zurück – was natürlich nie passiert. Das Lockmittel „Geld“ dient aber häufig auch dazu, unternehmenskritische Informationen abzugreifen, beziehungsweise, einen Computer mit Malware zu infizieren.

  •  Beim Informationsbetrug versuchen die Kriminellen, möglichst viele relevante Informationen vom E-Mail-Nutzer abzufischen. In diesem Beispiel verschickten die Angreifer eine gefälschte Bankmitteilung, deren vermeintliche Autorität den Adressaten in Sicherheit wiegen und reagieren lassen soll. Klickt der Nutzer auf den Link, wird er aufgefordert, seine Zugangsdaten – Benutzernamen und Passwort – einzugeben, und schon ist es um die Sicherheit geschehen.
  •  Eine weitere, häufig praktizierte Methode des Phishings ist die Verbreitung von Malware durch Viren, Würmer, Bots, Ransomware oder Password Stealer-Malware. Ziel solcher E-Mails ist es, den Adressaten dazu zu bewegen, entweder einen Anhang zu öffnen (wie im Beispiel gezeigt) oder auf einen schadhaften Link zu klicken. Dies wollen Cyberkriminelle erreichen, indem sie eine dringende Angelegenheit vorgeben, die es sofort zu erledigen gilt, und somit Druck aufbauen. Damit die Malware funktioniert, versuchen die Angreifer das Opfer dahingehend zu manipulieren, dass es die Software installiert.
  •  Eigentlich sollte es sich herumgesprochen haben, Anhänge von Unbekannten Absendern oder mit exotisch anmutenden Dateiformatendungen nicht zu öffnen. Damit kalkulieren Cyberkriminelle und minimieren ihr Risiko entdeckt zu werden, mittels Anhängen mit mehreren Dateierweiterungen. Bei dieser Methode versuchen die Angreifer, ihre potenziellen Opfer zu täuschen, indem sie E-Mail-Anhänge mit einem vertrauten Dateityp verschicken. Dahinter lauert dann das Böse.

 Gefährliche Dateien

In diesem realen Versuch verwendeten die Angreifer die Dateierweiterung „PDF.zip“. Hier sollten sofort alle Alarmsirenen schrillen, da es sich um zwei verschiedene Dateitypen handelt. Leider wird die drohende Gefahr aufgrund des allseits bekannten .zip-Dateiformats nur allzu gerne übersehen

  • Nicht alle Bedrohungen kommen in Form von E-Mail-Anhängen daher, ebenso misstrauisch sollten Empfänger sogenannte getarnte Links behandeln. Der Link selbst wirkt erst einmal nicht sonderlich verdächtig. Allerdings ist er nicht das, was er vorgibt zu sein. Dahinter verbirgt sich natürlich eine bösartige URL, die es dann in sich hat. Solche Art Links werden nicht nur zur Verbreitung von Malware verwendet, sondern leiten Nutzer zu Webseiten, die Diebe explizit eingerichtet haben, um Anmeldeinformationen oder andere persönliche Informationen abzugreifen.
  •  Während Phishing gewöhnlich auf Massenreichweite abzielt, nehmen Spear Phishing-Botschaften speziell Einzelpersonen oder einzelne Unternehmen ins Visier. Diese Art des personalisierten Angriffs gibt es in den verschiedensten Varianten, etwa als gefälschte E-Mail von Banken, Bezahl- oder Zustelldiensten und sogar vom eigenen Arbeitgeber. Die Absicht ist stets die gleiche: Die Opfer sollen Geldbeträge überweisen oder sensible Daten an Kriminelle weitergeben, die sich als Chef, Kollege oder vertrauenswürdiger Kunde ausgeben.
  •  In diesem Beispiel haben sich die Kriminellen die Zeit genommen, eine trügerische Domain zu registrieren, die den Namen eines tatsächlich existierenden Unternehmens enthält. Wer jedoch aufmerksam hinschaut, wird den falsch geschriebenen Unternehmensnamen im Link bemerken (Netfliix), und die Alarmglocken sollten läuten. Diese Methode des „Typosquattings“ (engl. squatter = Hausbesetzer, übertragen: Tippfehlerdomain, Domaingrabbing) beruht darauf, dass eine Person die Webadresse versehentlich falsch eintippt und dann auf eine alternative Webseite geführt wird, die dem „Typosquatter“ gehört. Diese Seiten können dann ein Konkurrenzangebot, unpassende Werbung oder sonstige unerwünschte Inhalte enthalten.

Die gezeigten Beispiele sind nur eine kleine Auswahl der vielen Varianten von Phishing-Betrug, die Kriminelle jeden Tag zigtausendfach versenden. Eine E-Mail-Sicherheitslösung, die Sandboxing sowie einen erweiterten Schutz vor Bedrohungen bietet und Malware blockiert– und zwar noch bevor das kriminelle Anschreiben den E-Mail-Server des Unternehmens erreicht, ist ein „Muss“.

Zur Abwehr von E-Mails mit bösartigen Links hilft zudem ein Anti-Phishing-Schutz, der eine Link Protection-Funktion enthält. Diese sucht nach URLs zu Webseiten, die bösartigen Code enthalten, und blockiert Links zu gefährdeten Webseiten, selbst wenn diese sich im Inhalt eines Dokuments verstecken.

Fälschliche Links (Bildquelle: barracuda Networks)

Fälschliche Links (Bildquelle: barracuda Networks)

Ein Tipp: Indem lediglich der Mauszeiger über den Link bewegt wird – ohne diesen anzuklicken – offenbart sich die tatsächliche, kriminelle Absicht dahinter.

Allen erforderlichen Sicherheitstechnologien voran sollte jedoch immer eine fundierte Aufklärung der Mitarbeiter und Mitarbeiterinnen stehen. Diese müssen regelmäßig über aktuelle Gefahren und Phishing-Methoden geschult und anschließend getestet werden, um ihr Sicherheitsbewusstsein für verschiedene gezielte Angriffe zu erhöhen. Das simulierte Angriffstraining ist hier bei Weitem die effektivste Form solcher Schulungen. Funktioniert die menschliche Firewall, ist ein wesentlicher Schritt getan, es Cyberkriminellen – zumindest – deutlich schwerer zu machen.

Autor: Klaus Gheri, Vice President and General Manager Network Security, Barracuda Networks