Category Archives: Topstory

Millionen von Account-Daten stehen im Darknet zum Verkauf: Weitreichende Folgen sind zu befürchten

DarknetWie gestern bekannt wurde, steht eine enorm große Datenbank mit E-Mailadressen sowie Passwörtern auf der Webseite Dream Market zum Verkauf. Hierbei handelt es sich um eine Schwarzmarkt-Seite, die sich nicht im öffentlich zugänglichen Internet befindet. Insgesamt wurden hier Daten von rund 620 Millionen Accounts kompromittiert. Ersten Informationen der britischen News-Seite The Register zufolge sind die Quellen der Anmeldeinformationen 16 verschiedene Websites und sie waren zwischen den Jahren 2016 und 2018 entwendet worden.

Der Vorfall reiht sich ein in eine Welle von verheerenden Datensicherheitsvorfällen, die alleine in diesem Jahr bereits wieder die Schlagzeilen bestimmt haben. Diese Tatsache verwundert nicht, schließlich ist Cyberkriminalität ein florierender Wirtschaftszweig. Der Brancheverband BITKOM schätzt die Schäden für die deutsche Wirtschaft alleine in den letzten 2 Jahren auf rund 43 Milliarden Euro. Die Zusammenhänge der einzelnen Vorfälle sind bisweilen für Außenstehende nicht klar. Datenpannen – wie aktuell der Diebstahl von Abermillionen personenbezogener Informationen – sind dabei nur der Anfang. Die gestohlenen Daten werden oftmals, wie im aktuellen Fall, an Kriminelle im Darknet verkauft.

Die Folgen sind verheerend: Diese können zum einen beispielsweise automatisiert Konten bei Onlinehändlern eröffnen, um mittels gefälschter Identitäten Ware im realen Leben zu erwerben. Doch noch fataler ist die Tatsache, dass die Käufer zum anderen ebenso automatisierte Konten bei Public Cloud Anbietern eröffnen und die Infrastruktur dieser Anbieter für Cyberangriffe missbrauchen können – Beispielsweise für Distributed-Denial-of-Service (DDoS)-Angriffe. So stieg etwa 2018 die Anzahl der DDoS-Angriffe, die alleine über Public Cloud-Dienste generiert wurden, um 35% Prozent gegenüber dem Vorjahr. Nur allzu oft stehen hinter diesen Attacken also gestohlene Datensätze und unbeteiligte Personen, die letztendlich selbst Opfer einer Straftat (nämlich Datendiebstahl) wurden und somit ins Fadenkreuz von Ermittlungen geraten.

Autor: Marc Wilczek, Geschäftsführer und COO von Link11. Link11 ist ein europäischer IT-Security-Provider mit Hauptsitz in Frankfurt am Main und Standorten in Europa, den USA und Asien.  

Roadmap zur Cybersicherheitsforschung

RoadmapWie den digitalen Bedrohungen auf europäischer Ebene künftig besser begegnet werden kann, haben unter der Koordination des BMBF-Verbundprojektes secUnity 30 namhafte europäische IT-Sicherheitsexperten in der secUnity-Roadmap niedergelegt, darunter Forscherinnen und Forscher des Karlsruher Instituts für Technologie (KIT). Am  Dienstag, 5. Februar, stellen die Wissenschaftlerinnen und Wissenschaftler von secUnity die Roadmap in Brüssel vor und übergeben sie offiziell an die Europäische Agentur für Netzwerk und Informationssicherheit ENISA.

Übermittlung von Nachrichten, Verkehr, Industrieproduktion, Forschung, Verwaltung

Übermittlung von Nachrichten, Verkehr, Industrieproduktion, Forschung, Verwaltung – nahezu kein Bereich kommt mehr ohne moderne Informations- und Kommunikationstechnologien aus. Gleichzeitig nimmt die Zahl der Cyberangriffe, die bekannt werden, stetig zu. Solche Attacken auf die digitale Infrastruktur durch Kriminelle oder  staatliche Organisationen bedrohen den Wohlstand und die Sicherheit unserer Gesellschaften, am Ende sogar Freiheit und Demokratie.

Bei einer Abendveranstaltung in der Vertretung des Landes Hessen bei der Europäischen Union in Brüssel werden secUnity-Wissenschaftler mit Vertretern des Europäischen Parlaments und der Europäischen Kommission über „Zivile Cybersicherheitsforschung für digitale Souveränität“ diskutieren und im Anschluss offiziell die secUnity-Roadmap veröffentlichen und an die Europäische Agentur für Netzwerk und Informationssicherheit  übergeben.

„Das Gefahrenpotenzial, das Cyberattacken für hochentwickelte Länder entfalten können, kann man nicht hoch genug einschätzen“, warnt Professor Jörn Müller-Quade, Sprecher des Kompetenzzentrums für IT-Sicherheit KASTEL am KIT. In secUnity arbeiten IT-Sicherheitsexperten aus ganz Deutschland zusammen. Beteiligt sind, neben den drei nationalen Kompetenzzentren KASTEL, CRISP und CISPA, Spezialisten der TU Darmstadt, der Ruhr-Universität Bochum und der Fraunhofer-Institute für Angewandte und Integrierte Sicherheit AISEC und für Sichere Informationstechnologie SIT.

Cybersicherheitsexperten bemängeln schon lange, dass Firmen, öffentliche Einrichtungen und Institutionen nicht ausreichend auf digitale Bedrohungen vorbereitet seien. Im Gegenteil: Durch die fortschreitende Vernetzung, die sich durch digitale Trends wie Industrie 4.0, Smart Home oder selbstfahrende Autos noch potenzieren wird, würden die Angriffsflächen für Cyberkriminelle immer größer.

In der jetzt vorgelegten Roadmap, die das vom Bundesministerium für Bildung und Forschung (BMBF) geförderte Verbundprojekt secUnity initiiert hat, haben die über 30 europäischen Autoren zukünftige Herausforderungen und Lösungswege identifiziert.  Zum Beispiel werden die Sicherheit eingebetteter Systeme, Maschinelles Lernen, die Problematik der fehlenden Awareness und das Phänomen von Fake News untersucht und Vorschläge für mehr Sicherheit erarbeitet.

Problem: Hardwarelösungen ohne IT-Sicherheitsüberprüfung

Sehr kritisch sehen die Experten die Verwendung von Hardwarelösungen, die oft ohne IT-Sicherheitsüberprüfung verwendet werden. Dies gefährde die digitale Souveränität Europas. „Eine Möglichkeit diese Situation zu verbessern, wären hier europäische Prüfinstitute, um die Technik unabhängig zu analysieren“, so Professor Michael Waidner, Direktor des Nationalen Forschungszentrums für angewandte Cybersicherheit CRISP und des Fraunhofer-Instituts SIT in Darmstadt. Zudem könnten Open-Source-Software- und Hardwarelösungen transparent in der EU entwickelt werden.

Da aber auch in Zukunft noch weiterhin eine Vielzahl von preiswerten jedoch unsicheren Hard- und Softwarekomponenten  verbaut und genutzt wird, reichen Ansätze zur Entwicklung vertrauenswürdiger europäischer Lösungen  nicht aus, um  vernetzte Systeme wirksam zu schützen. Am Beispiel Smart Home führt Professorin Claudia Eckert, Direktorin des Fraunhofer-Instituts für Angewandte und Integrierte Sicherheit AISEC in München aus: „Wir brauchen Lösungen, um die Risiken solcher Komponenten zu minimieren und die Systeme resilient zu betreiben.

Kameras, Türöffner, die Heizungssteuerung – jedes Heimautomatisierungsgerät ist ein mögliches Einfallstor für große Netz-Attacken. Sichere Gateways für die Verbindung unsicherer Komponenten können beispielsweise dafür sorgen, dass keine sensitive Information die Heimumgebung verlässt und keine Zugriffe von außen auf Steuerungskomponenten möglich sind.“ Resilienz trotz unkalkulierbarer Komponenten – dies muss natürlich insbesondere für kritische Infrastrukturen wie Gesundheits- und Energieversorgung, aber auch für Behörden und Unternehmen sichergestellt werden.

Auch die weltweit stark vorangetriebene Entwicklung von Quantencomputern berge Gefahren. Jörn Müller-Quade warnt: „Es ist zwar bislang noch nicht gelungen, einen hinreichend großen Quantencomputer zu bauen, um die Sicherheit aktueller kryptographischer Verfahren zu gefährden, aber dies könnte sich schnell ändern. Der derzeitige Fortschritt in der Quantentechnologie ist so groß, dass wir heute schon Vorsorge treffen müssen. Wir müssen unsere komplexen vernetzten Systeme auf zukunftssichere, noch weiter zu erforschende Verschlüsselungsverfahren umstellen.”

Methoden der Künstlichen Intelligenz viele neue Anwendungsfälle, sie bringen aber auch gravierende Risiken für die IT-Sicherheit mit sich: Maschinelle Lernprozesse können durch gezielte Manipulationen während der Lernphase und auch im Betrieb einfach angegriffen werden. „Bevor diese Technologien in kritischen Bereichen oder zur Verbesserung der Lebensqualität eingesetzt werden können, muss das Vertrauen in diese Verfahren und in deren Zuverlässigkeit auf ein wissenschaftliches Fundament gesetzt werden“, fordert Professor Thorsten Holz von der Ruhr-Universität Bochum.

Auch werfen neue Möglichkeiten der Informationsgesellschaft wie etwa intelligente Stromnetze, die den Alltag komfortabler machen und beim Energiesparen helfen, rechtliche und ganz besonders datenschutzrechtliche Fragen auf: „Angesichts der fundamentalen Risiken, die durch die Digitalisierung ganzer Industriezweige und auch kritischer Infrastrukturen wie die Strom- oder Energieversorgung für die Versorgungssicherheit entstehen, brauchen wir dringend einen europäisch harmonisierten Rechtsrahmen für IT-Sicherheit“, sagt Dr. Oliver Raabe vom Zentrum für Angewandte Rechtswissenschaft (ZAR) des KIT.

Die rechtlichen Maßstäbe, welche Risiken akzeptabel sind und welche Schutzmaßnahmen den Unternehmen zugemutet werden könnten, müssten erst noch entwickelt werden. Ebenso Maßgaben für die Sicherung von Qualität und Unverfälschbarkeit der großen Datenbestände (Big Data).

Zudem müssen die Bürgerinnen und Bürger selbst, die zunehmend komplexe Kommunikationssysteme nutzen, beim Schutz ihrer Privatsphäre und IT-Sicherheit unterstützt werden. „Ziel der Forschung ist daher zum Beispiel, Methoden für einen Privacy Advisor zu entwickeln.

Diese sollen beim Hochladen von Bildern oder Nachrichten ins Netz die Risiken einschätzen und unter Berücksichtigung bisheriger Posts aufzeigen, wie viel zusätzliche private Information durch die Veröffentlichung preisgegeben wird. Dies würde die Bürger dabei unterstützen, sich souverän in sozialen Netzwerken zu bewegen“, kündigt Professor Michael Backes, Gründungsdirektor des CISPA Helmholtz-Zentrums für Informationssicherheit, an.

Möglichkeiten für Innovationen, aber auch die Gefahr eine scheinbar sichere Marktposition

Angesichts dieser immer größer werdenden Datenbestände, ergeben sich für viele Unternehmen neue Möglichkeiten für Innovationen, aber auch die Gefahr eine scheinbar sichere Marktposition im digitalen Zeitalter zu verlieren. „Daten sind nicht per se das Öl des 21. Jahrhunderts. Sie bekommen erst dann einen Wert, wenn Geschäftsmodelle entwickelt werden, die sie wertvoll machen – und Wertvolles hat besonderen Schutz und Sicherheit verdient“, erklärt Peter Buxmann, CRISP-Wissenschaftler und Professor für Wirtschaftsinformatik sowie Leiter des Gründungszentrums HIGHEST an der TU Darmstadt. Bürgerinnen und Bürger müssen sich des Wertes und Schutzbedarfs ihrer Daten bewusst werden, während Transparenz bei der Nutzung und Weiterverarbeitung von Daten sowie faire Preismodelle von Anbietern umgesetzt werden müssen. „Politisch sollten wir uns deswegen eher weg vom Prinzip der Datensparsamkeit in Richtung Datensouveränität bewegen und faire Geschäftsmodelle fördern und fordern“, so Buxmann.

„Um all diesen Herausforderungen zu begegnen, braucht die zivile Cybersicherheit ein interdisziplinäres Netzwerk von Experten der zivilen Cybersicherheitsforschung auf EU-Ebene“, fasst secUnity-Sprecher Jörn Müller-Quade zusammen.

Weitere Informationen  im Internet unter: https://it-security-map.eu/de/startseite/

CEO & Co. als Zielscheibe von Cyberkriminellen

(Bildquelle: Thinkstock_iStock_Hiscox Studie_Digital Economy in Cyber-Gefahr)

(Bildquelle: Thinkstock_iStock_Hiscox Studie_Digital Economy in Cyber-Gefahr)

Die Wellen in Politik und Presse schlagen hoch, wenn persönliche Daten von Personen des öffentlichen Lebens böswillig exponiert werden. Das zeigt gerade eindrücklich der Datenleak hunderter deutscher Politiker, Journalisten und Prominenten. Doch auch in Unternehmen herrscht beim Umgang mit sensiblen Daten oft eine gefährliche Mischung aus Unwissenheit und sträflicher Ignoranz. Anders lässt sich der enorme Umfang an sensiblen Daten im Netz nicht erklären.

Cybercrime kann jeden treffen

Betroffen sind längst nicht nur Politiker und Prominente. Wer sich die Mühe macht, nach sicherheitsrelevanten Informationen im Netz zu suchen, wird fündig – egal ob es sich um einen Bundestagsabgeordneten oder den CEO eines Unternehmens handelt. Erst im letzten Jahr stieß der Threat Intelligence Anbieter Digital Shadows bei einer Untersuchung auf insgesamt 1,5 Mrd. geleakte Unternehmens- und Kundendokumente. Die 12.000 Terabyte an Daten wurden meist unwissentlich und ohne böse Absicht über falsch konfigurierte Server wie FTP, SMB, rsync und Amazon S3 öffentlich ins Netz gestellt.

Risiken und Folgen von Identitätsklau im Internet. (Bildquelle: Digital Shadows)

Risiken und Folgen von Identitätsklau im Internet. (Bildquelle: Digital Shadows)

Auch die nun über Twitter veröffentlichten Adressbücher mit Telefonnummern, E-Mailkonten mit Nachrichten, Messaging-Apps mit Fotos und Chatverläufen waren teilweise bereits seit 2017 im Netz zu finden. In der Regel werden solche Informationen von Cyberkriminellen genutzt, um Angriffe vorzubereiten wie etwa Business Email Compromise(BEC).

In vielen Fällen geht es jedoch schlichtweg darum, Unternehmen und Personen Schaden zuzufügen, ein politisches Statement zu setzen oder Aufmerksamkeit zu erregen (Doxing). VIP Exposure reicht dabei vom gefälschten LinkedIn-Account des Personalchefs, der Bewerber auf gefährliche Webportale lotst, bis zur Verbreitung der privaten Handynummer des CEOs durch einen unzufriedenen Mitarbeiter.

CEOs bevorzugtes Ziel

„In jedem Unternehmen gibt es Personen, die in der Öffentlichkeit stehen und sehr schnell zur Zielscheibe von Cyberkriminellen werden können“; erklärt Stefan Bange, Country Manager Deutschland bei Digital Shadows. „Unternehmen müssen diese VIPs kennen und genau beobachten, welche Informationen über Vorstandsmitglieder, Aufsichtsrat oder wichtige Führungskräfte im Umlauf sind. Erst dann lassen sich entsprechende Gegenmaßnahmen ergreifen – und zwar zeitnah, ehe es zur nächsten großen Enthüllungsstory kommt und der Ruf des Unternehmens in Mitleidenschaft gezogen wird.“

Sieben Mythen über Roboter

Roboter können dem Menschen ähneln. Wie weit kann und soll die Unterstützung durch Roboter in der modernen Arbeitswelt reichen?  (Bildquelle: "obs/Bundesanstalt für Arbeitsschutz und Arbeitsmedizin/Uwe Voelkner / Fotoagentur FOX")

Roboter können dem Menschen ähneln. Wie weit kann und soll die Unterstützung durch Roboter in der modernen Arbeitswelt reichen? (Bildquelle: „obs/Bundesanstalt für Arbeitsschutz und Arbeitsmedizin/Uwe Voelkner / Fotoagentur FOX“)

Der aktuelle Hype um Robotic Process Automation (RPA) wird von vielen Halbwahrheiten und Missverständnissen begleitet. UiPath stellt sieben verbreitete RPA-Mythen auf den Prüfstand.

Roboter sind Jobkiller.

Der hartnäckigste aller Roboter-Mythen. Die Wahrheit ist: RPA nimmt den Menschen nicht die Arbeit weg, sondern erhöht die Arbeitsqualität. Die Mitarbeiter werden von stupiden Routineaufgaben befreit und gewinnen dadurch mehr Freiraum für kreative und anspruchsvolle Aufgaben. Zudem kann RPA die Antwort auf den demografischen Wandel geben. Durch die Automatisierung von Abläufen sind Unternehmen auch dann noch in der Lage, ihre Aufgaben zu erfüllen, wenn viele Mitarbeiter in den Ruhestand gehen und mangels Nachwuchs nicht eins zu eins ersetzt werden können.

Roboter (RPA) dienen ausschließlich der Kostenreduktion.

Ohne Zweifel bietet RPA das Potenzial zu massiven Kosteneinsparungen und Produktivitätssteigerungen. Ihr Nutzen geht aber noch viel weiter: durch die Entlastung der Mitarbeiter von ungeliebten Standardaufgaben verbessert sich das Arbeitsklima; indem menschliche Fehlerquellen ausgeschlossen werden, steigt die Qualität von Prozessen; wenn Prozesse automatisch exakt so ablaufen, wie es durch Richtlinien oder Gesetzte vorgeschrieben ist, erleichtert das die Compliance; und nicht zuletzt erhöht sich durch schnellere und bessere Services die Kundenzufriedenheit.

Roboter eignen sich nur für einfache Prozesse.

Es stimmt, dass sich Prozesse, die eindeutigen festen Regeln folgen, mit RPA am leichtesten und für gewöhnlich auch durchgängig automatisieren lassen. Das heißt aber nicht, dass komplexere Prozesse, die in ihren Abläufen auch hin und wieder Ausnahmen aufweisen, kein Fall für RPA sind. Es verlangt zwar etwas mehr Aufwand, aber auch sie können erheblich von dieser Technologie profitieren und häufig zumindest teilautomatisiert werden.

Roboter sind nur ein schickeres Wort für Makros.

Makros sind lediglich kurze Codesequenzen zur Ausführung einzelner Aufgaben und müssen jedes Mal manuell angestoßen werden. Ein Beispiel dafür ist etwa das Einfügen eines bestimmten, immer wieder vorkommenden Wortes in Texte durch die Betätigung einer festgelegten Tastenkombination. RPA ist wesentlich mächtiger als das. Software-Roboter können autonom handeln, deutlich komplexere Aufgaben ausführen und innerhalb ein- und desselben Workflows auf die verschiedensten, voneinander losgelösten Anwendungen zugreifen. Enterprise-RPA-Plattformen ermöglichen dabei eine unternehmensweite Governance.

Software-Roboter arbeiten ausschließlich im Backend.

So genannte „Unattended Robots“, also Software-Roboter, die auf Servern installiert sind und dort rund um die Uhr im Hintergrund Prozesse ausführen, bilden nur die eine Hälfte der RPA-Mannschaft. Die andere besteht aus „Attended Robots“. Das sind Software-Roboter, die sich direkt auf den Endgeräten der Mitarbeiter befinden und ihnen dort Routineaufgaben abnehmen – sei es auf direkten Befehl hin oder ausgelöst durch bestimmte Ereignisse. Den größten Nutzen können Unternehmen aus RPA ziehen, wenn sie beide Arten einsetzen und ihre Arbeit gezielt koordinieren.

Software-Roboter machen keine Fehler.

Software-Roboter führen – ohne nachzudenken – einfach das aus, was man ihnen einprogrammiert. Werden fehlerhafte Workflows automatisiert, setzen die Roboter eben diese um – im Extremfall tausendfach. Deshalb ist es unerlässlich, die Prozesse vor der Automatisierung von Fehlern zu bereinigen und die Roboter in der Anfangsphase zu überwachen.

Roboter kommen ohne IT-Abteilung aus.

Fortschrittliche RPA-Lösungen ermöglichen es in der Tat, dass die Mitarbeiter in den Fachabteilungen ihre Prozesse per Drag-and-Drop selbst automatisieren. Die zentrale IT muss diese Automatisierungen aber zentral verwalten und warten. Nur dann können Unternehmen eine hohe Qualität der automatisierten Prozesse, ihren effizienten Einsatz und eine globale Governance gewährleisten.

„RPA ist mehr als ein Hype. Sie wird ein zunehmend zentraler Bestandteil des Geschäftsalltags“, sagt Walter Obermeier, Geschäftsführer UiPath in München. „Je früher Unternehmen ihr RPA-Potenzial nutzen, desto schneller verschaffen sie sich einen Wettbewerbsvorteil. Dazu müssen sie aber genau hinschauen und nicht alles glauben, was ihnen erzählt wird.“

 

UiPath ist ein Anbieter für Enterprise Robotic Process Automation (RPA) und ein Vorreiter des „Automation First“-Zeitalters. Das Unternehmen setzt sich dafür ein, dass jedem Mitarbeiter an seinem Arbeitsplatz ein Software-Roboter zur Seite steht, bietet kostenlose, offene Schulungen und Collaboration-Tools an und stellt Roboter zur Verfügung, die sich durch KI und maschinelles Lernen neue Fähigkeiten aneignen können.

 

Zukunftstrends 2019: Die Rückkehr des Analogen

Matthias Horx gründete eine der inzwischen wohl einflussreichsten futuristischen Denkfabriken im deutschsprachigen Raum: das Zukunftsinstitut.

Matthias Horx gründete eine der inzwischen wohl einflussreichsten futuristischen Denkfabriken im deutschsprachigen Raum: das Zukunftsinstitut.

Die Internetkultur wird 2019 tiefer in eine existentielle Krise geraten. Der quasi-religiöse Hype um die Durch-Digitalisierung unseres Lebens weicht zunehmender Skepsis. Widerstand gegen die Macht der Algorithmen – ein Trend im kommenden Jahr? Der Zukunftsforscher Matthias Horx im Gespräch mit dem „Deutschlandfunk“. … mehr

 

 

Dr. Sepita Ansari Pir Seraei von Syzygy spricht im Interview über Ethik und KI

Dr. Sepita Ansari Pir Seraei ist Geschäftsführer der Digital-Marketing Agentur Syzygy.

Dr. Sepita Ansari Pir Seraei ist Geschäftsführer der Digital-Marketing Agentur Syzygy.

Der Umgang und die Beschäftigung mit Künstlicher Intelligenz gehört zum „daily business“ von Dr. Sepita Ansari Pir Seraei, denn als Geschäftsführer der Digital-Marketing Agentur Syzygy muss er sich mit allen Neuerungen auseinandersetzen, die das Online-Marketing verändern könnten. Im Interview erläutert er seine Position zu diesem oftmals sehr kontrovers gesehenen Thema.

Xethix: Was halten Sie von der KI-Strategie der Bundesregierung?

Dr. Sepita Ansari Pir Seraei: Die Idee der Bundesregierung Forschung, Entwicklung und Anwendung von KI auf ein führendes Niveau zu bringen, ist ein hehres und wichtiges Ziel, da die „Basis-Innovation“ unsere Wirtschaft und unser Leben verändern und verbessern wird. Sollten wir nicht an dieser Innovation partizipieren, werden wir im internationalen Wettbewerb im Bereich der Künstlichen Intelligenz weiterhin keine Rolle spielen und Anschluss an die Amerikanischen und Chinesischen Wirtschaftsunternehmen verlieren (GAFA, Baidu, uvm.) – das gilt übrigens für ganz Europa.

Die „Strategie“ der Bundesregierung liest sich zwar auf dem Papier recht detailliert, doch wird sie keinen größeren Effekt haben, solange die gesellschaftliche Akzeptanz für Daten und für künstliche Intelligenz gefördert wird, denn wie so häufig wurde die Gesellschaft bei dem Thema Künstlicher Intelligenz kommunikativ nicht mitgenommen. Unsere Deutschen Mitbürger haben nicht nur beim Thema KI Bedenken, sondern auch beim wichtigsten Baustein von KI, den Daten, wie viele Studien belegen.

Zudem ist die Infrastruktur für die Nutzung von Daten nicht gegeben und die politisch und medial viel zu heiß gekochte Datenschutzgrundverordnung wird es für kleinere und mittlere Unternehmen noch schwerer machen in dem Bereich der Künstlichen Intelligenz zu innovieren, da die Möglichkeiten der Datennutzung rechtlich erschwert werden und die größeren Netzwerke, wie z.B. Facebook/Instagram, Google/Youtube oder auch Amazon durch den Einwilligungszwang im Wettbewerb zu den deutschen Unternehmen einfacher an Daten herankommen.

Xethix:  Warum haben die Menschen so Angst vor KI?

Dr. Sepita Ansari Pir Seraei: Die Angst vor KI entsteht durch die Sorge, dass die eigenen Jobs zukünftig betroffen sind (und die Jobs unserer Kinder), aber natürlich auch durch den militärischen Einsatz von KI.

Die fehlende Kommunikation der Unternehmen, der Forscher, sowie der Politik verstärken (Bestätigen) dann diese Besorgnis.

 Xethix: Meist konzentriert sich diese Angst auf „emotionale KI“, diese ist aber nach Meinung vieler Experten noch lange nicht absehbar. Sehen Sie das auch so?

Dr. Sepita Ansari Pir Seraei: Emotionale KI / Emotional Recognition wird bereits z.B. in Chatbots eingesetzt, wo versucht wird, dass der Algorithmus „empathisch“ auf Nutzer reagiert – Letztendlich versucht der Algorithmus dabei nur auf das Verhalten der Menschen zu reagieren – Der Algorithmus hat quasi keine eigene Emotion, sondern „emotionale“ Muster. Zukünftig werden Algorithmen auf anderen Algorithmen treffen, um z.B. ein Friseur-Termin zu vereinbaren – Der Chatbot des Konsumenten macht mit dem Chatbot des Friseursalons einen Termin aus und die Termine werden dann beidseitig ins System gespeichert.

Angst vor emotionale KI oder generell KI ist immer unbegründet, da wir die Technologie für uns (positiv) nutzen sollten.

Xethix: Gehen wir mal von dem Fall aus, dass KI auch emotional agieren kann. Doch Algorithmen können immer nur mit den Informationen agieren, mit der sie befüttert wurden. Wer sollte entscheiden, mit welchen Informationen KI befüllt wird, sollte es hier auch ein „Vier-Augen-Prinzip“ geben?

Dr. Sepita Ansari Pir Seraei: Das ist genau die Gefahr, die auch die Bundesregierung sieht, dass wir in der KI abgeschlagen werden und die Algorithmen durch andere Hände gebaut/gesteuert werden. Erst wenn wir die Technologie (und die technologischen Märkte) beherrschen, können wir auch (ethisch) Einfluss nehmen.

Diese Gefahr ist akut – Wenn wir nicht mittel-/langfristig innerhalb der KI ein Wort mitsprechen, können wir auch nicht entscheiden ob es z.B. nicht immer externen (staatlichen) Zugang zum Algorithmus geben muss, sondern sind den Anweisungen/Regeln der führenden KI-Unternehmen unterworfen.

Xethix: Rein technisch wäre es möglich, Algorithmen per GPS l auf die territorial jeweils geltenden Ethiknormen umzukodieren, um unterschiedliche Wertvorstellungen national durchzusetzen. Zugleich stellte sich aber die Frage, ob und wie es möglich wäre, der Technik einen ethischen Standard zu geben, der global verbindlich sein könnte. Lässt sich dieses Dilemma lösen?

Dr. Sepita Ansari Pir Seraei: Meiner Meinung nach, wenn ich ihre Frage richtig verstanden habe, ist KI immer ein globales Thema. Wenn wir lokal bestimmen, welche Algorithmen per Grenzen laufen sollen, werden diese Gesetze umgangen. Als Beispiel können wir ad1 Amazon schwer vorgeben (und kontrollieren), wie sie innerhalb von Ländergrenzen die Algorithmen steuern  – zudem können wir ad2 auch den Konsumenten schwer vorschreiben, welche Portale er nutzen soll (damit er dann in bestimmte Länder-Algorithmen fällt) – diese Verbote funktionieren nur in einem Rahmen, wo rechtliche, bzw. wirtschaftliche Missstände vorliegen und auch da hat der Nutzer (aktuell) die technische Möglichkeit, diese Vorgaben zu umgehen.

 Xethix: Nach wie vor besteht ja auch die Hoffnung auf die wohlgesinnte KI: Wenn künstliche Intelligenz weit wirkungsvoller als heute Siri, Alexa, Jibo, Cortana und Candid als selbstbestimmter Kommunikationspartner des Menschen auftritt, kann sie diesem die Inputs für ethische Entscheidungen vorgeben?

Dr. Sepita Ansari Pir Seraei: Es gibt bei der künstlichen Intelligenz sehr viele positive Felder (Behandlung von Krankheiten, Autonomes Fahren, Kommunikation, Beratung, Analyse, …), die Konsumenten und Unternehmen die Arbeit erleichtern können und für (gesundheitliche) Wohlfahrt sorgen. Insbesondere die Assistenten werden für viel mehr Freizeit sorgen, da viele Arbeiten zukünftig verbal delegiert werden (Alexa, lass imow den Rasen mähen – OK Google, ich möchte nach Bremen mit meinem Auto, fahr das Auto vor und navigier mich über das nächste Starbucks usw. – Cortana, öffne Word, schreibe Artikel zu Ethik und KI, Überschrift Ethik und KI, erster Absatz: ….).

Problematisch ist immer noch, was mit „meinen“ Daten passieren – wer ist der Besitzer dieser Daten? Meiner Meinung nach, sollte der Besitzer der Daten immer der Konsument sein und wenn er diese an Dritte verkaufen möchte, ist das sein Recht. Aktuell sind die Daten in der Hand der „Datenkraken“, wie Google, Amazon und Facebook und das ist die Gefahr, dass diese Plattformen als zukünftiger Gate-Keeper nicht nur die Daten an Werbungstreibende weiterverkaufen, sondern zukünftig das Leben der Individuen bestimmen, bzw. kommunikativ manipulieren.

 Im Interview: Dr. Sepita Ansari Pir Seraei ist Geschäftsführer der Digital-Marketing Agentur Syzygy. Seit über 15 Jahren beschäftigt er sich mit dem Thema Online Marketing. Er ist Hochschuldozent an der Hochschule München, sowie an der Hochschule Würzburg-Schweinfurt, sowie stellv. Vorsitzender der Fokusgruppe Content-Marketing im Bundesverband Digitaler Wirtschaft (BVDW).  Syzygy ist einer der bekanntesten und besten Digital Marketing Agenturen im deutschen Markt. Von der ganzheitlichen Analyse, über Strategieentwicklung bis hin zur Implementierung stehen wir für maßgeschneiderte Lösungen, Nachhaltigkeit und eine transparente, partnerschaftliche Zusammenarbeit. Wir unterstützen unsere Kunden dabei in allen Phasen des Digitalen Marketings und haben uns insbesondere auf SEO, SEA, Content Marketing, Social Media und Analytics spezialisiert.

 

 

Statements zur KI-Strategie der Bundesregierung

Die Gesellschaft für Informatik e.V. (GI) bewertet die „Strategie Künstliche Intelligenz“ der Bundesregierung als einen sehr wichtigen und vielversprechenden ersten Schritt auf dem Weg, Deutschland und Europa zur KI-Weltspitze zu entwickeln.

Gleichwohl schlägt die GI Konkretisierungen im Zuge der Umsetzung deKommunikation_Social_Media_rikilo_Fotoliar Strategie vor, insbesondere bei der interdisziplinären Forschung, bei der Vermeidung militärischer KI-Forschung und bei der Stärkung des akademischen Mittelbaus.

Deutschland und Europa sollen in Zukunft führender Standort für Künstliche Intelligenz (KI) werden.

Dafür hat die Bundesregierung auf der Kabinettssitzung in Potsdam eine „Strategie Künstliche Intelligenz“ beschlossen. Sie will damit einen „Rahmen für eine ganzheitliche politische Gestaltung der weiteren Entwicklung und Anwendung Künstlicher Intelligenz in Deutschland“ setzen. Die Gesellschaft für Informatik e.V. (GI) und der GI-Fachbereich ‚Künstliche Intelligenz‘ (GI-FBKI) als größte nationale, gemeinnützige KI-Organisation in Europa begrüßen diese KI-Strategie, sehen allerdings Konkretisierungsbedarf für deren Umsetzung bei der interdisziplinären Forschung, bei der Vermeidung militärischer KI-Forschung und bei der Stärkung des akademischen Mittelbaus in der KI-Forschung.

Prof. Dr. Hannes Federrath, Präsident der GI: „Die Gesellschaft für Informatik und insbesondere der Fachbereich ‚Künstliche Intelligenz‘ begrüßen die Bestrebung der Bundesregierung sowohl Forschung und Entwicklung als auch Anwendung von KI in Deutschland und Europa auf ein weltweit führendes Niveau zu bringen. Wir unterstützen insbesondere die verantwortungsvolle und am Gemeinwohl orientierte Entwicklung und Nutzung von KI. Die Strategie hat alle wesentlichen Vorschläge aufgenommen, die die GI im Rahmen des Konsultationsprozesses eingebracht hat. Jetzt muss die Bundesregierung schnell in den Umsetzungsmodus kommen und die aufgezeigten Maßnahmen in konkretes Regierungshandeln überführen.“

PD Dr. Matthias Klusch, Sprecher des GI-FBKI: „Wir begrüßen ausdrücklich die Bestrebung der Bundesregierung, die KI in Forschung, Lehre und praktischer Anwendung unter der Bezeichnung „Artificial Intelligence (AI) made in Germany“ signifikant zu fördern. Insbesondere unterstützen wir die Absicht, dass die Förderung auf einer breiten wissenschaftlichen und technologischen Basis unter Berücksichtigung bereits in Deutschland bestehender, exzellenter Kompetenzen in der KI als Ganzes erfolgen soll und nicht auf das KI-Teilgebiet Maschinelles Lernen beschränkt wird. Neben dem Aufbau von weiteren Zentren für KI-Spitzenforschung in Deutschland, mit besonderer Position des Deutschen Forschungszentrums für Künstliche Intelligenz, ist auch eine breitere Förderung von Hochschulen notwendig, um die Exzellenz auch in der Breite und durch optimale Ausbildung von benötigten Fachkräften in der KI zu ermöglichen.

Herausforderungen für die KI-Forschung

Eine der zentralen, künftigen Herausforderungen für die KI-Forschung stellt die Entwicklung von Methoden für eine geeignete Integration von unterschiedlichen KI-Technologien dar, wie die formal-logische Inferenz von Wissen, automatisches Planen oder Lernen mit neuronalen Netzen, das sogenannte ‚Deep Learning‘. Das kann zur Entwicklung von neuen, innovativen KI-Systemen und Anwendungen führen, die in einer realen Umwelt mit und für den Menschen sicher und verständlich nachvollziehbar, situativ optimal lernen, planen und handeln. Dabei sollte sich die KI-Forschung interdisziplinär auch am notwendigen kritischen, gesellschaftlichen Diskurs über Risiken und Chancen ihrer Anwendung und wirtschaftlichen Verwertung in Bereichen wie Industrie und Arbeit 4.0, Gesundheitswesen und autonomes Fahren, aktiv beteiligen – schon allein um überzogen optimistischen oder dystopischen Vorstellungen in diesem Kontext entgegenzuwirken.“

Mehr verantwortungsvolle, interdisziplinäre und keine militärische KI-Forschung

Die GI begrüßt deshalb ausdrücklich auch die Pläne der Bundesregierung zu einer verantwortungsvollen und am Gemeinwohl orientierten Entwicklung und Nutzung von KI und fordert mehr interdisziplinäre Forschung.

Prof. Dr. Christina B. Class, Sprecherin des GI-Fachbereichs ‚Informatik und Gesellschaft‘: „Der zunehmende Einsatz von KI wird nicht nur die Arbeitswelt und Geschäftsbeziehungen verändern, sondern die gesamte Gesellschaft. Daher müssen nicht nur die Sozialpartner, sondern alle betroffenen Gruppen einbezogen werden. Ein sogenanntes ‚Ethics by, in and for design‘ ist nicht ausreichend, um allen Fragen zu begegnen. Forschungsförderung muss sich auch auf interdisziplinäre Fragen beziehen. Die Veränderungen, die auf uns zukommen, müssen in allen Bereichen bewusst gestaltet werden, um die Grundwerte unserer freiheitlich demokratischen Grundordnung zu bewahren. Wir hoffen, dass die Bundesregierung die Strategie um tragfähige Vorhaben in diesen Fragen ergänzt.“

Die Erforschung von KI-Anwendungsmöglichkeiten zum Schutz der äußeren Sicherheit und für militärische Zwecke im Rahmen der Ressortzuständigkeiten sieht die GI äußerst kritisch. So unterstützt der GI-Fachbereich ‚Künstliche Intelligenz‘ die Initiative gegen intelligente, autonome Waffensysteme mit Entscheidungsgewalt zur Tötung von Menschen, sieht darin auch einen weiteren wichtigen Beitrag zu einem möglichen Markenkern der „AI made in Germany“ und fordert eine solche Berücksichtigung in der Konkretisierung der KI-Strategie der Bundesregierung.

Notwendiger Ausbau informatischer Bildung zu KI und in der Breite

Die Bundesregierung will, dass allen Schülerinnen und Schülern, die ab dem Schuljahr 2018/2019 eingeschult werden, bis zum Ende ihrer Schullaufbahn „ein umfassender Kanon digitaler Kompetenzen“ vermittelt wird. Die GI begrüßt diesen Anspruch ausdrücklich. Damit die allgemeinbildende Schule dem jedoch gerecht werden kann, braucht es allerdings mehr als den „Digital-Pakt“, der in erster Linie auf die nötige digitale Infrastruktur abzielt. Der Ausbau der informatischen Bildung, auch aber nicht nur zu Künstlicher Intelligenz, in den allgemeinbildenden und den berufsbildenden Schulen ist einer der wichtigsten Schlüssel für die Zukunftsfähigkeit unseres Landes, da diese Aufgabe nicht von anderen Fächern nebenbei erfüllt werden kann.

Prof. Dr. Torsten Brinda, Sprecher des GI-Fachbereichs ‚Informatik und Ausbildung/ Didaktik der Informatik‘: „Es ist unerlässlich, dass dabei ein wesentliches Augenmerk auf die Informatik als Leitwissenschaft der Digitalisierung gerichtet wird, und dass flächendeckend und verpflichtend alle Schülerinnen und Schüler entsprechende Kompetenzen erwerben. Das ist in der erforderlichen inhaltlichen Tiefe in der Breite fächerintegriert nicht möglich – es erfordert einerseits ein Fach „Informatik“ für alle und andererseits entsprechende Investitionen in die dafür erforderliche Ausbildung von Informatik-Lehrkräften. Der Bund muss den Ländern dafür gezielt Anreize setzen. Nur so können kommende Generationen zu mündigen und verantwortungsvollen Gestaltern des digitalen und gesellschaftlichen Wandels ausgebildet werden.“

Wissenschaftlichen Mittelbau in der KI stärken und Brain-Drain vermeiden

Die KI-Strategie sieht vor, ein Programm zur wissenschaftlichen Nachwuchsförderung und Lehre im Bereich KI aufzulegen; insbesondere sollen 100 KI-Professuren neu geschaffen werden. Das ist sehr zu begrüßen! Dabei ist sehr zu hoffen, dass diese Stellen nicht nur international konkurrenzfähig bestens und permanent ausgestattet werden, sondern auch inhaltlich die KI als Ganzes exzellent abdecken können und sich nicht, wie auf dem aktuellen Stellenmarkt bereits stark tendenziell sichtbar, nur rein auf maschinelles Lernen oder verwandte Felder wie Data Science beschränken.

Ansonsten besteht das sehr hohe Risiko, dass im internationalen Vergleich unser wissenschaftlicher Mittelbau in der deutschen KI-Forschung bereits auf kurze und mittlere Sicht extrem geschwächt wird – und damit auch ein ansteigendes Abwandern von Fachkräften und Experten in der KI ins Ausland („Brain-Drain“) einhergeht. Spitzenforschung braucht einen starken akademischen Mittelbau von Nachwuchswissenschaftlern: Sie sind das Rückgrat deutscher Spitzenforschung und wesentlicher Erfolgsfaktor für den Wissenschafts- und insbesondere den Informatik-Standort Deutschland.

Dr. Kerstin Lenk, Sprecherin des GI-Beirats für den wissenschaftlichen Nachwuchs: „Gerade im akademischen Mittelbau sind die Arbeitsverhältnisse oft prekär. Das ist ein generelles Problem. Um die Abwanderung des hoch qualifizierten wissenschaftlichen Nachwuchses in die Wirtschaft oder das Ausland kurzfristig zu verlangsamen und langfristig zu stoppen, sind konkrete Maßnahmen erforderlich. Befristete Arbeitsverträge, schlechte Arbeitsverhältnisse und Vergütung machen Wissenschaft für viele Nachwuchstalente zur unattraktiven Risikokarriere.“

Die Gesellschaft für Informatik e.V. (GI) ist mit rund 20.000 persönlichen und 250 korporativen Mitgliedern die größte und wichtigste Fachgesellschaft für Informatik im deutschsprachigen Raum und vertritt seit 1969 die Interessen der Informatikerinnen und Informatiker in Wissenschaft, Wirtschaft, öffentlicher Verwaltung, Gesellschaft und Politik. Mit 14 Fachbereichen, über 30 aktiven Regionalgruppen und unzähligen Fachgruppen ist die GI Plattform und Sprachrohr für alle Disziplinen in der Informatik. 

Der GI-Fachbereich ‚Künstliche Intelligenz‘ (GI-FBKI) ist Träger der von der GI geförderten wissenschaftlichen Arbeit auf allen Teilgebieten der Künstlichen Intelligenz. Der Fachbereich veranstaltet eine jährliche Fachtagung KI, auf der insbesondere Arbeiten aus seinen aktuell 11 Fachgruppen und Arbeitskreisen zum Fachgebiet Künstliche Intelligenz vorgestellt werden. Ferner gibt der Fachbereich die Zeitschrift „Künstliche Intelligenz“ im Springer Verlag heraus, die neben fachlichen Aufsätzen zur KI auch über Aktivitäten im Fachbereich berichtet. Der GI-FBKI ist mit über 1.000 Mitgliedern eine der größten und wichtigsten nationalen KI-Verbände in Europa und Teil der europäischen KI-Dachorganisation EurAI (European Association for Artificial Intelligence). Weitere Informationen finden Sie unter www.kuenstliche-intelligenz.de

 „Urbane Logistik: notwendig, möglich, gestaltbar – es braucht Willen zur Gestaltung“

Prof. Dr.-Ing. Thomas Wimmer ist Vorsitzender der Geschäftsführung bei der Bundesvereinigung Logistik e.V. (BVL)

Prof. Dr.-Ing. Thomas Wimmer ist Vorsitzender der Geschäftsführung bei der Bundesvereinigung Logistik e.V. (BVL)

In Deutschland erleben wir einen neuerlichen Trend der Verstädterung. Für Städte bietet sich die Chance, die Lebensqualität ihrer Bürgerinnen und Bürger durch mutige Schritte im Bereich der Urbanen Logistik erheblich zu verbessern. Sie ist ein zunehmend komplexes Handlungsfeld mit vielfältigen Akteuren und Stakeholdern. Eine eindeutige Rollenverteilung ist noch nicht erfolgt. Das Spiel um die Organisation und Ausgestaltung der Urbanen Logistik ist offen. Wir werden in näherer Zukunft interessante Modelle und Veränderungen erleben.

Städtische Infrastruktur ist historisch gesehen verschiedenen Entwicklungsschüben unterworfen gewesen. Eine erste Phase enormer Verstädterung begann in Europa zur Mitte des 19. Jahrhunderts. Einer der wichtigsten Antriebe dafür war die zunehmende Industrialisierung, die zu explosionsartigem Zuzug von arbeitsuchender Landbevölkerung führte.

Die bestehende Infrastruktur – Wohnungsbau, Verkehrswege, Versorgungsleitungen und vieles mehr – war hierfür nicht ausgelegt. Die aus Wachstum und Verdichtung der Städte als soziale Frage definierte Not großer Teile der städtischen Bevölkerung führte zu einer Reihe technischer und infrastruktureller Innovationen, insbesondere im Bereich Wasserversorgung und Kanalisation.

Der Bau großer Mietskasernen erforderte zudem deren Versorgung mit Energie, zunächst mit Kohle, später mit Gas und Strom (aus Verbrennung von Kohle). Die Anlieferung erforderte Eisenbahn- und/oder Wasserwege. Hieraus resultierte häufig eine Verschiebung der Stadtgrenzen nach außen. Die Städte wuchsen weiter, benötigten aber Nahverkehrsstrukturen, um Arbeiterinnen und Arbeiter über zum Teil lange Distanzen zu den immer öfter außerhalb des Stadtzentrums gelegenen Fabriken transportieren zu können.

Im Jahr 2005 lebten weltweit ca. 49 Prozent der Bevölkerung in Städten. Bis zum Jahr 2030 könnte dieser Anteil auf 60 Prozent steigen. In Deutschland erleben wir nach der Periode einer Suburbanisierung in der zweiten Hälfte des 20. Jahrhunderts seit einigen Jahren einen neuerlichen Trend zur Land-Stadt-Wanderung.

Laut jüngeren Prognosen wird in Deutschland der in Städten lebende Bevölkerungsanteil von derzeit gut 77 Prozent auf 78,6 Prozent im Jahr 2030 ansteigen und bis 2050 auf gut 84 Prozent wachsen. Auch Familien mit Kindern zieht es häufiger als früher in die Stadt beziehungsweise sie wandern nicht mehr ins Umland ab.

Der neuerliche Trend zum Wohnen in der Stadt lässt diese bereits jetzt spürbar wachsen. Verkehrsdichte und Wohnkosten sind Teil der aktuellen politischen Debatte.

Waren im 19. und 20. Jahrhundert infrastrukturelle Innovationen häufig in Neubaugebieten zu realisieren oder ließen sich vergleichsweise einfach in bestehende Strukturen integrieren, stellt die heutige Verdichtung bestehender städtischer Strukturen Verkehrs- und Stadtplaner sowie andere Akteure vor anders gelagerte Herausforderungen. Darüber hinaus hat sich die Gesetzgebung zu Planung und Realisierung von Infrastrukturprojekten gewandelt. Es ist nicht mehr mit einem am Reißbrett entworfenen „Masterplan fits it all“ getan.

Die Versorgung bereits bestehender Stadtteile als auch neuer Quartiere und ihrer Bewohner mit Gütern kann nur durch eine leistungsfähige Logistik erfolgen. Dennoch fehlt in der Wissenschaft wie auch in Politik und Verwaltung häufig Einsicht oder die Bereitschaft, Güterverkehre und Logistik als Eigenschaft und notwendige Voraussetzung städtischen Daseins zu verstehen und integriert zu berücksichtigen (Schwedes, Rammler; 2012; Mobile Cities).

Es sind gleichwohl Städte und Gemeinden selbst, denen aufgrund ihres Selbstverwaltungsrechts „unterhalb“ der staatlichen Ebene eine wichtige Akteursqualität in der Ausgestaltung der Urbanen Logistik zufällt. Laut Grundgesetz ist ihnen die Regelung der „örtlichen Angelegenheiten“ überlassen.

Zugleich entscheiden aber Bundes- und Landesverwaltungen über den Rahmen der kommunalen Aufgaben und Kompetenzen sowie ihre finanzielle Mittelausstattung. Bei zentralen Planungs- und Investitionsentscheidungen sprechen die Bundesländer ebenfalls ein gewichtiges Wort mit. Bundesgesetze sind dabei in erheblichem Maße zu berücksichtigen (vgl. Jungfer 2005 und Bogumil/Holtkamp 2006).

Stadtbewohner denken bei Verkehrsströmen in ihrem Umfeld zuweilen an den (eigenen) Individual- oder öffentlichen Nahverkehr.

Diese sind tendenziell positiv konnotiert. Lieferwagen, Lkws in Werks- und Versorgungsverkehren werden hingegen als eher störend empfunden. Der (Güterverkehrs-)Logistik wird demnach in der Stadt eine Rolle zugeschrieben, wie sie vor einigen Jahrzehnten in den Betrieben und der Betriebswirtschaft wahrgenommen wurde: Sie wird als selbstverständlich gegeben und als Teil eines größeren Systems akzeptiert und als etwas lästig empfunden – sofern überhaupt wahrgenommen.

Die Wahrnehmung änderte sich radikal in den vergangenen rund 40 Jahren. Gegenwärtig wird Logistik meistens als eigenständiger und zentraler Bestandteil der Wertschöpfungskette betrachtet. Auf dem Gebiet der städtischen Logistik stellen Firmen und Forscher bereits heute Lösungsansätze für eine Urbane Mobilität der Zukunft bereit.

Beispiel: Das Fraunhofer IML zeigt mit seinem Projekt GeNaLog zur geräuscharmen Nachtlogistik, dass die Umsetzung von Nachtbelieferungen gelingen und so zur Entlastung des Tagverkehrs beitragen kann. Hürden für eine konsequente Nutzung stellen unter anderem fehlende Einfahrerlaubnisse, Regelungen zur Geräuschemission und meist nicht optimierte Ladungsträger dar.

Darüber hinaus erproben eine Vielzahl von Start-ups wie auch bekannte Dienstleister aus der Paketzustellung neue Modelle der Warenbeförderung. Fahrzeuge der Sprinter-Klasse etwa werden durch Lastenfahrräder in verschiedenen Formen ersetzt. Diese Marktoffenheit ermöglicht es Start-ups, mit unterschiedlichen Konzepten und Geschäftsmodellen in den Wettbewerb zur Gestaltung zukünftiger Stadtlogistik einzutreten (Rytle, Kitcar u.a.).

Bekannt sind auch völlig neu konzipierte Lieferwagen mit Elektroantrieb, die gegenüber einem Lastenrad mehr Volumen transportieren und vor Ort weniger Lärm und Abgas produzieren als herkömmlich motorisierte Wagen.

Alle hier gewählten Beispiele zeigen, dass auf technischer Seite Fortschritte gemacht wurden. Viele Initiativen und technische Innovationen stoßen gleichwohl an Grenzen: Wenn sie zwar mit den Städten in deren gegenwärtigem Ist-Zustand arbeiten können und auf freien Flächen vor allem Wohn- und Büroquartiere entstehen, gleichzeitig aber keine „Räume städtischer Logistik“ vorgehalten werden. Logistiker liefern also bereits jetzt Innovationsangebote für eine Urbane Logistik, die aber in den Städten häufig noch nicht ausreichend mitgedacht wird.

Logistische Lösungen benötigen eine zeitgemäße Infrastruktur.

Dazu gehören Rad(schnell)wege, flexible Einfuhr- und Belieferungsbestimmungen, Entzerrung der Verkehre und vor allem ein abgestimmtes Mobilitätskonzept, das unbedingt auch städtische Logistik als eigene Betrachtungsgröße integriert. Jede Bürgerin, jeder Bürger einer Stadt ist auf die ein oder andere Weise zugleich Mobilitätsteilnehmer. Die Logistikorganisation in der Stadt wird sich stets an der existierenden Infrastruktur orientieren.

Gibt es reichlich auf Individualverkehre ausgelegte Verkehrswege, ist deren Mitbenutzung durch Lieferverkehre mit 3,5t-Fahrzeugen der Sprinter-Klasse die logische Folge. Als Alternative zum Status quo gilt eine Ausrichtung auf einen größeren Verkehrsmittelmix. Ein größerer Anteil von Kollektivverkehren würde eine neue Gestaltung von Urbanen Räumen ermöglichen und böte Logistikern einen Rahmen, um eine Stadt im Sinne der dort lebenden Bürger aufzuwerten. Dazu gehören auch Flächen für die städtische Logistik zur Gestaltung von Prozessen des Waren-Handling.

Bisher ist die Logistik als Neuansiedlung bis auf wenige, sehr kostspielige Ausnahmen (Abrechnung für Logistikimmobilien derzeit als Mietpreis je qm in zentralen Lagen – Wasserwerke zahlen keinen Mietpreis) am Stadtrand oder gar im Umland beschränkt.

Ein ausgeprägtes Bewusstsein für die Funktion von Logistik in der Stadt fehlt bei allen Akteuren (Bewohnern, Handel, Politik, Verwaltung etc.). In Initiativen für die Stärkung des städtischen Einzelhandels wird eine täglich mehrfach erfolgende Belieferung als Stand der Dinge erwartet, die Anlieferung aus einem entfernten Logistikzentrum bleibt jedoch verpönt. Die bigott anmutende Diskussion kreist somit um extrem hohes Straßenverkehrsaufkommen aufgrund umfänglicher Touren aus dem Umland und der gleichzeitigen Verneinung bzw. Nicht-Diskussion von innerstädtischen Lager- und Umschlagsflächen.

Diese wären eine Grundlage für die Umsetzung verkehrsberuhigter Anlieferungen. Hier entstehende Arbeitsplätze lägen zudem dichter an Wohngebieten. Reduziertes Pendeln würde außerdem verkehrsentlastend wirken und vor allem Emissionen einsparen. Die Logistik kann ihre Lösungen nur innerhalb der gesetzten Rahmenbedingungen anbieten und ist somit auf die Zusammenarbeit mit anderen Wirtschaftsbereichen, Verwaltung und Politik angewiesen.

Offensichtlich ist also das Thema der Gestaltung Urbaner Logistik kein rein wirtschaftliches Thema – das sollte und darf es nicht sein! Die verschiedenen Akteure bzw. Stakeholder einer Stadt sind gleichwohl derzeit noch nicht ausreichend, geschweige denn vollumfänglich erfasst. Zu den Stakeholdern zählen etwa der Einzelhandel, Gastronomen (insb. mit Außenbereichen), Logistikdienstleister, Wirtschaftsförderer, Stadtplaner, Quartiersmanager, Bürger, Immobilienentwickler und andere.

Eindeutige Rollenbeschreibungen fehlen sehr häufig, viele Akteure handeln in mehreren Rollen. Trennt die klassische Logistik zwischen Verlader, Transporteur und Empfänger ist die Urbane Logistik deutlich vielschichtiger. Mit Ansätzen wie dem Engagement von Kunden als Transporteuren werden Grenzen zwischen Stakeholdern zusätzlich verwischt.

Die Wünsche von End- und Geschäftskunden werden zudem anspruchsvoller: Die Ware soll schnell verfügbar, ökologisch sauber transportiert sein und unter als fair wahrgenommenen Arbeitsbedingungen geliefert werden. Gleichzeitig verhalten sich Kunden höchst preissensibel bei Lieferkosten. Sie erhöhen so den Kostendruck auf Logistikdienstleister und beklagen den „Wilden Westen“ des innerstädtischen Verkehrs – Staus, Emissionen, zugeparkte Wege und Einfahrten, fehlende Belieferungskonzepte etc.

Das Thema Wohnen überwiegt zudem in den Agenden der meisten größeren und mittelgroßen Städte und ihrer Bürger. Politischen Willen bzw. die Initiierung eines Willensbildungsprozesses kann die Logistik erfolgreich alleine kaum erwirken, ohne in den Verdacht zu geraten, Partikularinteressen zu verfolgen. Aufgrund ihres bisher hohen Flächenverbrauchs wird sie klassisch mit Fahrzeugen und Hallen zudem schnell als lästig, teuer oder als für das Stadtbild unattraktiv abqualifiziert. Es geht gleichwohl um mehr Imagebildung!

Deswegen benötigt es politische Initiative: Hier sei beispielhaft auf die knapp 30.000 Einwohner zählende Stadt Bad Hersfeld verwiesen, die eine neue Form der Innenstadtbelieferung definierte. Verwaltungsseitig gibt sie den Logistikern den Raum, innerhalb exakter Vorgaben die neuen Lieferkonzepte wirtschaftlich tragbar auszugestalten. Ein Hub außerhalb der Innenstadt dient als Anlieferungs- und Umschlagspunkt, von ihm erfolgt zentral und gebündelt die Auslieferung an die Privat- und Geschäftskunden in der Fußgängerzone.

Die gebündelten Transporte sollen den Verkehr in der Fußgängerzone reduzieren und somit Konflikte zwischen Transporteuren, Anliegern, Ordnungsamt und Fußgängern drastisch reduzieren helfen. In die gleiche Richtung weist die Initiierung von Mini-Depots, an die sich Kunden der Geschäfte ihre Einkäufe liefern lassen können, um sie dort gebündelt abzuholen oder sie von dort nach Hause liefern zu lassen. Das Beispiel zeigt auf, dass es also nicht um schlichte Lieferzeitbeschränkungen geht, sondern um die Entwicklung und Möglichmachung von alternativen Konzepten.

Fazit: Aufgrund geänderter Ansprüche und Konsumgewohnheiten, Umweltschutzgedanken und weiterer Urbanisierung der Gesellschaft herrscht erneut Handlungsbedarf für einen Entwicklungsschub in der Organisation und Ausgestaltung städtischer Mobilität und Logistik. Die Herausforderungen waren auch im 19. Jahrhundert nicht klein. Eine konsequente Nutzung vorhandener technischer

Autor: Prof. Dr.-Ing. Thomas Wimmer, Vorsitzender der Geschäftsführung; Christoph Meyer, Leiter Forschung und Veranstaltungen; Sebastian Huster, Projektmanager, Bundesvereinigung Logistik e.V. (BVL). Prof. Dr. Thomas Wimmer ist Referent in der EXCHAiNGE-Session ”Start-ups, Corporates or Customers: Who is actually doing the Innovation?” am 20.11.2018 (Hypermotion-Lab | Ausstellungsbereich Halle 5.1)

 

Mit Sicherheit auf dem Weg in die Plattformökonomie

Bildquelle: Fotolia_146248266_M

Bildquelle: Fotolia_146248266_M

Wenngleich in den Diskussionen rund um das Thema Plattformökonomie der Fokus zumeist auf die Geschäftsmodelle gelegt wird, gibt es mittlerweile vermehrt Jene, die eine Technologiebetrachtung als bedeutender erachten.

Auch bei der Beurteilung von Chancen und Risiken herrscht keine Einigkeit – während von einigen Experten die Plattformökonomie als das probate Mittel im globalen Wettbewerb ausgewiesen wird, sehen andere wie etwa Prof. Lutz Becker, Leiter der Business School und Studiendekan Sustainable Marketing & Leadership an der Hochschule Fresenius, Köln hier gleichwohl Probleme.

So vertritt er unter anderem die Auffassung, dass „Plattformen aufgrund ihrer Marktmacht die Wirtschaftsverfassung unterhöhlen“. Ebenso müsse hinterfragt werden, wie die zunehmende Komplexität noch kontrollierbar sei. Eine Frage, die – im Sinne der Resilienz – definitiv auch im Kontext der notwendigen Sicherheit zu stellen ist. „Denn festzuhalten ist, dass die Plattformökonomie Angebot und Nachfrage datenbasiert zusammenbringt“, so Bernd Fuhlert, Experte für Datenschutz und Online Reputation Management sowie Geschäftsführer der @-yet GmbH

Bezüglich des digitalen Durchdringungsgrads und einer daraus resultierenden Effizienzsteigerung gibt es momentan bei deutschen Unternehmen kaum ein einheitliches Bild. Die eher zögerliche Haltung liegt teilweise darin begründet, dass sich vielfach – basierend auf dem bestehenden Geschäftsmodell – noch kein strategischer Ansatz für ein neues, disruptives entwickeln ließ; sowie damit einhergehend auch, dass sich aus den bisherigen Aktivitäten in Richtung digitale Transformation, gemäß den Ergebnissen einer aktuellen Lünendonk-Studie, momentan nur wenig Wettbewerbsvorteile ergeben.

Gleichwohl werden jedoch bereits weitere programmatische Schritte unternommen: die Etablierung digitaler Plattformen im industriellen Umfeld. Diese Entwicklung ist erklärbar, denn zum einen ist eine gewisse Dringlichkeit nicht zuletzt aus dem Grund geboten, weil sich hier, anders als im Konsumentenbereich, noch keine Vormachtstellung internationaler Unternehmen herausgebildet hat.

Zum anderen sind Grundprinzip und Erfolgsrezept der bekannten Unternehmen wie Amazon oder Airbnb relativ gut reproduzierbar – mehrseitige Plattformen erleichtern im erheblichen Maße Interaktion und Transaktion zwischen unterschiedlichen Parteien.

Doch über den Erfolg wird bei den industriellen Plattformen auch, weitaus mehr als im Konsumentenbereich, die Gewährleistung der Sicherheit entscheiden. Nicht zuletzt unter dem Aspekt, dass „Wirtschaftsspionage seit jeher einer der Schwerpunkte der Ausspähungsaktivitäten fremder Nachrichtendienste ist“ wie Michael George, Leiter Cyber-Allianz-Zentrum, Bayerisches Landesamt für Verfassungsschutz erklärt.

 Mögliche Angriffsziele

Die grundsätzliche Betrachtung von Plattformen erfasst zwei Dimensionen: die wirtschaftliche sowie die technologische. Gemäß letzterer basiert die Plattformökonomie unter anderem im ersten Schritt auf dem Zusammenwachsen von Informationstechnologie (IT) mit der Operational Technologie (OT) auf dem Shop Floor. Denn dies ermöglicht, im Rahmen von Industrie 4.0 die Vernetzung einzelner Unternehmensebenen sowie eine unternehmensübergreifende Vernetzung mit Kunden und Lieferanten.

Im Weiteren ergeben sich dann, aus der vertikalen und horizontalen Integration auf der einen Seite, in Verbindung mit Plattformtechnologien wie Infrastructure as a Service (IaaS) auf der anderen Seite die Voraussetzungen für neue Geschäftsmodelle, da dadurch die Einsetzbarkeit zur Interaktionen sowie Transaktionen mit vielen unterschiedlichen Marktteilnehmern besteht. Hierin liegen jedoch nicht nur Chancen sondern auch Risiken. Denn, so die Erfahrung von Michael George, „Angriffe sind umso erfolgreicher, je zielgerichteter sie ausgeübt werden können“. Aus diesem Grund optimieren Angreifer ihre Methoden beständig.

So beobachtet der Experte momentan, dass die so genannte Watering-Hole-Attacke vermehrt zum Einsatz kommt. Diese basiert – entlehnt aus dem Tierreich in der Wüste – auf der Annahme, dass es bestimmte Portale, Plattformen oder Systeme gibt, die viele Anwender mit hoher Wahrscheinlichkeit oft aufsuchen müssen.

Dem Gedanken aus der Tierwelt folgend, werden Anwender also nicht direkt angegriffen, sondern das von ihnen zwangsläufig genutzte ‚Wasserloch’ infiziert, da dies weitaus effizienter und wirkungsvoller ist. In der Praxis wurden entsprechende Angriffe zum Beispiel auf Unternehmen aus dem Energiesektor durchgeführt – unter anderem indem die Webseiten eines Anbieters unter Ausnutzung einer Sicherheitslücke dergestalt manipuliert wurden, dass Rechner von Besuchern hinterher mit Schadsoftware in Form eines Fernsteuerungs-Trojaners (RAT) infiziert waren.

Zudem werden permanent gravierende Schwachstellen publik gemacht: Beispielsweise aktuell die Sicherheitslücken Spectre und Meltdown – letzterer in erster Linie detektiert bei Prozessoren von Intel – aus denen sich verschiedene Zugriffsmöglichkeiten, wie etwa das Auslesen von Speichern, ergeben. Auch wenn sich nach Ansicht von Prof. Becker ein Angriff über Spectre keinesfalls leicht realisieren lässt, so geht er doch davon aus, dass diese Lücke ausgenutzt wird „weil sich ein erhöhter Aufwand immer lohnt, wenn mit einer einzigen Attacke viel erreicht werden kann“. Zusätzlich gefährdet seien Unternehmen auch, da oftmals noch – gerade im Produktionsumfeld – veraltete Hard- und Software vorzufinden ist, die per se nicht mehr den erforderlichen Sicherheitsstandards entsprechen kann. „Insgesamt gesehen stellt“, so Bernd Fuhlert, „also Digitalisierung ohne IT-Sicherheit im Fokus klar erkennbar ein unkalkulierbares Risiko für Verbraucher und Unternehmen dar.“

Der richtige Schutz

Im Zuge von Industrie 4.0 ist es nicht mehr möglich, ein Unternehmen nach außen komplett abzuschotten, da dies dem Prinzip der notwendigen durchgängigen Kommunikation und Interaktion widerspricht. Von daher nutzt es nach Ansicht von Michael George nur wenig, sich darauf zu fokussieren alle internen Schnittstellen wie USB-Ports und DVD-Laufwerke abzusichern, während zwangsläufig durchlässige Übergänge zum Internet bestehen. Aber da auch die herkömmliche Perimeter-Sicherheit, mittels derer die Übergänge zwischen Unternehmensnetzwerk und Internet geschützt werden sollen, nicht mehr ausreichen, müssen Unternehmen generell umdenken.

Seit 2016 ist Bernd Fuhlert Geschäftsführer der @yet GmbH.

Seit 2016 ist Bernd Fuhlert Geschäftsführer der @yet GmbH.

Folglich sollte, nach Meinung von Fuhlert und George, die Grundlage der Abwehrstrategie die Annahme bildet, dass „es ein Angreifer erfolgreich schafft, bis ins interne Unternehmensnetzwerk vorzudringen“. Dass dieser Gedanke substanziell ist, darin sind sich beide Experten einig. Denn daraus lässt sich ableiten, dass die Durchführung geeigneter Gegenmaßnahmen darauf basieren, den Angreifer möglichst zeitnah zu identifizieren. Wobei dies wiederum nicht so zu verstehen sei, dass Unternehmen dem Aufdecken und Absichern von Schwachstellen keine oder nur wenig Bedeutung mehr beimessen sollten.

Ein weiterer wesentlicher Ansatz – gerade im Kontext der Plattformökonomie – ist nach Meinung von George der Austausch von Angriffsmethoden und Erfahrungswerten zwischen den Unternehmen über eine neutrale Plattform. Dies sei von daher sinnvoll, da somit schnellstmöglich und effizient nach Lösungsmöglichkeiten zur Ab- und Gegenwehr gesucht werden könne.

Plattformen – mehr mögliche Risiken

Lutz Becker, selbst viele Jahre in der IT-Industrie tätig, sieht jedoch im Kontext der Plattformökonomie nicht nur Risiken im Bereich der IT-Sicherheit, sondern vorrangig angesichts ökonomischer Aspekte. Plattformen können seines Erachtens nicht nur eine wirtschaftliche Marktmacht entfalten, wie es heute bei Google, Apple, Facebook oder Amazon sichtbar wird, sondern auch Auswirkungen auf ganze Marktsegmenten, etwa dem Tourismus, haben. Denn sie substituieren wichtige Funktionen des Marktes und hebeln damit unter Umständen dessen Freiheit aus. „Ludwig Erhard hat das Wettbewerbsrecht völlig zurecht als Wirtschaftsverfassung bezeichnet“, so Becker, „wir beobachten aber im Moment, dass dieses Recht, nicht den tatsächlichen Gegebenheiten der Digitalen Welt gerecht wird, also so gesehen, ein zahnloser Tiger ist. Was wir also benötigen ist eine neue Wettbewerbsordnung für die digitale Welt.“

Für ihn steht vor allem dabei die Frage der Resilienz im Mittelpunkt. Plattformen legen die Spielregeln der Märkte fest haben und haben damit immer auch eine Gate-Keeper-Funktion. Das macht sie einerseits effizient, aber andererseits anfällig. Märkte hingegen, in denen sich die Spielregeln und Austauschbeziehungen im Zusammenspiel der vielen unabhängigen Marktteilnehmern entwickeln, sind deutlich resilienter, aber eben nicht so effizient. Folglich liegt für ihn die Wahrheit in der Mitte.

Fazit

Allein aufgrund der steigenden Komplexität sowie im Sinne der Resilienz gilt es Maßnahmen und Methoden zum Schutz gegen Angriffe neu zu überdenken.

Damit einhergehen muss unter anderem das Clustern in Sicherheitsbereiche, was – heruntergebrochen auf die Unternehmen – ein ganzheitliches Risikomanagement erfordert. Für den Entwurf der weiteren Strategie zur Absicherung bedarf es hier, so Fuhlert, dann „erst einmal, das wertvolle unternehmensinterne Know-how zu identifizieren und im nächsten Schritt zu definieren, wie sich dieses mit entsprechenden Lösungen schützen lässt“. Dafür sollten die bekannten Maßnahmen wie Patch-Management oder Segmentierung der Netzwerkbereiche – auch wenn sie natürlich kein Allheilmittel sind – zum Einsatz kommen, denn diese bieten die Grundlage für ein gutes Schutzniveau. Aber entscheidend aus Sicht von Bernd Fuhlert ist ferner, dass „die Politik für die Plattformökonomie einen Ordnungsrahmen setzen muss, damit Sicherheit endlich den richtigen Stellenwert bekommt und nicht blind digitalisiert wird“. Zudem sollte hierüber auch ermöglicht werden, global faire Spielregeln für alle – kleine nationale ebenso wie multinationale – Unternehmen zu gewährleisten, um eine Benachteiligung aufgrund individueller Gesetzgebungen auszuschließen.

Coester_Ulla_2016

Ulla Coester, xethix.com/xethix-Diskurs®, Dozentin Hochschule Fresenius und wissenschaftliche Mitarbeiterin skip. Institut für angewandte digitale Visualisierung e.V an der Hochschule Fresenius

Dieser Artikel erschien in verkürzter Form in der IT&Production, Ausgabe März 2018, Teo Verlag GmbH (Seite 74/75)

Sharewashing“ unterspült Kultur des Teilens

ShareconomyDie aufstrebende Sharing Economy des Internets hat ein Image-Problem: Wenn Werte wie Kooperation und Nachhaltigkeit auch von traditionell profitorientierten Plattformen reklamiert werden, bewirkt das Verunsicherung und Distanz gegenüber der gesamten Branche. Diesen Effekt des so genannten Sharewashing haben Forscher des Karlsruher Instituts für Technologie (KIT) in einer umfragebasierten, im Online-Journal Sustainability veröffentlichten Studie erstmals belegt.

Das elementare Prinzip des Teilens verbindet Gemeinschaften

Das elementare Prinzip des Teilens verbindet Gemeinschaften und trägt dazu bei, Ressourcen sinnvoll zu nutzen. Auf Internet-Plattformen ist Teilen zum Ausgangspunkt neuartiger Geschäftsmodelle geworden. Die aufstrebende, sich ausdifferenzierende „Sharing Economy“ läuft jedoch Gefahr, das Grundvertrauen ihrer Nutzerinnen und Nutzer im Marketing-Nebel einflussreicher Trittbrettfahrer zu verlieren.

„Auch eher kommerziell orientierte Plattformen wie Uber oder Airbnb haben sich in ihrem Marketing positiv besetzte Sharing-Werte wie Kooperation und Nachhaltigkeit auf die Fahnen geschrieben“, stellt Florian Hawlitschek vom Institut für Informationswirtschaft und Marketing (IISM) des KIT fest. Wie die Wahrnehmung dieses als Sharewashing bekannten Phänomens die Nutzer von Peer-to-Peer-Sharing-Plattformen beeinflusst, hat ein Team von IISM-Forschern nun erstmals empirisch untersucht.

In einer systematischen Befragung von 145 jungen, internetaffinen Verbraucherinnen und Verbrauchern konnten die Wissenschaftler zeigen, dass Sharewashing dort, wo Nutzer darauf aufmerksam werden, häufig entweder Verwirrung bewirkt – im Hinblick auf positive und negative Effekte der Plattformnutzung – oder das Gefühl, unabsehbare soziale und ökologische Risiken einzugehen. „Der damit einhergehende Vertrauensschwund“, erläutert Co-Autor Professor Timm Teubner von der Technischen Universität Berlin, „gilt zunächst dem Betreiber der jeweiligen Plattform. Mittelbar beschädigt er jedoch die gesamte Sharing Economy und die sie auszeichnende Kultur des Teilens.“

Dieser Befund ist brisant, insofern Vertrauen als Schlüsselfaktor für das Teilen beziehungsweise die gemeinsame Nutzung von, zum Beispiel, Autos, Wohnungen und Lebensmitteln gilt. „Für Betreiber von Plattformen und Geschäftsmodellen, die in der öffentlichen Wahrnehmung mit dem Sharing-Begriff assoziiert werden, ist es deshalb wichtig, die von uns beschriebenen Zusammenhänge und Mechanismen zu beachten und in ihre Corporate Social Responsibility-Strategien einzubeziehen“, sagt Florian Hawlitschek, Hauptautor der Studie. Zugleich, betont Hawlitschek, müsse die Selbstdarstellung von Unternehmen, die auf Teilen tatsächlich gar nicht angelegt sind, „nicht raffinierter werden, sondern ehrlicher“.

Corporate Social Responsibility-Strategie

Die Studie baut auf der durch die Goldmedia-Gruppe ausgezeichneten Bachelor-Arbeit von Patrick Tu sowie auf einem Konferenzbeitrag der Autoren beim 4th International Workshop on the Sharing Economy, in Lund, Sweden, auf.

 Sharewashing

Der englische Begriff „Sharewashing“ – eine Verbindung von „to share“ (teilen) und „to whitewash“ (beschönigen) – existiert erst seit wenigen Jahren. Der Begriff gilt als Analogiebildung zu dem seit den frühen 1990-er Jahren gebräuchlichen „Greenwashing“, welches die Marketing-Aktivitäten von Unternehmen (etwa Ölfirmen) bezeichnet, sich, in Kontrast zu ihrem tatsächlichen Geschäftsgebaren, ein „grünes“, d. h. umweltbewusstes und nachhaltigkeitsorientiertes, Image aufzubauen.

Sharewashing bezeichnet eine ganz ähnliche Art der Verbrauchertäuschung, jedoch im Kontext der digitalen Plattform-Ökonomie: Unternehmen bzw. Plattformbetreiber betreiben Sharewashing, wenn sie sich als Teil der idealistisch grundierten, sozial und ökologisch ausgerichteten Sharing Economy präsentieren, während ihr tatsächliches Geschäftsmodell schlicht auf Profit abzielt.

Warum künstliche Intelligenz Wissen und Regulierung braucht

Wolf Ingomar Faecks ist Senior Vice President und Industry Lead Automotive/Mobility/Manufacturing/Health bei  Publicis.Sapient EMEA/APAC.

Wolf Ingomar Faecks ist Senior Vice President und Industry Lead Automotive/Mobility/Manufacturing/Health bei Publicis.Sapient EMEA/APAC.

Noch ein Beitrag über die Möglichkeiten der Künstlichen Intelligenz? Oder eher einer über deren Risiken? Wolf Ingomar Faecks, im Management einer Digitalberatung, plädiert dafür, den Menschen klar zu machen, dass Künstliche Intelligenz dem Menschen das Denken nicht abnehmen kann und darf.

Das Hype-Thema „Künstliche Intelligenz“ (KI) besteht aus zwei Bestandteilen: „Künstlich“ und „Intelligenz“. Wie diese beiden Bestandteile derzeit in der medialen Berichterstattung durcheinandergemischt werden, reicht von kritikloser Bewunderung über sehr gemischte Gefühle bis hin zu kategorischer Ablehnung.

Wolf Ingomar Faecks, Senior Vice President und Industry Lead Automotive/Mobility/Manufacturing/Health, Publicis.Sapient EMEA/APAC, ist Experte für die digitale Business Transformation der Publicis Groupe. Er befasst sich seit Jahren mit den unterschiedlichen Facetten der KI. Im Interview erzählt er, warum die so genannten Clarke‘schen Gesetze* und insbesondere die These, dass „jede hinreichend fortschrittliche Technologie nicht von Magie zu unterscheiden sei“, so gut zu Künstlicher Intelligenz passen und warum KI zum Denken anregen sollte.

 Xethix: Die Geschwindigkeit in der technologischen Weiterentwicklung hat zugenommen und eine Regulierung findet meist erst dann statt, wenn etwas passiert ist. So werden Ängste geschürt. Wie ließe sich das besser machen?

Faecks: Nicht nur die Geschwindigkeit der technologischen Entwicklung nimmt zu. In immer kürzerer Zeit wird eine steigende Masse an Informationen produziert und verbreitet. Doch ein Mensch kann nur linear denken, nicht exponentiell. Das würden die Menschen aber sehr gern. Deswegen unterliegen viele der Fehleinschätzung, dass sie in exponentiellen Umfeldern mehr Zeit haben, alle diese Informationen aufzunehmen – und ihnen auch generell mehr Zeit zur Verfügung steht. Das stimmt aber nicht und so entsteht ein Informations-Gap zwischen Fakten, tatsächlichem Wissen und gefühltem Wissen. Daher laufen heute viele Personen Gefahr, Falschinformationen aufzusitzen. Und das ist dann wiederum die Ursache, warum so viele beim Thema Künstliche Intelligenz so diffuse Ängste verspüren.

Xethix: Der Informatiker und Philosoph Jaron Lanier hat in seinem neuen Buch die These formuliert, dass die Bösen keine Angst vor dem Einsatz von Künstlicher Intelligenz haben und fordert deswegen auch eine Regulierung, um die Guten zu schützen.

Faecks: Hier kommt das so genannte Clarke‘sche Gesetz ins Spiel, die Unterscheidung von Technologie und Magie. Wenn man zu viel über die Risiken redet, dann haben die Guten Angst, innovative Technologien einzusetzen, weil sie sie nicht verstehen. Doch das Problem ist nicht die Technologie, sondern eher, dass der Algorithmus mit den falschen Daten gefüttert wird.

Ein Algorithmus braucht ein Verständnis für das, was zwischen Input und Output passiert. Wenn ich nicht weiß, was die Maschine entscheidet, dann kann sie den Menschen nicht ersetzen. Der Mensch hat dann die Möglichkeit abzuwägen. Deswegen bevorzuge ich auch eher den Begriff Intelligent Augmentation (IA), statt Artificial Intelligence (AI). Maschinen können Prozesse dank vieler Informationen besser automatisieren und die Arbeit des Menschen ergänzen, eine echte eigene Denkleistung können sie nicht hervorbringen.

Jaron Lanier hat auch die These formuliert, dass sich schlechte Nachrichten mehr und schneller verbreiten. Daher müssen diejenigen, die Nachrichten verbreiten, auch besonders sorgfältig damit umgehen und benötigen Regulierungen. Regulierung per se ist nichts Schlimmes. Sie hilft dabei, ethischer zu handeln. Das gilt natürlich auch für den Umgang mit Künstlicher Intelligenz.

Xethix: Google hat 7 Prinzipien zum Umgang mit Künstlicher Intelligenz veröffentlicht. Denn das Thema „mobile first“ ist vorbei, jetzt ist „AI first“ die Ansage.

Faecks: Genau. Ray Kurzweil, Director of Engineering bei Google, beschäftigt sich seit langem mit dem Übergang von Mensch und Maschine und ist auch überzeugt: Man kann keine Plattform führen, ohne Verantwortung zu übernehmen. Ich persönlich finde die Thesen von Google gut. Aber werden sie auch umgesetzt und kontrolliert? Etwa über einen Beirat? Firmen sollten nicht Entscheidungen für die Menschen treffen, diese Entscheidungen sollten vielmehr in einem kritischen Diskurs stattfinden. Plattformanbieter könnten aber den Raum für solche Auseinandersetzungen schaffen, damit sich Menschen bilden und informieren können, um dann eigene Entscheidungen zu treffen.

*Sir Arthur Charles Clarke war ein britischer Physiker und Science-Fiction-Schriftsteller. Er hat im Rahmen seiner Werke die folgenden drei, als „Gesetze“ bezeichneten, axiomatischen Vorhersagen aufgestellt: „Wenn ein angesehener, aber älterer Wissenschaftler behauptet, dass etwas möglich ist, hat er mit an Sicherheit grenzender Wahrscheinlichkeit Recht. Wenn er behauptet, dass etwas unmöglich ist, hat er höchstwahrscheinlich unrecht.“ „Der einzige Weg, die Grenzen des Möglichen zu finden, ist, ein klein wenig über diese hinaus in das Unmögliche vorzustoßen.“ „Jede hinreichend fortschrittliche Technologie ist von Magie nicht zu unterscheiden.“

Von diesen drei „Gesetzen“ hat insbesondere das dritte – nicht nur innerhalb der Science-Fiction-Literatur – den Charakter eines Sprichworts erreicht.

 

Links zum Thema: Googles Research Department zu AI: https://ai.google/

Cyber Defense in Europa: gleiche Gefahr – unterschiedliche nationale Antworten

blitze Mit dem European Cyber Defense Report hat Deloitte relevante nationale Sicherheitsstrategien aus 29 europäischen Staaten, den USA, Russland sowie China analysiert und zudem Zukunftsszenarien entwickelt, die die Cybersicherheitslandschaft 2030 in Europa abbilden. Im ersten Teil der Studie stehen der systematische Vergleich und die Analyse öffentlich zugänglicher Strategiedokumente: Diese zeigen, dass Cyberbedrohungen – neben Terrorismus und organisierter Kriminalität – als Top-Risiken benannt werden.

Im Hinblick darauf, wie Cybersicherheit jeweils definiert und gehandhabt wird, gibt es länderübergreifend allerdings so viele Unterschiede, dass ein Vergleich kaum möglich ist. Besonders deutlich zeigt das die Diskussion um offensive Maßnahmen. Bestimmte Länder erklären deutlich, dass auch offensive Maßnahmen zur Cyberverteidigung gehören. Andere Länder erwähnen diese zwar, aber bleiben eine klare Aussage zur Rechtmäßigkeit und Wirksamkeit schuldig.

Nationale Strategien nicht immer auf neuestem Stand

Die Ansprüche an die nationalen Sicherheitsstrategien der europäischen Länder verändern und erhöhen sich mit der Vielzahl und Volatilität möglicher Bedrohungsszenarien. Strategien, dem zu begegnen, müssen hiermit Schritt halten.

Verteidigung: Schutz rangiert vor Reaktion

Nahezu alle Strategien haben die Sicherung der kritischen Infrastrukturen (97%) sowie die Gewährleistung sicherer und robuster Informationssysteme (93%) als Ziel. Kaum erwähnt wird hingegen eine schnelle Reaktion auf Cyberangriffe.

„Neben der Sicherung unserer Infrastrukturen und Systeme muss zunehmend auch die Fähigkeit zur adäquaten Reaktion im Falle eines Angriffs aus bzw. auf den Cyberraum in den Fokus genommen werden. Dazu bedarf es einer politischen, rechtlichen und fähigkeitsbezogenen Rahmensetzung. Mit der Errichtung des Kommandos Cyber und Informationsraum hat Deutschland hier bereits eine erste Grundlage geschaffen“, resümiert Katrin Rohmann, Industry Leader Government & Public Services bei Deloitte.

Zahlreiche Akteure, unklare Zuständigkeiten

Die Cybersicherheitsstrategien der Staaten benennen unterschiedliche Akteure. Deren Zahl variiert von zwei bis zweistellig. Im schlechtesten Fall kann daraus ein Verantwortungs- und Zuständigkeitsvakuum entstehen. Unweigerlich steigen mit der Zahl der Akteure potenziell der Koordinationsbedarf zur Lageeinschätzung und die Reaktionszeit im Ernstfall.

Zum Ende des ersten Teils des Reports werden Handlungsfelder identifiziert: Stärkere internationale Kooperationen, einheitliche Definitionen und klare Verantwortungszuweisungen sind erforderlich. Strategien müssen dynamisch mit der Gefährdung weiterentwickelt werden, dazu müssen die Treiber künftiger Entwicklungen identifiziert und beobachtet werden. Der zweite Teil des Reports greift diese Handlungsfelder auf und nutzt die Szenariomethodik, um mögliche Zukunftsbilder aufzuzeigen.

Durch moderne Cybersicherheit zu einem digitalen Leben in Europa: vier mögliche Szenarien

Um in Europa die Weichen für eine sichere, digitale Zukunft zu setzen und Antworten auf die Frage nach der Ausgestaltung der Cybersicherheitslandschaft 2030 zu finden, entstehen nach einer auf Künstlicher Intelligenz basierenden Analyse vier mögliche Zukunftsbilder – abhängig davon, ob ein national und international akzeptierter Rechtsrahmen besteht oder nicht und ob Cyberangriffe antizipiert und Angreifer wirksam verfolgt werden können:

  1. Goldener Käfig: In diesem Szenario ist Europa sicher und stabil und sieht sich mit wenig Disruption konfrontiert. Es gibt eine klar definierte und funktionierende regelbasierte Ordnung sowie ausreichende Effektivität bei der Antizipation von Cyberbedrohungen und der Attribution von Cyberangriffen.
  2. Selbstschutz: In dieser Welt ist Europa bürokratisch, extrem unsicher und technologisch fragmentiert. Obwohl es kleine thematische Inseln der Sicherheit gibt, ist Cybersicherheit außerhalb dieser Bereiche lückenhaft.
  3. Cyber-Oligarchie: In diesem Szenario beherrscht eine kleine Elite von Cyberexperten die Cybersicherheitslandschaft in Europa. Cybersicherheit wird nicht mehr vom Staat gesteuert. Stattdessen wird sie privat nach den „Gesetzen des Stärkeren” durchgesetzt.
  4. Cyber-Darwinismus: In dieser alternativen Zukunft ist Europa zu einem Dschungel geworden, der auf der Basis einer Laissez-faire-Mentalität arbeitet. Während kleine Inseln mit einem hohen Maß an (Cyber-)Sicherheit innerhalb von „gated communities“ existieren, ist die Außenwelt unsicher. Daraus resultiert ein Zwei-Klassen-Sicherheitssystem, das niedrige Sicherheitsklassen stark diskriminiert und ausschließt.

„Auch wenn sich im digitalen Zeitalter niemand hundertprozentig gegen Cyberangriffe schützen kann, sind Vorbereitung und eine auf die aktuellsten Entwicklungen abgestimmte Cybersicherheitsstrategie essenziell. Es besteht Handlungsbedarf. Wir müssen bei der Gestaltung der digitalen Zukunft Europas und dieser Thematik ein gemeinsames Verständnis entwickeln, Komplexität reduzieren, die Dinge begreifbar machen und Unsicherheiten ausräumen“, so Katrin Rohmann.

Inhaltlich verantwortlich für die Studie sind Katrin Rohmann, Industry Leader Government & Public Services bei Deloitte, und Peter Wirnsperger, Deloitte Partner und Cyber Risk Leader.

Studie: Immer mehr Europäer wohnen in Smart Homes, Deutschland zieht nur langsam mit

Mit smarten Kameras von LUPUS-Electronics haben Sie ihr Zuhause von überall aus im Blick © LUPUS-Electronics

Mit smarten Kameras von LUPUS-Electronics haben Sie ihr Zuhause von überall aus im Blick © LUPUS-Electronics

Nach einer Studie im Auftrag von Linksys, einem Spezialisten für Home-Networking-Lösungen, wird das Zuhause der meisten Europäer durch den Einsatz von IoT-Geräten immer „smarter“. Die Bandbreite reicht von smartem Licht, Temperaturreglern und Kühlschränken hin zu selbstlernenden Haushaltsgeräten.

Die Deutschen halten sich beim Kauf vernetzter Heimgeräte jedoch im Vergleich eher zurück – ein Trend, den auch die gerade zu Ende gegangene IFA in Berlin bestätigt: Dort waren zwar hallenweise Smart-Home-Produkte zu bestaunen, doch ändert das nichts an der Tatsache, dass sie erst nach und nach den deutschen Massenmarkt erobern. Der Preis und das ausgeprägte Sicherheitsdenken der Deutschen sind dabei wohl die Haupthindernisse für die Smart-Home-Verbreitung hierzulande.

Auf europäischer Ebene gesehen ist der Trend ein anderer: „Insgesamt nimmt die Anzahl der Smart Devices in europäischen Haushalten rapide zu, was bedeutet, dass die Verbraucher auf größere und schnellere WLAN-Netzwerke umsteigen müssen, um Schritt zu halten“, erklärt Andrea Bruno, Sales Director Linksys Europe. „Selbst, wenn man nur Netflix über einen Smart TV streamt, wird so viel Bandbreite benötigt, dass es die Nutzung des WLANs im gesamten Haushalt beeinträchtigt.“

Smart TVs führend in europäischen Haushalten

Die Ergebnisse der Studie zeigen, dass die Mehrheit (66 Prozent) der befragten Europäer mindestens einen oder mehrere Smart TVs (18,4 Prozent) besitzen. Die Niederländer stehen mit 69,2 Prozent an der Spitze, gefolgt vom Vereinigten Königreich (68,2 Prozent) und Deutschland (65,3 Prozent). Frankreich hat mit 58,9 Prozent die wenigsten Smart TVs im Einsatz.

Europäer schauen auch internetbasiertes Fernsehen. Tatsächlich geben bereits 28,8 Prozent der Befragten an, dass ihr primäres Fernsehsignal internetbasiert sei. Die Ergebnisse zeigen die höchste Quote in Frankreich (39,2 Prozent) und den Niederlanden (34,8 Prozent), die niedrigste in Deutschland (21,5 Prozent). Die Befragten beziehen auch Abo-TV-Dienste wie Netflix, HBO oder Amazon Prime (41,6 Prozent), laden Serien und Filme herunter (31,4 Prozent), und streamen (Sport-)Veranstaltungen live (17,9 Prozent).

Sprachassistenten auf dem Vormarsch

Während Smart TVs schon festen Einzug in mehr als die Hälfte europäischer Haushalte gefunden haben, gewinnen auch weitere IoT-Geräte an Beliebtheit. Dazu gehören Sprachassistenten wie Amazon Echo, Amazon Alexa und Google Home, derzeit mit 21,9 Prozent und steigender Tendenz.

Direkt dahinter liegen smarte Beleuchtung wie die Glühbirnen Philips Hue und Ikea Tradfri (Einsatz in 18 Prozent der Haushalte) und vernetzte Sicherheitskameras (im Besitz von 17,5 Prozent der Befragten), gefolgt von Temperaturreglern (wie Nest, Netatmo), smarten Steckdosen (beispielsweise von Wemo, Fibaro) und sogar Türklingeln wie Ring bei 12,3 Prozent.

 

Deutschland: Kein Early Adopter

  • Im europäischen Vergleich würden sich die Deutschen selbst am wenigsten als Early Adopter für das Smart Home bezeichnen (21,3 Prozent).
  • Im Vergleich zu anderen Ländern ist bei den Deutschen die Wahrscheinlichkeit am geringsten, dass sie folgende Smart Devices besitzen: Smarte Steckdosen (15 Prozent), vernetzte Sicherheitskameras (13 Prozent), smarte Temperaturregler (9 Prozent) und smarte Türklingeln (8 Prozent).
  • Auch künftig sind die Deutschen im Vergleich am wenigsten daran interessiert, folgende Smart Devices zu kaufen: Smart TVs oder Connected TVs (55 Prozent), smarte Steckdosen (31 Prozent), smarte Schalter (28 Prozent), vernetzte Sicherheitskameras (26 Prozent), smarte Temperaturregler (26 Prozent) und smarte Türklingeln (21 Prozent).

Wo geht der Trend hin?

Im europäischen Durchschnitt wollen 35 Prozent der Studienteilnehmer ihr Zuhause künftig durch den gesteigerten Einsatz von IoT-Geräten smarter machen. Insbesondere an smarter Beleuchtung sind 43,6 Prozent interessiert. 28,4 Prozent ziehen sogar einen Kauf in den nächsten zwei Jahren in Betracht. Über den Kauf von Sprachassistenten in den nächsten zwei Jahren denken 16 Prozent nach.

„Während wir jetzt über smartes Licht und Sprachassistenten sprechen, werden wir in den nächsten Jahren zu noch intelligenteren vernetzten Geräten im Haushalt übergehen, die durch künstliche Intelligenz (KI) und maschinelles Lernen gesteuert werden. Zum Beispiel Lösungen wie Phyn, ein smartes Wassermanagementsystem, das anhand des Wasserverbrauchs des Nutzers lernt und undichte Leitungen sofort meldet.  Oder intelligente Küchen, die den Ofen automatisch vorheizen und nach Rezepten Mahlzeiten vorbereiten. All diese Innovationen werden die Anzahl der IoT-Geräte im Haus und damit den Bedarf an leistungsstarkem WLAN steigern. Wer ein Smart Home will, muss sich darauf vorbereiten und auch das darunterliegende Netzwerk zukunftssicher machen“, betont Linksys Sales Director Andrea Bruno.

Über die Studie

Vanson Bourne führte diese Studie im Auftrag von Linksys (Teil von Belkin International) durch. Die Ergebnisse basieren auf einer webbasierten Umfrage unter 8.000 Verbrauchern. Die Studienteilnehmer wurden im Mai und Juni 2018 befragt; sie kamen aus Großbritannien (2.000), den Niederlanden (2.000), Deutschland (2.000) und Frankreich (1.000), den Vereinigten Arabischen Emiraten (500) und dem Königreich Saudi-Arabien (500). Um sich für die Umfrage zu qualifizieren, mussten die Befragten die folgenden Auswahlkriterien erfüllen:

  • Sie mussten zwischen 18 und 64 Jahre alt sein.
  • Sie mussten in ihrem Haushalt eine Art Entscheidungsverantwortung für den Kauf neuer Technologien haben.
  • Sie mussten zu Hause entweder einen WLAN-Router oder ein WLAN-Router/Modem-Kombinationsgerät verwenden.

Kundenservice & Co.: Wie Bots die Zukunft bestimmen

In nicht allzu ferner Zukunft übernehmen autonome Systeme eine Vielzahl von Aufgaben. Während Menschen von zahlreichen alltäglichen Aufgaben entlastet werden, besteht zugleich die Befürchtung, dass wir mit dieser Entwicklung auch an Autonomie verlieren könnten. (Copyright: Daimler und Benz Stiftung/Oestergaard)betroffenen wissenschaftlichen Disziplinen beleuchtet, wie autonome Systeme unser Leben und auch unser Selbstverständnis verändern werden. (Copyright: Daimler und Benz Stiftung/Oestergaard).

In nicht allzu ferner Zukunft übernehmen autonome Systeme eine Vielzahl von Aufgaben. Während Menschen von zahlreichen alltäglichen Aufgaben entlastet werden, besteht zugleich die Befürchtung, dass wir mit dieser Entwicklung auch an Autonomie verlieren könnten. (Copyright: Daimler und Benz Stiftung/Oestergaard)betroffenen wissenschaftlichen Disziplinen beleuchtet, wie autonome Systeme unser Leben und auch unser Selbstverständnis verändern werden. (Copyright: Daimler und Benz Stiftung/Oestergaard).

Künstliche Intelligenz verändert unser tägliches Leben. Galt der Touchscreen bei Smartphones vor zehn Jahren noch als Sensation, ist er heute völlig selbstverständlich geworden. Die nächste große Veränderung, die ähnlich einschneidend sein wird, erobert gerade weltweit die Märkte: Sprache als neues Interface. Stichworte: Amazons Alexa und Google Home. Millionen dieser Geräte stehen bereits in Haushalten in aller Welt. Auch beim Thema Kundenservice spielen Bots und Sprache eine immer wichtigere Rolle.

Chatbots und andere KI-gesteuerte virtuelle Agenten haben den Kundenservice bereits jetzt in seiner Struktur vollkommen verändert. Doch das ist nur der Anfang der „Bot-Revolution“, denn durch APIs werden Chatbots mit nachhaltigen Lernprozessen verknüpft und tauchen plötzlich an Orten auf, an denen man sie nie vermutet hätte.

Menschliche Züge: Chatbots verbessern den Service

Das Kontaktcenter der Zukunft erhält bereits beim Klingeln des Telefons Informationen über den Kunden und kann mit einer relativ großen Wahrscheinlichkeit voraussagen, worüber der Anrufer gleich sprechen möchte. Die dahinterstehende künstliche Intelligenz (KI) macht den Menschen jedoch nicht überflüssig, sondern ergänzt ihn. Sie erweitert bloß die Fähigkeiten der dort Angestellten, greift ihnen in vielen Situationen unter die Arme und macht sie so produktiver.

Auf diese Weise können Anfragen schneller und besser bearbeitet werden. Ein Beispiel: Man ruft seine Bank an und bleibt erst einmal in der Warteschleife stecken – oder muss sein Anliegen einem Mitarbeiter nach dem anderen immer wieder neu erklären.

Viele Finanzinstitute haben ihre Customer Journey deshalb mithilfe von Chatbots verkürzt, die häufig gestellte Fragen schneller und direkter beantworten können. Ist trotzdem ein Gespräch notwendig, wird der Kunde zu einem „echten“ Mitarbeiter weitergeleitet, der Zugriff auf die Vorgeschichte und die Chat-Kommunikation seines Gesprächspartners hat.

Das verbessert die Servicequalität und die Customer Experience insgesamt deutlich. Menschen haben gerne mit Menschen zu tun. Doch die künstliche Intelligenz sorgt dafür, dass immer häufiger menschenähnliche virtuelle Assistenten und Chatbots zum Einsatz kommen. Sie nutzen die natürliche Sprache, um – aufbauend auf der traditionellen Kommunikation zwischen Mitarbeiter und Klient – immer mehr Nuancen und Zusammenhänge zu verstehen. Viele Unternehmen integrieren Chatbots in ihre vorhandenen Applikationen, um den steigenden Kundenansprüchen gerecht zu werden und die Customer Experience zu optimieren.

Nahtlose Kommunikation

Schlechter Kundenservice kann einen Konzern teuer zu stehen kommen: Er beeinträchtigt die Kundenloyalität, führt zu Kundenabwanderungen und behindert die Akquise neuer Kundschaft. Doch Chatbots, CPaaS und andere Technologien mit kontextbezogener Kommunikation werden künftig dafür sorgen, dass weniger Applikationen benötigt werden, um Vorgänge abzuwickeln.

Und sie werden den Prozess beschleunigen, mit dem der Kunde über Verzögerungen beziehungsweise Änderungen benachrichtigt wird. Beides bringt den Unternehmen riesige Vorteile.

Die „Bot-Revolution“ hat Technologien hervorgebracht, die bei Kundenanfragen oder -problemen mehr Kontext liefern und im Handumdrehen eine Lösung parat haben. Doch damit nicht genug: Die Bots können überall mit dem Kunden kommunizieren – per Chat, per In-App-Mitteilung, per SMS oder per Sprachnachricht.

Diese nahtlose Kommunikation ist in vielen Bereichen immer noch eines der größten Probleme bei der Customer Experience: Unternehmen können die unterschiedlichen Kommunikationskanäle (SMS, Festnetz, Apps, Sprachnachricht, Social Media) oft nicht unter einen gemeinsamen Hut bringen.

Sprich: Sie sind nicht in der Lage, diese verschiedenen Kommunikationsstränge zu einem fortlaufenden Dialog zu verknüpfen. In jedem Kanal musste der Kunde immer wieder neu erklären, wer er ist und was er gerade möchte. Denn jedes Gespräch, das auf einem Kanal geführt wurde, fand isoliert von der Kommunikation auf den anderen Kanälen statt. Dies ändert sich gerade zum Positiven.

Chatbots in CRM-Plattformen oder Datenbanken einbetten

Einer der wichtigsten Treiber für die Weiterentwicklung der Chatbots ist die technische Integration. Bots können in CRM-Plattformen, Unified-Communications-Systeme oder interne Datenbanken integriert werden. Chatbots, die isoliert eingesetzt werden, sind lediglich vorprogrammierte Antwortpakete – sie verfügen weder über Daten, die einen weiterbringen, noch über ein Backup.

Ein integrierter Chatbot dagegen kann beispielsweise historische Daten nutzen, um sich wiederholende Fragen zu übergehen. Er kann auch durch Sentimentanalysen erkennen, wann ein Nutzer verärgert ist – und ihn dann umgehend an einen Call-Center-Mitarbeiter weiterleiten. Über APIs haben die Unternehmen die Möglichkeit, ihre Chatbots in ein breiter aufgestelltes Communications-Ökosystem einzubinden und sie nicht nur intelligenter, sondern auch nützlicher zu machen. Darüber hinaus wurden einige der wichtigsten KI-Innovationen der letzten Zeit im Bereich Voice-Bots entwickelt.

Voice als User Interface

Immer mehr Geräte lassen sich per Sprache steuern, etwa die eingangs erwähnten Smart-Home-Assistenten Amazon Alexa und Google Home. Sprachbefehle sind nicht nur schneller, sie machen – anders als bei der manuellen Eingabe – den Blick auf den Bildschirm überflüssig. Mit dieser unkomplizierten Methode können private und berufliche Aufgaben in kürzerer Zeit abgearbeitet werden, ohne den Tagesablauf zu unterbrechen.

Und das ist erst der Anfang: Sprach- und Gestensteuerung halten zum Beispiel auch in Autos Einzug. In Zukunft werden wir per Sprachinterface unser Leben – privat wie beruflich – organisieren. Das gilt auch für das Einkaufen: Bald werden wir uns unter dem Stichwort „Voice Commerce“ online mit Sprachbots über die Produkte unterhalten, für die wir uns interessieren. Dadurch wird das Argument „Beratung bekommt man nur im Laden“ hinfällig, was wiederum die Art, wie wir shoppen, massiv beeinflusst. Mehr noch: Das gesamte Internet erfährt eine Transformation – von der bald altmodischen Texteingabe samt Maus und Tastatur hin zu einem von Videos und Sprache dominierten System. Bildschirme und Tastaturen werden irgendwann zu Raritäten zählen.

Oberste Priorität: Entwicklung von plattformübergreifenden Bots

Die Entwicklung von Programmen für Geräte mit künstlicher Intelligenz und virtuellen Agenten beziehungsweise Assistenten gehört für zukunftsorientierte Entwickler mittlerweile zu den obersten Prioritäten. In dieses Forschungsfeld werden derzeit Milliarden investiert. Zwar ist es nach wie vor eine Herausforderung, Bots zu entwickeln, die plattformübergreifend interagieren.

Doch in den nächsten Monaten und Jahren wird es immer mehr SDKs und andere Frameworks geben, mit denen plattformübergreifende Voice-Bots geschaffen werden können. Wir steuern auf eine Welt zu, in der API-gestützte Bots, die nahtlos zwischen verschiedenen Kanälen wie Telefon und Chat wechseln, die Norm sein werden. Den meisten Bots liegt eine Technologie zugrunde, die natürliche Sprachverarbeitung mit Spracherkennung kombiniert und auf beinahe jeden Kommunikationskanal angewendet werden kann.

Für den Kunden ist das ein Segen, denn so kann er mit den Bots interagieren, wie es ihm gerade gefällt: über Facebook Messenger, WhatsApp, per Voice, Chat oder Messaging. Diese Art flexibler, dynamischer künstlicher Intelligenz wird dafür sorgen, dass der Kundenservice konsistenter und umfassender wird. Kunden, die Hilfe brauchen, werden jederzeit Unterstützung bekommen, und zwar über jeden beliebigen Kanal.

Autor: Thomas Klar ist Country Manager Deutschland für Nexmo, der API-Plattform von Vonage. Er verfügt über langjährige Erfahrungen im Bereich Cloud Communication und Business Technology und konzentriert sich bei Nexmo auf den Ausbau der aktuellen Marktpräsenz und des vorhandenen EMEA-Kundenstamms sowie um die globale Expansion von Nexmo. Der Fokus liegt hierbei auf dem deutschen Markt. 

Fünf Megatrends, welche die Grenzen zwischen Mensch und Maschine verwischen werden

blitzeVon den 35 Must-Watch-Technologien, die im Emerging Technologies Hype Cycle 2018 vertreten sind, hat das Research- und Beratungsunternehmen Gartner fünf Megatrends identifiziert, welche die Grenzen zwischen Mensch und Maschine verwischen werden. Gerade Technologien wie Künstliche Intelligenz (KI) spielen eine entscheidende Rolle dabei, dass Unternehmen flächendeckend, immer verfügbar und mit Unternehmens-Ökosystemen verbunden sind, um in naher Zukunft bestehen zu können.

Diese Megatrends werden laut Gartner die Zukunft maßgebend prägen

  1. Demokratisierung von KI: Auf KI basierende Technologien werden in den nächsten zehn Jahren virtuell jedem zur Verfügung stehen. KI wird einem breiten Publikum zugänglich und Early Adopter werden auf neue Situationen treffen und Probleme lösen, die ihnen bislang unbekannt waren. Demokratisierte KI wird unter anderem folgende Technologien voranbringen: Autonomes Fahren (Level 4 und 5), intelligente Roboter, virtuelle Assistenten, AI Platform as a Service, autonome mobile Roboter und viele weitere.
  1. Digitalisierte Ökosysteme: Diese werden zum Grundstein von New Business Modellen, die Menschen und Technologien verbinden. Dieser Trend wird von Technologien wie Blockchain, IoT Plattformen, Digital Twin, Data Security Blockchain und Knowledge Graph vorangetrieben.
  1. Do-It-Yourself Biohacking: Die nächste Dekade wird zum transhumanen Zeitalter– in dieser kann Biologie gehackt werden. Besonders hier stellt sich die Frage, inwiefern die Gesellschaft verschiedene Anwendungsbereiche akzeptieren wird und welche ethischen Fragen sich daraus ergeben werden.
  1. Transparente immersive Erfahrungen: Der Mensch wird auch weiterhin im Mittelpunkt von Technologie stehen, bei der Menschen, Unternehmen und Dinge zunehmend transparenter werden. Dies ermöglicht neue Bereiche und ein smarteres Leben und Arbeiten.
  1. Flächendeckende Infrastruktur: Infrastruktur ist nicht länger auf Unternehmensziele ausgerichtet. Die Einführung und breite Popularität von Cloud Computing und seinen vielen Varianzen ermöglichen ein stets verfügbares und grenzenloses Umfeld.
(Bildquelle: Gartner August 2018)

(Bildquelle: Gartner August 2018)

„Wirtschafts- und Technologieführer werden weiterhin mit einer sich rasant beschleunigenden technologischen Innovation konfrontiert sein, die die Art und Weise, wie sie mit ihren Mitarbeitern interagieren, mit ihren Partnern zusammenarbeiten und Produkte und Dienstleistungen für ihre Kunden schaffen, tiefgreifend beeinflussen wird“, betont Mike J. Walker, Research Vice President bei Gartner. „CIOs und Technologieführer sollten stets den Markt im Blick haben und neue Technologien prüfen und bewerten. So lassen sich neue Möglichkeiten mit hohem Wirkungspotenzial und strategischer Relevanz für ihr Unternehmen identifizieren.“

Der Emerging Technologies Hype Cycle ist der am längsten bestehende jährliche Gartner Hype Cycle und bietet einen branchenübergreifenden Ausblick auf die Technologien und Trends, die Unternehmensstrategen, Chief Innovation Officers, R&D-Leiter, Unternehmer, globale Marktentwickler und Teams im Bereich Emerging Technologies bei der Entwicklung ihres Portfolios berücksichtigen sollten.