Category Archives: Topstory

Sharewashing“ unterspült Kultur des Teilens

ShareconomyDie aufstrebende Sharing Economy des Internets hat ein Image-Problem: Wenn Werte wie Kooperation und Nachhaltigkeit auch von traditionell profitorientierten Plattformen reklamiert werden, bewirkt das Verunsicherung und Distanz gegenüber der gesamten Branche. Diesen Effekt des so genannten Sharewashing haben Forscher des Karlsruher Instituts für Technologie (KIT) in einer umfragebasierten, im Online-Journal Sustainability veröffentlichten Studie erstmals belegt.

Das elementare Prinzip des Teilens verbindet Gemeinschaften

Das elementare Prinzip des Teilens verbindet Gemeinschaften und trägt dazu bei, Ressourcen sinnvoll zu nutzen. Auf Internet-Plattformen ist Teilen zum Ausgangspunkt neuartiger Geschäftsmodelle geworden. Die aufstrebende, sich ausdifferenzierende „Sharing Economy“ läuft jedoch Gefahr, das Grundvertrauen ihrer Nutzerinnen und Nutzer im Marketing-Nebel einflussreicher Trittbrettfahrer zu verlieren.

„Auch eher kommerziell orientierte Plattformen wie Uber oder Airbnb haben sich in ihrem Marketing positiv besetzte Sharing-Werte wie Kooperation und Nachhaltigkeit auf die Fahnen geschrieben“, stellt Florian Hawlitschek vom Institut für Informationswirtschaft und Marketing (IISM) des KIT fest. Wie die Wahrnehmung dieses als Sharewashing bekannten Phänomens die Nutzer von Peer-to-Peer-Sharing-Plattformen beeinflusst, hat ein Team von IISM-Forschern nun erstmals empirisch untersucht.

In einer systematischen Befragung von 145 jungen, internetaffinen Verbraucherinnen und Verbrauchern konnten die Wissenschaftler zeigen, dass Sharewashing dort, wo Nutzer darauf aufmerksam werden, häufig entweder Verwirrung bewirkt – im Hinblick auf positive und negative Effekte der Plattformnutzung – oder das Gefühl, unabsehbare soziale und ökologische Risiken einzugehen. „Der damit einhergehende Vertrauensschwund“, erläutert Co-Autor Professor Timm Teubner von der Technischen Universität Berlin, „gilt zunächst dem Betreiber der jeweiligen Plattform. Mittelbar beschädigt er jedoch die gesamte Sharing Economy und die sie auszeichnende Kultur des Teilens.“

Dieser Befund ist brisant, insofern Vertrauen als Schlüsselfaktor für das Teilen beziehungsweise die gemeinsame Nutzung von, zum Beispiel, Autos, Wohnungen und Lebensmitteln gilt. „Für Betreiber von Plattformen und Geschäftsmodellen, die in der öffentlichen Wahrnehmung mit dem Sharing-Begriff assoziiert werden, ist es deshalb wichtig, die von uns beschriebenen Zusammenhänge und Mechanismen zu beachten und in ihre Corporate Social Responsibility-Strategien einzubeziehen“, sagt Florian Hawlitschek, Hauptautor der Studie. Zugleich, betont Hawlitschek, müsse die Selbstdarstellung von Unternehmen, die auf Teilen tatsächlich gar nicht angelegt sind, „nicht raffinierter werden, sondern ehrlicher“.

Corporate Social Responsibility-Strategie

Die Studie baut auf der durch die Goldmedia-Gruppe ausgezeichneten Bachelor-Arbeit von Patrick Tu sowie auf einem Konferenzbeitrag der Autoren beim 4th International Workshop on the Sharing Economy, in Lund, Sweden, auf.

 Sharewashing

Der englische Begriff „Sharewashing“ – eine Verbindung von „to share“ (teilen) und „to whitewash“ (beschönigen) – existiert erst seit wenigen Jahren. Der Begriff gilt als Analogiebildung zu dem seit den frühen 1990-er Jahren gebräuchlichen „Greenwashing“, welches die Marketing-Aktivitäten von Unternehmen (etwa Ölfirmen) bezeichnet, sich, in Kontrast zu ihrem tatsächlichen Geschäftsgebaren, ein „grünes“, d. h. umweltbewusstes und nachhaltigkeitsorientiertes, Image aufzubauen.

Sharewashing bezeichnet eine ganz ähnliche Art der Verbrauchertäuschung, jedoch im Kontext der digitalen Plattform-Ökonomie: Unternehmen bzw. Plattformbetreiber betreiben Sharewashing, wenn sie sich als Teil der idealistisch grundierten, sozial und ökologisch ausgerichteten Sharing Economy präsentieren, während ihr tatsächliches Geschäftsmodell schlicht auf Profit abzielt.

Warum künstliche Intelligenz Wissen und Regulierung braucht

Wolf Ingomar Faecks ist Senior Vice President und Industry Lead Automotive/Mobility/Manufacturing/Health bei  Publicis.Sapient EMEA/APAC.

Wolf Ingomar Faecks ist Senior Vice President und Industry Lead Automotive/Mobility/Manufacturing/Health bei Publicis.Sapient EMEA/APAC.

Noch ein Beitrag über die Möglichkeiten der Künstlichen Intelligenz? Oder eher einer über deren Risiken? Wolf Ingomar Faecks, im Management einer Digitalberatung, plädiert dafür, den Menschen klar zu machen, dass Künstliche Intelligenz dem Menschen das Denken nicht abnehmen kann und darf.

Das Hype-Thema „Künstliche Intelligenz“ (KI) besteht aus zwei Bestandteilen: „Künstlich“ und „Intelligenz“. Wie diese beiden Bestandteile derzeit in der medialen Berichterstattung durcheinandergemischt werden, reicht von kritikloser Bewunderung über sehr gemischte Gefühle bis hin zu kategorischer Ablehnung.

Wolf Ingomar Faecks, Senior Vice President und Industry Lead Automotive/Mobility/Manufacturing/Health, Publicis.Sapient EMEA/APAC, ist Experte für die digitale Business Transformation der Publicis Groupe. Er befasst sich seit Jahren mit den unterschiedlichen Facetten der KI. Im Interview erzählt er, warum die so genannten Clarke‘schen Gesetze* und insbesondere die These, dass „jede hinreichend fortschrittliche Technologie nicht von Magie zu unterscheiden sei“, so gut zu Künstlicher Intelligenz passen und warum KI zum Denken anregen sollte.

 Xethix: Die Geschwindigkeit in der technologischen Weiterentwicklung hat zugenommen und eine Regulierung findet meist erst dann statt, wenn etwas passiert ist. So werden Ängste geschürt. Wie ließe sich das besser machen?

Faecks: Nicht nur die Geschwindigkeit der technologischen Entwicklung nimmt zu. In immer kürzerer Zeit wird eine steigende Masse an Informationen produziert und verbreitet. Doch ein Mensch kann nur linear denken, nicht exponentiell. Das würden die Menschen aber sehr gern. Deswegen unterliegen viele der Fehleinschätzung, dass sie in exponentiellen Umfeldern mehr Zeit haben, alle diese Informationen aufzunehmen – und ihnen auch generell mehr Zeit zur Verfügung steht. Das stimmt aber nicht und so entsteht ein Informations-Gap zwischen Fakten, tatsächlichem Wissen und gefühltem Wissen. Daher laufen heute viele Personen Gefahr, Falschinformationen aufzusitzen. Und das ist dann wiederum die Ursache, warum so viele beim Thema Künstliche Intelligenz so diffuse Ängste verspüren.

Xethix: Der Informatiker und Philosoph Jaron Lanier hat in seinem neuen Buch die These formuliert, dass die Bösen keine Angst vor dem Einsatz von Künstlicher Intelligenz haben und fordert deswegen auch eine Regulierung, um die Guten zu schützen.

Faecks: Hier kommt das so genannte Clarke‘sche Gesetz ins Spiel, die Unterscheidung von Technologie und Magie. Wenn man zu viel über die Risiken redet, dann haben die Guten Angst, innovative Technologien einzusetzen, weil sie sie nicht verstehen. Doch das Problem ist nicht die Technologie, sondern eher, dass der Algorithmus mit den falschen Daten gefüttert wird.

Ein Algorithmus braucht ein Verständnis für das, was zwischen Input und Output passiert. Wenn ich nicht weiß, was die Maschine entscheidet, dann kann sie den Menschen nicht ersetzen. Der Mensch hat dann die Möglichkeit abzuwägen. Deswegen bevorzuge ich auch eher den Begriff Intelligent Augmentation (IA), statt Artificial Intelligence (AI). Maschinen können Prozesse dank vieler Informationen besser automatisieren und die Arbeit des Menschen ergänzen, eine echte eigene Denkleistung können sie nicht hervorbringen.

Jaron Lanier hat auch die These formuliert, dass sich schlechte Nachrichten mehr und schneller verbreiten. Daher müssen diejenigen, die Nachrichten verbreiten, auch besonders sorgfältig damit umgehen und benötigen Regulierungen. Regulierung per se ist nichts Schlimmes. Sie hilft dabei, ethischer zu handeln. Das gilt natürlich auch für den Umgang mit Künstlicher Intelligenz.

Xethix: Google hat 7 Prinzipien zum Umgang mit Künstlicher Intelligenz veröffentlicht. Denn das Thema „mobile first“ ist vorbei, jetzt ist „AI first“ die Ansage.

Faecks: Genau. Ray Kurzweil, Director of Engineering bei Google, beschäftigt sich seit langem mit dem Übergang von Mensch und Maschine und ist auch überzeugt: Man kann keine Plattform führen, ohne Verantwortung zu übernehmen. Ich persönlich finde die Thesen von Google gut. Aber werden sie auch umgesetzt und kontrolliert? Etwa über einen Beirat? Firmen sollten nicht Entscheidungen für die Menschen treffen, diese Entscheidungen sollten vielmehr in einem kritischen Diskurs stattfinden. Plattformanbieter könnten aber den Raum für solche Auseinandersetzungen schaffen, damit sich Menschen bilden und informieren können, um dann eigene Entscheidungen zu treffen.

*Sir Arthur Charles Clarke war ein britischer Physiker und Science-Fiction-Schriftsteller. Er hat im Rahmen seiner Werke die folgenden drei, als „Gesetze“ bezeichneten, axiomatischen Vorhersagen aufgestellt: „Wenn ein angesehener, aber älterer Wissenschaftler behauptet, dass etwas möglich ist, hat er mit an Sicherheit grenzender Wahrscheinlichkeit Recht. Wenn er behauptet, dass etwas unmöglich ist, hat er höchstwahrscheinlich unrecht.“ „Der einzige Weg, die Grenzen des Möglichen zu finden, ist, ein klein wenig über diese hinaus in das Unmögliche vorzustoßen.“ „Jede hinreichend fortschrittliche Technologie ist von Magie nicht zu unterscheiden.“

Von diesen drei „Gesetzen“ hat insbesondere das dritte – nicht nur innerhalb der Science-Fiction-Literatur – den Charakter eines Sprichworts erreicht.

 

Links zum Thema: Googles Research Department zu AI: https://ai.google/

Cyber Defense in Europa: gleiche Gefahr – unterschiedliche nationale Antworten

blitze Mit dem European Cyber Defense Report hat Deloitte relevante nationale Sicherheitsstrategien aus 29 europäischen Staaten, den USA, Russland sowie China analysiert und zudem Zukunftsszenarien entwickelt, die die Cybersicherheitslandschaft 2030 in Europa abbilden. Im ersten Teil der Studie stehen der systematische Vergleich und die Analyse öffentlich zugänglicher Strategiedokumente: Diese zeigen, dass Cyberbedrohungen – neben Terrorismus und organisierter Kriminalität – als Top-Risiken benannt werden.

Im Hinblick darauf, wie Cybersicherheit jeweils definiert und gehandhabt wird, gibt es länderübergreifend allerdings so viele Unterschiede, dass ein Vergleich kaum möglich ist. Besonders deutlich zeigt das die Diskussion um offensive Maßnahmen. Bestimmte Länder erklären deutlich, dass auch offensive Maßnahmen zur Cyberverteidigung gehören. Andere Länder erwähnen diese zwar, aber bleiben eine klare Aussage zur Rechtmäßigkeit und Wirksamkeit schuldig.

Nationale Strategien nicht immer auf neuestem Stand

Die Ansprüche an die nationalen Sicherheitsstrategien der europäischen Länder verändern und erhöhen sich mit der Vielzahl und Volatilität möglicher Bedrohungsszenarien. Strategien, dem zu begegnen, müssen hiermit Schritt halten.

Verteidigung: Schutz rangiert vor Reaktion

Nahezu alle Strategien haben die Sicherung der kritischen Infrastrukturen (97%) sowie die Gewährleistung sicherer und robuster Informationssysteme (93%) als Ziel. Kaum erwähnt wird hingegen eine schnelle Reaktion auf Cyberangriffe.

„Neben der Sicherung unserer Infrastrukturen und Systeme muss zunehmend auch die Fähigkeit zur adäquaten Reaktion im Falle eines Angriffs aus bzw. auf den Cyberraum in den Fokus genommen werden. Dazu bedarf es einer politischen, rechtlichen und fähigkeitsbezogenen Rahmensetzung. Mit der Errichtung des Kommandos Cyber und Informationsraum hat Deutschland hier bereits eine erste Grundlage geschaffen“, resümiert Katrin Rohmann, Industry Leader Government & Public Services bei Deloitte.

Zahlreiche Akteure, unklare Zuständigkeiten

Die Cybersicherheitsstrategien der Staaten benennen unterschiedliche Akteure. Deren Zahl variiert von zwei bis zweistellig. Im schlechtesten Fall kann daraus ein Verantwortungs- und Zuständigkeitsvakuum entstehen. Unweigerlich steigen mit der Zahl der Akteure potenziell der Koordinationsbedarf zur Lageeinschätzung und die Reaktionszeit im Ernstfall.

Zum Ende des ersten Teils des Reports werden Handlungsfelder identifiziert: Stärkere internationale Kooperationen, einheitliche Definitionen und klare Verantwortungszuweisungen sind erforderlich. Strategien müssen dynamisch mit der Gefährdung weiterentwickelt werden, dazu müssen die Treiber künftiger Entwicklungen identifiziert und beobachtet werden. Der zweite Teil des Reports greift diese Handlungsfelder auf und nutzt die Szenariomethodik, um mögliche Zukunftsbilder aufzuzeigen.

Durch moderne Cybersicherheit zu einem digitalen Leben in Europa: vier mögliche Szenarien

Um in Europa die Weichen für eine sichere, digitale Zukunft zu setzen und Antworten auf die Frage nach der Ausgestaltung der Cybersicherheitslandschaft 2030 zu finden, entstehen nach einer auf Künstlicher Intelligenz basierenden Analyse vier mögliche Zukunftsbilder – abhängig davon, ob ein national und international akzeptierter Rechtsrahmen besteht oder nicht und ob Cyberangriffe antizipiert und Angreifer wirksam verfolgt werden können:

  1. Goldener Käfig: In diesem Szenario ist Europa sicher und stabil und sieht sich mit wenig Disruption konfrontiert. Es gibt eine klar definierte und funktionierende regelbasierte Ordnung sowie ausreichende Effektivität bei der Antizipation von Cyberbedrohungen und der Attribution von Cyberangriffen.
  2. Selbstschutz: In dieser Welt ist Europa bürokratisch, extrem unsicher und technologisch fragmentiert. Obwohl es kleine thematische Inseln der Sicherheit gibt, ist Cybersicherheit außerhalb dieser Bereiche lückenhaft.
  3. Cyber-Oligarchie: In diesem Szenario beherrscht eine kleine Elite von Cyberexperten die Cybersicherheitslandschaft in Europa. Cybersicherheit wird nicht mehr vom Staat gesteuert. Stattdessen wird sie privat nach den „Gesetzen des Stärkeren” durchgesetzt.
  4. Cyber-Darwinismus: In dieser alternativen Zukunft ist Europa zu einem Dschungel geworden, der auf der Basis einer Laissez-faire-Mentalität arbeitet. Während kleine Inseln mit einem hohen Maß an (Cyber-)Sicherheit innerhalb von „gated communities“ existieren, ist die Außenwelt unsicher. Daraus resultiert ein Zwei-Klassen-Sicherheitssystem, das niedrige Sicherheitsklassen stark diskriminiert und ausschließt.

„Auch wenn sich im digitalen Zeitalter niemand hundertprozentig gegen Cyberangriffe schützen kann, sind Vorbereitung und eine auf die aktuellsten Entwicklungen abgestimmte Cybersicherheitsstrategie essenziell. Es besteht Handlungsbedarf. Wir müssen bei der Gestaltung der digitalen Zukunft Europas und dieser Thematik ein gemeinsames Verständnis entwickeln, Komplexität reduzieren, die Dinge begreifbar machen und Unsicherheiten ausräumen“, so Katrin Rohmann.

Inhaltlich verantwortlich für die Studie sind Katrin Rohmann, Industry Leader Government & Public Services bei Deloitte, und Peter Wirnsperger, Deloitte Partner und Cyber Risk Leader.

Studie: Immer mehr Europäer wohnen in Smart Homes, Deutschland zieht nur langsam mit

Mit smarten Kameras von LUPUS-Electronics haben Sie ihr Zuhause von überall aus im Blick © LUPUS-Electronics

Mit smarten Kameras von LUPUS-Electronics haben Sie ihr Zuhause von überall aus im Blick © LUPUS-Electronics

Nach einer Studie im Auftrag von Linksys, einem Spezialisten für Home-Networking-Lösungen, wird das Zuhause der meisten Europäer durch den Einsatz von IoT-Geräten immer „smarter“. Die Bandbreite reicht von smartem Licht, Temperaturreglern und Kühlschränken hin zu selbstlernenden Haushaltsgeräten.

Die Deutschen halten sich beim Kauf vernetzter Heimgeräte jedoch im Vergleich eher zurück – ein Trend, den auch die gerade zu Ende gegangene IFA in Berlin bestätigt: Dort waren zwar hallenweise Smart-Home-Produkte zu bestaunen, doch ändert das nichts an der Tatsache, dass sie erst nach und nach den deutschen Massenmarkt erobern. Der Preis und das ausgeprägte Sicherheitsdenken der Deutschen sind dabei wohl die Haupthindernisse für die Smart-Home-Verbreitung hierzulande.

Auf europäischer Ebene gesehen ist der Trend ein anderer: „Insgesamt nimmt die Anzahl der Smart Devices in europäischen Haushalten rapide zu, was bedeutet, dass die Verbraucher auf größere und schnellere WLAN-Netzwerke umsteigen müssen, um Schritt zu halten“, erklärt Andrea Bruno, Sales Director Linksys Europe. „Selbst, wenn man nur Netflix über einen Smart TV streamt, wird so viel Bandbreite benötigt, dass es die Nutzung des WLANs im gesamten Haushalt beeinträchtigt.“

Smart TVs führend in europäischen Haushalten

Die Ergebnisse der Studie zeigen, dass die Mehrheit (66 Prozent) der befragten Europäer mindestens einen oder mehrere Smart TVs (18,4 Prozent) besitzen. Die Niederländer stehen mit 69,2 Prozent an der Spitze, gefolgt vom Vereinigten Königreich (68,2 Prozent) und Deutschland (65,3 Prozent). Frankreich hat mit 58,9 Prozent die wenigsten Smart TVs im Einsatz.

Europäer schauen auch internetbasiertes Fernsehen. Tatsächlich geben bereits 28,8 Prozent der Befragten an, dass ihr primäres Fernsehsignal internetbasiert sei. Die Ergebnisse zeigen die höchste Quote in Frankreich (39,2 Prozent) und den Niederlanden (34,8 Prozent), die niedrigste in Deutschland (21,5 Prozent). Die Befragten beziehen auch Abo-TV-Dienste wie Netflix, HBO oder Amazon Prime (41,6 Prozent), laden Serien und Filme herunter (31,4 Prozent), und streamen (Sport-)Veranstaltungen live (17,9 Prozent).

Sprachassistenten auf dem Vormarsch

Während Smart TVs schon festen Einzug in mehr als die Hälfte europäischer Haushalte gefunden haben, gewinnen auch weitere IoT-Geräte an Beliebtheit. Dazu gehören Sprachassistenten wie Amazon Echo, Amazon Alexa und Google Home, derzeit mit 21,9 Prozent und steigender Tendenz.

Direkt dahinter liegen smarte Beleuchtung wie die Glühbirnen Philips Hue und Ikea Tradfri (Einsatz in 18 Prozent der Haushalte) und vernetzte Sicherheitskameras (im Besitz von 17,5 Prozent der Befragten), gefolgt von Temperaturreglern (wie Nest, Netatmo), smarten Steckdosen (beispielsweise von Wemo, Fibaro) und sogar Türklingeln wie Ring bei 12,3 Prozent.

 

Deutschland: Kein Early Adopter

  • Im europäischen Vergleich würden sich die Deutschen selbst am wenigsten als Early Adopter für das Smart Home bezeichnen (21,3 Prozent).
  • Im Vergleich zu anderen Ländern ist bei den Deutschen die Wahrscheinlichkeit am geringsten, dass sie folgende Smart Devices besitzen: Smarte Steckdosen (15 Prozent), vernetzte Sicherheitskameras (13 Prozent), smarte Temperaturregler (9 Prozent) und smarte Türklingeln (8 Prozent).
  • Auch künftig sind die Deutschen im Vergleich am wenigsten daran interessiert, folgende Smart Devices zu kaufen: Smart TVs oder Connected TVs (55 Prozent), smarte Steckdosen (31 Prozent), smarte Schalter (28 Prozent), vernetzte Sicherheitskameras (26 Prozent), smarte Temperaturregler (26 Prozent) und smarte Türklingeln (21 Prozent).

Wo geht der Trend hin?

Im europäischen Durchschnitt wollen 35 Prozent der Studienteilnehmer ihr Zuhause künftig durch den gesteigerten Einsatz von IoT-Geräten smarter machen. Insbesondere an smarter Beleuchtung sind 43,6 Prozent interessiert. 28,4 Prozent ziehen sogar einen Kauf in den nächsten zwei Jahren in Betracht. Über den Kauf von Sprachassistenten in den nächsten zwei Jahren denken 16 Prozent nach.

„Während wir jetzt über smartes Licht und Sprachassistenten sprechen, werden wir in den nächsten Jahren zu noch intelligenteren vernetzten Geräten im Haushalt übergehen, die durch künstliche Intelligenz (KI) und maschinelles Lernen gesteuert werden. Zum Beispiel Lösungen wie Phyn, ein smartes Wassermanagementsystem, das anhand des Wasserverbrauchs des Nutzers lernt und undichte Leitungen sofort meldet.  Oder intelligente Küchen, die den Ofen automatisch vorheizen und nach Rezepten Mahlzeiten vorbereiten. All diese Innovationen werden die Anzahl der IoT-Geräte im Haus und damit den Bedarf an leistungsstarkem WLAN steigern. Wer ein Smart Home will, muss sich darauf vorbereiten und auch das darunterliegende Netzwerk zukunftssicher machen“, betont Linksys Sales Director Andrea Bruno.

Über die Studie

Vanson Bourne führte diese Studie im Auftrag von Linksys (Teil von Belkin International) durch. Die Ergebnisse basieren auf einer webbasierten Umfrage unter 8.000 Verbrauchern. Die Studienteilnehmer wurden im Mai und Juni 2018 befragt; sie kamen aus Großbritannien (2.000), den Niederlanden (2.000), Deutschland (2.000) und Frankreich (1.000), den Vereinigten Arabischen Emiraten (500) und dem Königreich Saudi-Arabien (500). Um sich für die Umfrage zu qualifizieren, mussten die Befragten die folgenden Auswahlkriterien erfüllen:

  • Sie mussten zwischen 18 und 64 Jahre alt sein.
  • Sie mussten in ihrem Haushalt eine Art Entscheidungsverantwortung für den Kauf neuer Technologien haben.
  • Sie mussten zu Hause entweder einen WLAN-Router oder ein WLAN-Router/Modem-Kombinationsgerät verwenden.

Kundenservice & Co.: Wie Bots die Zukunft bestimmen

In nicht allzu ferner Zukunft übernehmen autonome Systeme eine Vielzahl von Aufgaben. Während Menschen von zahlreichen alltäglichen Aufgaben entlastet werden, besteht zugleich die Befürchtung, dass wir mit dieser Entwicklung auch an Autonomie verlieren könnten. (Copyright: Daimler und Benz Stiftung/Oestergaard)betroffenen wissenschaftlichen Disziplinen beleuchtet, wie autonome Systeme unser Leben und auch unser Selbstverständnis verändern werden. (Copyright: Daimler und Benz Stiftung/Oestergaard).

In nicht allzu ferner Zukunft übernehmen autonome Systeme eine Vielzahl von Aufgaben. Während Menschen von zahlreichen alltäglichen Aufgaben entlastet werden, besteht zugleich die Befürchtung, dass wir mit dieser Entwicklung auch an Autonomie verlieren könnten. (Copyright: Daimler und Benz Stiftung/Oestergaard)betroffenen wissenschaftlichen Disziplinen beleuchtet, wie autonome Systeme unser Leben und auch unser Selbstverständnis verändern werden. (Copyright: Daimler und Benz Stiftung/Oestergaard).

Künstliche Intelligenz verändert unser tägliches Leben. Galt der Touchscreen bei Smartphones vor zehn Jahren noch als Sensation, ist er heute völlig selbstverständlich geworden. Die nächste große Veränderung, die ähnlich einschneidend sein wird, erobert gerade weltweit die Märkte: Sprache als neues Interface. Stichworte: Amazons Alexa und Google Home. Millionen dieser Geräte stehen bereits in Haushalten in aller Welt. Auch beim Thema Kundenservice spielen Bots und Sprache eine immer wichtigere Rolle.

Chatbots und andere KI-gesteuerte virtuelle Agenten haben den Kundenservice bereits jetzt in seiner Struktur vollkommen verändert. Doch das ist nur der Anfang der „Bot-Revolution“, denn durch APIs werden Chatbots mit nachhaltigen Lernprozessen verknüpft und tauchen plötzlich an Orten auf, an denen man sie nie vermutet hätte.

Menschliche Züge: Chatbots verbessern den Service

Das Kontaktcenter der Zukunft erhält bereits beim Klingeln des Telefons Informationen über den Kunden und kann mit einer relativ großen Wahrscheinlichkeit voraussagen, worüber der Anrufer gleich sprechen möchte. Die dahinterstehende künstliche Intelligenz (KI) macht den Menschen jedoch nicht überflüssig, sondern ergänzt ihn. Sie erweitert bloß die Fähigkeiten der dort Angestellten, greift ihnen in vielen Situationen unter die Arme und macht sie so produktiver.

Auf diese Weise können Anfragen schneller und besser bearbeitet werden. Ein Beispiel: Man ruft seine Bank an und bleibt erst einmal in der Warteschleife stecken – oder muss sein Anliegen einem Mitarbeiter nach dem anderen immer wieder neu erklären.

Viele Finanzinstitute haben ihre Customer Journey deshalb mithilfe von Chatbots verkürzt, die häufig gestellte Fragen schneller und direkter beantworten können. Ist trotzdem ein Gespräch notwendig, wird der Kunde zu einem „echten“ Mitarbeiter weitergeleitet, der Zugriff auf die Vorgeschichte und die Chat-Kommunikation seines Gesprächspartners hat.

Das verbessert die Servicequalität und die Customer Experience insgesamt deutlich. Menschen haben gerne mit Menschen zu tun. Doch die künstliche Intelligenz sorgt dafür, dass immer häufiger menschenähnliche virtuelle Assistenten und Chatbots zum Einsatz kommen. Sie nutzen die natürliche Sprache, um – aufbauend auf der traditionellen Kommunikation zwischen Mitarbeiter und Klient – immer mehr Nuancen und Zusammenhänge zu verstehen. Viele Unternehmen integrieren Chatbots in ihre vorhandenen Applikationen, um den steigenden Kundenansprüchen gerecht zu werden und die Customer Experience zu optimieren.

Nahtlose Kommunikation

Schlechter Kundenservice kann einen Konzern teuer zu stehen kommen: Er beeinträchtigt die Kundenloyalität, führt zu Kundenabwanderungen und behindert die Akquise neuer Kundschaft. Doch Chatbots, CPaaS und andere Technologien mit kontextbezogener Kommunikation werden künftig dafür sorgen, dass weniger Applikationen benötigt werden, um Vorgänge abzuwickeln.

Und sie werden den Prozess beschleunigen, mit dem der Kunde über Verzögerungen beziehungsweise Änderungen benachrichtigt wird. Beides bringt den Unternehmen riesige Vorteile.

Die „Bot-Revolution“ hat Technologien hervorgebracht, die bei Kundenanfragen oder -problemen mehr Kontext liefern und im Handumdrehen eine Lösung parat haben. Doch damit nicht genug: Die Bots können überall mit dem Kunden kommunizieren – per Chat, per In-App-Mitteilung, per SMS oder per Sprachnachricht.

Diese nahtlose Kommunikation ist in vielen Bereichen immer noch eines der größten Probleme bei der Customer Experience: Unternehmen können die unterschiedlichen Kommunikationskanäle (SMS, Festnetz, Apps, Sprachnachricht, Social Media) oft nicht unter einen gemeinsamen Hut bringen.

Sprich: Sie sind nicht in der Lage, diese verschiedenen Kommunikationsstränge zu einem fortlaufenden Dialog zu verknüpfen. In jedem Kanal musste der Kunde immer wieder neu erklären, wer er ist und was er gerade möchte. Denn jedes Gespräch, das auf einem Kanal geführt wurde, fand isoliert von der Kommunikation auf den anderen Kanälen statt. Dies ändert sich gerade zum Positiven.

Chatbots in CRM-Plattformen oder Datenbanken einbetten

Einer der wichtigsten Treiber für die Weiterentwicklung der Chatbots ist die technische Integration. Bots können in CRM-Plattformen, Unified-Communications-Systeme oder interne Datenbanken integriert werden. Chatbots, die isoliert eingesetzt werden, sind lediglich vorprogrammierte Antwortpakete – sie verfügen weder über Daten, die einen weiterbringen, noch über ein Backup.

Ein integrierter Chatbot dagegen kann beispielsweise historische Daten nutzen, um sich wiederholende Fragen zu übergehen. Er kann auch durch Sentimentanalysen erkennen, wann ein Nutzer verärgert ist – und ihn dann umgehend an einen Call-Center-Mitarbeiter weiterleiten. Über APIs haben die Unternehmen die Möglichkeit, ihre Chatbots in ein breiter aufgestelltes Communications-Ökosystem einzubinden und sie nicht nur intelligenter, sondern auch nützlicher zu machen. Darüber hinaus wurden einige der wichtigsten KI-Innovationen der letzten Zeit im Bereich Voice-Bots entwickelt.

Voice als User Interface

Immer mehr Geräte lassen sich per Sprache steuern, etwa die eingangs erwähnten Smart-Home-Assistenten Amazon Alexa und Google Home. Sprachbefehle sind nicht nur schneller, sie machen – anders als bei der manuellen Eingabe – den Blick auf den Bildschirm überflüssig. Mit dieser unkomplizierten Methode können private und berufliche Aufgaben in kürzerer Zeit abgearbeitet werden, ohne den Tagesablauf zu unterbrechen.

Und das ist erst der Anfang: Sprach- und Gestensteuerung halten zum Beispiel auch in Autos Einzug. In Zukunft werden wir per Sprachinterface unser Leben – privat wie beruflich – organisieren. Das gilt auch für das Einkaufen: Bald werden wir uns unter dem Stichwort „Voice Commerce“ online mit Sprachbots über die Produkte unterhalten, für die wir uns interessieren. Dadurch wird das Argument „Beratung bekommt man nur im Laden“ hinfällig, was wiederum die Art, wie wir shoppen, massiv beeinflusst. Mehr noch: Das gesamte Internet erfährt eine Transformation – von der bald altmodischen Texteingabe samt Maus und Tastatur hin zu einem von Videos und Sprache dominierten System. Bildschirme und Tastaturen werden irgendwann zu Raritäten zählen.

Oberste Priorität: Entwicklung von plattformübergreifenden Bots

Die Entwicklung von Programmen für Geräte mit künstlicher Intelligenz und virtuellen Agenten beziehungsweise Assistenten gehört für zukunftsorientierte Entwickler mittlerweile zu den obersten Prioritäten. In dieses Forschungsfeld werden derzeit Milliarden investiert. Zwar ist es nach wie vor eine Herausforderung, Bots zu entwickeln, die plattformübergreifend interagieren.

Doch in den nächsten Monaten und Jahren wird es immer mehr SDKs und andere Frameworks geben, mit denen plattformübergreifende Voice-Bots geschaffen werden können. Wir steuern auf eine Welt zu, in der API-gestützte Bots, die nahtlos zwischen verschiedenen Kanälen wie Telefon und Chat wechseln, die Norm sein werden. Den meisten Bots liegt eine Technologie zugrunde, die natürliche Sprachverarbeitung mit Spracherkennung kombiniert und auf beinahe jeden Kommunikationskanal angewendet werden kann.

Für den Kunden ist das ein Segen, denn so kann er mit den Bots interagieren, wie es ihm gerade gefällt: über Facebook Messenger, WhatsApp, per Voice, Chat oder Messaging. Diese Art flexibler, dynamischer künstlicher Intelligenz wird dafür sorgen, dass der Kundenservice konsistenter und umfassender wird. Kunden, die Hilfe brauchen, werden jederzeit Unterstützung bekommen, und zwar über jeden beliebigen Kanal.

Autor: Thomas Klar ist Country Manager Deutschland für Nexmo, der API-Plattform von Vonage. Er verfügt über langjährige Erfahrungen im Bereich Cloud Communication und Business Technology und konzentriert sich bei Nexmo auf den Ausbau der aktuellen Marktpräsenz und des vorhandenen EMEA-Kundenstamms sowie um die globale Expansion von Nexmo. Der Fokus liegt hierbei auf dem deutschen Markt. 

Fünf Megatrends, welche die Grenzen zwischen Mensch und Maschine verwischen werden

blitzeVon den 35 Must-Watch-Technologien, die im Emerging Technologies Hype Cycle 2018 vertreten sind, hat das Research- und Beratungsunternehmen Gartner fünf Megatrends identifiziert, welche die Grenzen zwischen Mensch und Maschine verwischen werden. Gerade Technologien wie Künstliche Intelligenz (KI) spielen eine entscheidende Rolle dabei, dass Unternehmen flächendeckend, immer verfügbar und mit Unternehmens-Ökosystemen verbunden sind, um in naher Zukunft bestehen zu können.

Diese Megatrends werden laut Gartner die Zukunft maßgebend prägen

  1. Demokratisierung von KI: Auf KI basierende Technologien werden in den nächsten zehn Jahren virtuell jedem zur Verfügung stehen. KI wird einem breiten Publikum zugänglich und Early Adopter werden auf neue Situationen treffen und Probleme lösen, die ihnen bislang unbekannt waren. Demokratisierte KI wird unter anderem folgende Technologien voranbringen: Autonomes Fahren (Level 4 und 5), intelligente Roboter, virtuelle Assistenten, AI Platform as a Service, autonome mobile Roboter und viele weitere.
  1. Digitalisierte Ökosysteme: Diese werden zum Grundstein von New Business Modellen, die Menschen und Technologien verbinden. Dieser Trend wird von Technologien wie Blockchain, IoT Plattformen, Digital Twin, Data Security Blockchain und Knowledge Graph vorangetrieben.
  1. Do-It-Yourself Biohacking: Die nächste Dekade wird zum transhumanen Zeitalter– in dieser kann Biologie gehackt werden. Besonders hier stellt sich die Frage, inwiefern die Gesellschaft verschiedene Anwendungsbereiche akzeptieren wird und welche ethischen Fragen sich daraus ergeben werden.
  1. Transparente immersive Erfahrungen: Der Mensch wird auch weiterhin im Mittelpunkt von Technologie stehen, bei der Menschen, Unternehmen und Dinge zunehmend transparenter werden. Dies ermöglicht neue Bereiche und ein smarteres Leben und Arbeiten.
  1. Flächendeckende Infrastruktur: Infrastruktur ist nicht länger auf Unternehmensziele ausgerichtet. Die Einführung und breite Popularität von Cloud Computing und seinen vielen Varianzen ermöglichen ein stets verfügbares und grenzenloses Umfeld.
(Bildquelle: Gartner August 2018)

(Bildquelle: Gartner August 2018)

„Wirtschafts- und Technologieführer werden weiterhin mit einer sich rasant beschleunigenden technologischen Innovation konfrontiert sein, die die Art und Weise, wie sie mit ihren Mitarbeitern interagieren, mit ihren Partnern zusammenarbeiten und Produkte und Dienstleistungen für ihre Kunden schaffen, tiefgreifend beeinflussen wird“, betont Mike J. Walker, Research Vice President bei Gartner. „CIOs und Technologieführer sollten stets den Markt im Blick haben und neue Technologien prüfen und bewerten. So lassen sich neue Möglichkeiten mit hohem Wirkungspotenzial und strategischer Relevanz für ihr Unternehmen identifizieren.“

Der Emerging Technologies Hype Cycle ist der am längsten bestehende jährliche Gartner Hype Cycle und bietet einen branchenübergreifenden Ausblick auf die Technologien und Trends, die Unternehmensstrategen, Chief Innovation Officers, R&D-Leiter, Unternehmer, globale Marktentwickler und Teams im Bereich Emerging Technologies bei der Entwicklung ihres Portfolios berücksichtigen sollten.

Weltweite Studie „Elektronik der Zukunft“: Was Verbraucher über KI, Roboter und digitale Sicherheit denken

(Bildquelle: "obs/electronica/Christian Hartlmaier")

(Bildquelle: „obs/electronica/Christian Hartlmaier“)

81 Prozent der Verbraucher rund um den Globus wünschen sich, dass „elektronische Geräte der Zukunft“ das Leben vereinfachen. Was dabei künstliche Intelligenz (KI), Robotik und Digitalisierung dürfen und was nicht, wird von den Nutzern sehr differenziert betrachtet. So sind beispielsweise weltweit 71 Prozent der Verbraucher der Meinung, dass elektronische Geräte auch in Zukunft nur assistieren sollen und das eigene Denken der Menschen mit KI nicht ersetzen dürfen. Das sind Ergebnisse des electronica-Trend-Index (2. Auflage). Dafür wurden im Auftrag der „electronica“, Messe und Konferenz für Elektronik, 7.000 Verbraucher in den USA, China, Japan, Deutschland, Frankreich, Großbritannien und Italien von einem Marktforschungsinstitut im Juni 2018 bevölkerungsrepräsentativ befragt.

Navigationssysteme und Smartphones haben die intelligente Sprachsteuerung in den Privathaushalten bekannt gemacht.

Mit künstlicher Intelligenz und digitaler Vernetzung arbeiten Hersteller mit Hochdruck daran, den Siegeszug von smarter Elektronik auszubauen. Bei den Verbrauchern steht die Idee der Sprachsteuerung offenbar hoch im Kurs: Rund 60 Prozent der Konsumenten sind weltweit dafür, dass elektronische Geräte künftig in einen menschlichen Dialog treten können – etwa nach dem Vorbild bekannter Sprachassistenten wie Siri, Alexa oder Cortana. Besonders begeistert davon, sich künftig mit elektronischen Geräten unterhalten zu können, sind dabei die chinesischen (85 Prozent), amerikanischen (68 Prozent) und italienischen (66 Prozent) Konsumenten. Weltweit 17 Prozent lehnen sprechende Elektronik dagegen entschieden ab.

Was Roboter dürfen und was nicht

Zu „menschenähnlich“ sollten die digitalen Helfer nach übereinstimmender Meinung der Verbraucher allerdings nicht werden: Bei der Frage, wie Service-Roboter von morgen beschaffen sein sollten, sprechen sich 72 Prozent dafür aus, dass Roboter mit künstlicher Intelligenz eindeutig als Maschine erkennbar bleiben. Die stärksten Befürworter dafür sind Italiener (78 Prozent) und US-Amerikaner (77 Prozent). Aber auch in Japan, mit der im Vergleich schwächsten Zustimmung, gibt es in diesem Punkt eine klare Mehrheit von 69 Prozent der Befragten.

Roboter sollen selbständig lernen

Dagegen bewerten 72 Prozent der Befragten im weltweiten Durchschnitt positiv, dass Roboter künstliche Intelligenz einsetzen, um selbständig zu lernen und auf neue Situationen zu reagieren. Ebenso viele wünschen sich vom Roboter Entscheidungshilfen – allerdings sollte die Kontrolle in den Händen der Menschen bleiben.

Diese Grundeinstellung gilt generell für den Einsatz von künstlicher Intelligenz in elektronischen Geräten: Die große Mehrheit der Verbraucher möchte, dass die KI nur assistiert und nicht das eigene Denken ersetzt – der weltweite Durchschnitt dieser Meinung liegt nach der jüngsten Umfrage bei 71 Prozent. Allerdings ist diese Ansicht in einigen Ländern rückläufig: In Deutschland stimmten dieser Meinung im electronica-Trend-Index aus dem Jahre 2016 insgesamt 82 Prozent der Befragten zu – aktuell sind es noch 67 Prozent.

Geteilt ist dagegen die Meinung dazu, ob eine Maschine in der Lage sein soll, menschliche Gefühle zu erkennen und darauf zu reagieren: In den europäischen Ländern und Japan ist nur rund jeder Zweite dafür, in den USA knapp 60 Prozent – in China aber 85 Prozent.

 

 

„Beim Thema KI-Ethik reicht die Selbstverpflichtung der Industrie nicht aus“

Verständnis-Ethik-260x300Innovation ist wichtig, aber kein Selbstzweck, deshalb sollten sich Unternehmen und Wissenschaftler ethische Grenzen setzen. Notfalls müssen die Gesetzgeber nachhelfen, sagt Dinko Eror, Senior Vice President and Managing Director von Dell EMC in Deutschland.

Nicht alles, was technisch möglich ist, sollte auch erlaubt sein. Gerade im Umfeld der Künstlichen Intelligenz (KI) ist eine Diskussion entstanden, die stark an die Kritik der ersten Atombombe erinnert: Viele fürchten eine Entwicklung, die unumkehrbar ist und weitreichende Gefahren birgt.

Der Unternehmer Elon Musk etwa sieht in der KI „die größte Bedrohung für das Überleben der Menschheit“, und der in diesem Jahr verstorbene Physiker Stephen Hawking war bereits 2014 der Meinung, Menschen könnten aufgrund ihrer biologischen Limitierung mit KI nicht mithalten und würden am Ende „verdrängt“ werden. Eine Verselbstständigung der Technologie hatten Science-Fiction-Autoren schon Mitte des vergangenen Jahrhunderts thematisiert.

Eine solche Entwicklung hat eine besondere Tragweite, wenn Fehler entstehen. Amazons Gesichtserkennung etwa hat jüngst 28 Abgeordnete des US-Kongresses mit Häftlingen verwechselt. Überträgt man diese Fehlerquote von fünf Prozent auf die Ambitionen des US-Verteidigungsministeriums, werden ethische Zweifel schnell greifbar: Das Pentagon will unter anderem Drohnen und andere Waffen mit KI versehen, damit sie Ziele selbst identifizieren und „Entscheidungen selbst treffen“ können. Viele KI-Forscher betrachten solche Entwicklungen mit besonderer Skepsis – wenn nicht mit Abscheu; tausende von ihnen haben deshalb eine freiwillige Selbstverpflichtung unterschrieben, nicht an autonomen Waffensystemen zu forschen. Aber wie stehen die übrigen tausenden zu solchen Einsätzen?

Gefahr kommt auch aus einem ganz anderen Bereich: Mit KI, künstlichen neuronalen Netzen und erschreckend wenig Aufwand können mittlerweile mit sogar kostenlosen Apps täuschend echte Fake-Bilder und -Videos hergestellt werden. „Nicht auszudenken, was passiert, wenn durch ein Fake-Video eines Fake-Politikers ein Krieg entsteht“, gibt Dinko Eror zu bedenken.

Auch die Profilerstellung von beliebigen Internet- und Social-Media-Nutzern stellt für KI längst keine Hürde mehr dar. Die Technologie kann, in Verbindung mit der heutigen Rechenleistung, gigantische Datenmengen analysieren und etwa Muster erkennen. Unvergessen ist zum Beispiel die unerlaubte Auswertung der Daten zahlreicher Facebook- und Twitter-Profile durch Cambridge Analytica mit dem Ziel, die US-Wahlen 2016 zu beeinflussen – für viele der erste wirkliche Social-Media-Skandal.

Es gibt zahlreiche weitere Beispiele, die ethische Fragen aufwerfen – zudem dass die KI sich weiterentwickelt und jeden Tag schneller, leistungsfähiger und treffsicherer wird. Sogar IT-Unternehmen, die Vorreiter in Sachen KI, kommen deshalb mittlerweile ins Grübeln. Microsoft zum Beispiel betrachtet KI-basierte Gesichtserkennung als Bedrohung der fundamentalen Menschenrechte wie Privatsphäre und Meinungsfreiheit, so zumindest President Brad Smith in seinem Blog vor einigen Wochen.

Ist die Selbstverpflichtung von Industrie und Forschung also der richtige Weg, um ethische Innovationen – auch fernab von KI – sicherzustellen? „Nein. Die Wirtschaftsgeschichte hat gezeigt: Die Selbstverpflichtung von Industrie und Forschung führt nicht zu ethischen Innovationen“, erklärt Eror. „Sei es beim Dieselskandal, dem Rauchverbot, der Frauenquote oder der Nahrungsmitteltransparenz. Mögliche Absatzvorteile haben Unternehmen immer höher bewertet als ethisches Handeln. Ich bin mir sehr sicher, dass das auch in Zukunft so bleiben wird.“

Eine gesetzliche Regulierung ist deshalb unabdingbar. „Die angekündigte Strategie der Bundesregierung zur Künstlichen Intelligenz kommt zwar sehr spät, berücksichtigt aber Datenschutz und Informationssicherheit und betont an vielen Stellen die Notwendigkeit von ethischen Standards“, erklärt Eror, „das ist sehr zu begrüßen“. Auch die EU hat kürzlich ein KI-Maßnahmenpapier angekündigt, in dem ethische Rahmenbedingungen im Vordergrund stehen.

Die Frage bleibt, ob auch andere Regierungen ein Interesse daran haben, sich in diesem Sinne selbst einzuschränken. Die USA haben zwar bereits 2016 einen strategischen Forschungs- und Entwicklungsplan für KI vorgestellt und betonen dort sehr nachdrücklich das Thema „ethische KI“. Es bleibt aber offen, wie sie etwa ihre angekündigten aggressiven Verteidigungspläne darauf abstimmen wollen. China, ein Land, das nicht besonders zimperlich mit der Privatsphäre umgeht, wie die jüngste Maßnahme zur allgegenwärtigen Gesichtserkennung beweist, wird ethische Aspekte eher weniger in den Vordergrund stellen.

Seit vielen Jahren wird der Ruf nach einer neuen Wirtschaftsordnung laut. Sie soll, so die große Mehrheit der Deutschen, Turbokapitalismus und Wachstum um jeden Preis zugunsten von mehr Gerechtigkeit und Umweltschutz ablösen. „Angesichts des rapiden Fortschritts der Technik und des potenziellen Missbrauchs der KI ist es an der Zeit, auch die Unternehmens¬ethik ganz oben auf die Agenda zu setzen“, findet Eror.

Mehr Sicherheit im Internet: Blockchain kann digitale Identitäten sichern

blockchainDigitale Identitäten ermöglichen es, die Akteure im Internet zweifelsfrei zu identifizieren – seien es Menschen, Geräte im Internet der Dinge oder Chat-Bots. Die Blockchain-Technologie könnte hier zukünftig Vorteile bieten gegenüber herkömmlichen Methoden: Anwender könnten mit Blockchain-Lösungen etwa ihre digitale Identität vollständig selbst verwalten.

„Eine Blockchain-Lösung kann einen öffentlichen Schlüssel an eine Identität binden, ähnlich wie es eine Public-Key-Infrastruktur (PKI) tut, allerdings ohne dass man dabei eine zentrale Instanz benötigt“, sagt Klaus Schmeh von cryptovision. Auf den Internet Security Days (ISDs) am 20. und 21. September 2018 in Brühl bei Köln hält Schmeh einen Vortrag zu diesem Thema. „Durch den Verzicht auf eine zentrale Instanz hat man naturgemäß weniger Einflussmöglichkeiten – mit allen Vor- und Nachteilen.“

Blockchain kann PKI ergänzen

Mit der jungen Blockchain-Technologie sind weitere Lösungen für digitale Identitäten denkbar – so ließe sich eine vertrauenswürdige Instanz auch in eine Blockchain-Lösung integrieren. Mittels Personalausweis beispielsweise können sich die Anwender dann für die Blockchain registrieren, die ihre Identität überall im Netz zweifelsfrei belegt.

„Die Blockchain-Technologie ist eine ideale Ergänzung zu einer Public-Key-Infrastruktur, in der Praxis wird sie diese jedoch nie vollständig ersetzen“, gibt Markus Schaffrin zu bedenken. Er ist Geschäftsbereichsleiter Mitglieder-Services und Security-Experte im eco – Verband der Internetwirtschaft e. V. Ein Unternehmen beispielsweise, das die Schlüsselvergabe an Angestellte regeln will oder ein Staat, der rechtlich bindende digitale Signaturen vergeben möchte, kann auf eine zentrale Instanz kaum verzichten.

Identitäten-Lösungen fürs Internet der Dinge

Als transparente und dezentralisierte Plattform ist die Blockchain jedoch generell geeignet, die digitale Identitätskrise mit immer mehr Akteuren und Geräten im Internet zu entschärfen. User könnten beispielsweise mithilfe der eigenen, auf die Blockchain gestützten Identität viele verschiedene Online-Dienste sicher und bequem nutzen.

Damit ließen sich etwa die aktuell beliebte Authentifizierung mittels Social Media Account ersetzen. Statt einer sozialen Plattform weitere persönliche Daten anzuvertrauen, würde jeder Nutzer seine Online-Identität selbst mitbringen, ganz im Sinne einer Self-Sovereign Identity (SSI).

Bevor entsprechende Lösungen geschaffen werden können, gilt es jedoch noch Fragen zu beantworten – etwa wie sich das zeit- und energieintensive Proof-of-Work-Verfahren der Blockchain vereinfachen ließe. Das Internet der Dinge und die Zahl der Transaktionen wächst rasant, hier bräuchte es schnellere und effektivere Verifizierungsmethoden. „Neue Möglichkeiten bietet etwa das Distributed-Ledger-Projekt IOTA, das Transaktionen grundlegend anders verarbeitet als die klassische Blockchain“, sagt Schmeh. Die unterschiedlichen Distributed-Ledger-Technologien könnten also schon bald Lösungen für die digitale Identitätskrise schaffen.

Interview: Warum für Techniker Ethik zunehmend wichtiger wird

Michael Teigeler, Geschäftsführer der Normungsorganisation VDE|DKE. (Bildquelle: VDE / Bernd Euring)

Michael Teigeler, Geschäftsführer der Normungsorganisation VDE|DKE. (Bildquelle: VDE / Bernd Euring)

Auf Initiative von VDE|DKE und IEEE (Institute of Electrical and Electronics Engineers) haben kürzlich acht große internationalen Standardisierungsorganisationen die Open Community for Ethics in Autonomous and Intelligent Systems (OCEANIS) in Wien gegründet. Michael Teigeler, Geschäftsführer der Normungsorganisation VDE|DKE, erklärt im Interview, warum das Thema „Ethik“ auch immer öfters von technischen Entscheidern aufgegriffen wird.

Was ist das Ziel von OCEANIS? Wie kam es zur Entscheidung, diese Open Community zu gründen?

Michael Teigeler: Künstliche Intelligenz gilt als die wichtigste Technik unseres Jahrzehnts. Ihre Entwicklung schreitet mit großen Schritten voran. Dabei ist schon jetzt klar, dass sie zu ähnlichen Umwälzungen führen wird wie die Einführung der Elektrotechnik Ende des vorletzten Jahrhunderts. Deshalb ist es wichtig, dass wir ethische Aspekte in der Entwicklung von KI verankern und zwar jetzt.

Wir Ingenieure und IT-Experten sind auf die Technik und den Algorithmus fokussiert, genau deshalb haben wir auch nicht Philosophie studiert. Nun greift KI aber in Bereiche, bei denen sich die elektrotechnische Community Gedanken über das „richtige“ und „falsche“ Verhalten einer Technologie machen muss. Und das schaffen wir nur im Schulterschluss mit Ethik-Experten.

Uns fehlt hierfür schlichtweg das Know-how über das Philosophen und Theologen verfügen. Ich maße mir nicht an, zu entscheiden, was richtig und falsch ist. Ich sprach mit meinem Kollegen Dr. Konstantinos Karachalios vom IEEE über das Thema und wir waren uns schnell einig, dass wir es nur auf internationaler Ebene lösen können und so kam der Gedanke, OCEANIS zu gründen.

Die Elektroindustrie ist die am stärksten global vernetzte Branche. Das gilt auch für die Normung. In Deutschland basieren die VDE-Bestimmungen heute größtenteils auf Europäischen Normen, die zu etwa 80 Prozent das Ergebnis der internationalen Normungsarbeit der IEC sind.

 Wie wollen Sie ethische Aspekte verankern? Wie kann sich das der Normalbürger vorstellen?

Michael Teigler: Zusammen mit Experten aus der Philosophie, Theologie, Psychologie, und Soziologie wollen wir einen Katalog an Anforderungen erarbeiten, die einer ethischen künstlichen Intelligenz „beizubringen“ sind.

An diesem Wertekatalog wird sich die internationale Normung halten. Genau deswegen ist es wichtig, dass wir alle Länder an Bord holen. OCEANIS ist damit ein Forum, in dem elektrotechnische Standardisierungsorganisationen zusammen mit anderen Organisationen Hand in Hand zusammenarbeiten. Die abgestimmten Leitlinien werden dann über die jeweiligen Standardisierungsorgane direkt in die internationale Normung fließen und sind damit für alle Länder verbindlich. Wir alle tragen Verantwortung dafür, wie KI eingesetzt wird.

Wie wollen Sie Wirtschaft und Politik Orientierung bieten?

Michael Teigler: Es ist wichtig, Ruhe in das Thema zu bringen. Und der Politik zu zeigen, wir nehmen unsere Verantwortung des technologischen Fortschritts ernst. Das gleiche gilt für die Wirtschaft. Indem wir das Thema Ethik in die Normung aufnehmen, nehmen wir den Unternehmen die große Hürde, sich alleine darum kümmern zu müssen. Im Alleingang würde diese Anstrengung sowieso keine Früchte tragen. Mehr als 5.500 Experten aus der Industrie erarbeiten bei VDE|DKE die VDE-Normen für die Elektroindustrie, die dann in die internationale Normung einfließen.

 Wenn Sie ethischen Aspekten bei KI mehr Gewicht verleihen wollen, dann öffnet das auch das Tor für viele philosophische Fragen. Die Mitglieder haben aber alle einen technischen Hintergrund. Wer leistet den philosophischen Anstoß?

Michael Teigler: Wie ich oben bereits erwähnt habe, ist OCEANIS ein offenes Forum. Wir sind gerade dabei, auf internationaler Ebene Fachdisziplinen wie Philosophie, Theologie, Soziologie und Psychologie anzusprechen. Auch die Geistes- und Sozialwissenschaften habe die Dringlichkeit des Themas erkannt. Gemeinsam werden wir Verantwortung übernehmen und unsere Komfortzone verlassen.

Vor 8 Jahren, als xethix startete, war das Thema „Ethik und Digitalisierung“ noch eher ein Randaspekt. Mittlerweile gibt es immer mehr Initiativen. Ist die Zeit reif, sich umfänglicher mit Technologie auseinanderzusetzen?

Michael Teigler: Es ist höchste Zeit, sich Gedanken über die Auswirkungen von künstlicher Intelligenz zu machen. Das sehen Sie allein an dem kritischen Warnruf führender Forscher Anfang des Jahres. Jetzt können wir noch in die Entwicklung eingreifen. Aber nur, wenn wir international an einem Strang ziehen. Mit künstlicher Intelligenz – die Forscher beschrieben sie zur Bösartigkeit fähig und begründeten dies technologisch und nicht auf Basis von Science Fiction – kann man ganze Gesellschaften aushebeln.

Deswegen ist es dem VDE ein großes Anliegen, den Mensch in den Mittelpunkt zu stellen. Wir wurden vor 125 Jahren gegründet, als die Einführung der Elektrotechnik zu großen Umbrüchen führte, ich erinnere an die sozialen Proteste im Zuge der Industrialisierung. Seitdem stehen wir für Aufklärung, Sicherheit und den Schutz der Bürgerinnen und Bürger. Damals schuf die Industrialisierung weitaus mehr Arbeitsplätze als verloren gingen. Es bedurfte damals eines Umdenkens. Und das ist auch heute der Fall. Wir müssen die Gesellschaft mitnehmen, mit Weiterbildung und Schulungen.

Wo sehen Sie OCEANIS in 5 Jahren?

Michael Teigler: Ich hoffe, dass wir zügig den Anforderungskatalog starten können. Eines dürfte sicher sein: Wir werden in fünf Jahren alle Standardisierungsorganisationen an Bord haben. Dadurch, dass alle big player bereits Mitglied von OCEANIS sind, ist die Motivation auf andere Länder hoch. Wer die Norm macht, hat den Markt. Ich sehe uns deshalb hier auf einem guten Weg. Und ich bin auch sehr optimistisch, dass die Zusammenarbeit mit uns „Nerds“ für die Philosophen und Theologen eine gute wird. Dazu ist das Thema einfach zu wichtig. KI wird kommen und wir müssen dafür sorgen, dass sie gut gestaltet wird zum Wohle der Menschheit.

 

Trotz modernster Technologien bleibt ein ernstes Sicherheitsrisiko: Der Mensch!

WP_001874Vergangenem nachzutrauern, ist selten zielführend. Dennoch: Was waren das noch für Zeiten für die IT und deren Nutzer, als E-Mail-Spam wohl immens nervte, aber in der Regel wenig Schaden anrichtete. Sieht man einmal von der erzwungenen Beschäftigung der Betroffenen ab, den Müll auszusortieren.

Heutzutage fahren Kriminelle ungleich härtere Geschütze auf, um Angriffe per E-Mail zu führen und die Adressaten in die Falle tappen zu lassen. Nur allzu oft sind die Phishing-Kampagnen derart clever, dass neben aller selbstverständlichen Abwehrtechnologie, die eine letzte Verteidigungslinie mitunter die wichtigste ist: Die menschliche Firewall.

Denn oft ist die Lösegeldforderung nur einen bösartigen Klick entfernt. Mitarbeiterschulungen und -trainings sollten daher unbedingt regelmäßiger Bestandteil einer Sicherheitsstrategie der Unternehmen sein, damit die Kollegen und Kolleginnen lernen, Phishing-Versuche zu erkennen und entsprechend sensibel damit umzugehen.

Als erstes stellt sich die Frage, wovor Nutzer auf der Hut sein müssen, wenn es um Phishing-E-Mails geht. Denn die Kriminellen haben nicht nur „die eine“ Methode in petto. Ihre Kreativität kennt kaum Grenzen: Allein im vergangenen Juni blockierte Barracuda weltweit über 1,7 Millionen Phishing-E-Mails.

Beispiele aus dem Alltag

Die folgenden Beispiele tatsächlich stattgefundener Phishing-Versuche verdeutlichen, wie vielfältig, komplex und letzten Endes clever Kriminelle vorgehen, um über das immer noch beliebteste Einfallstor E-Mail* an ihr Ziel zu gelangen.

  • Geldbetrügereien versprechen dem potenziellen Opfer einen attraktiven Geldbetrag.
    So können Geldbetrügereien aussehen (Bildquelle: Barracuda Networks)

    So können Geldbetrügereien aussehen (Bildquelle: Barracuda Networks)

    Antwortet der E-Mail-Empfänger, verlangen die Kriminellen in der Regel eine kleinere Summe und versprechen im Gegenzug eine größere Summe zurück – was natürlich nie passiert. Das Lockmittel „Geld“ dient aber häufig auch dazu, unternehmenskritische Informationen abzugreifen, beziehungsweise, einen Computer mit Malware zu infizieren.

  •  Beim Informationsbetrug versuchen die Kriminellen, möglichst viele relevante Informationen vom E-Mail-Nutzer abzufischen. In diesem Beispiel verschickten die Angreifer eine gefälschte Bankmitteilung, deren vermeintliche Autorität den Adressaten in Sicherheit wiegen und reagieren lassen soll. Klickt der Nutzer auf den Link, wird er aufgefordert, seine Zugangsdaten – Benutzernamen und Passwort – einzugeben, und schon ist es um die Sicherheit geschehen.
  •  Eine weitere, häufig praktizierte Methode des Phishings ist die Verbreitung von Malware durch Viren, Würmer, Bots, Ransomware oder Password Stealer-Malware. Ziel solcher E-Mails ist es, den Adressaten dazu zu bewegen, entweder einen Anhang zu öffnen (wie im Beispiel gezeigt) oder auf einen schadhaften Link zu klicken. Dies wollen Cyberkriminelle erreichen, indem sie eine dringende Angelegenheit vorgeben, die es sofort zu erledigen gilt, und somit Druck aufbauen. Damit die Malware funktioniert, versuchen die Angreifer das Opfer dahingehend zu manipulieren, dass es die Software installiert.
  •  Eigentlich sollte es sich herumgesprochen haben, Anhänge von Unbekannten Absendern oder mit exotisch anmutenden Dateiformatendungen nicht zu öffnen. Damit kalkulieren Cyberkriminelle und minimieren ihr Risiko entdeckt zu werden, mittels Anhängen mit mehreren Dateierweiterungen. Bei dieser Methode versuchen die Angreifer, ihre potenziellen Opfer zu täuschen, indem sie E-Mail-Anhänge mit einem vertrauten Dateityp verschicken. Dahinter lauert dann das Böse.

 Gefährliche Dateien

In diesem realen Versuch verwendeten die Angreifer die Dateierweiterung „PDF.zip“. Hier sollten sofort alle Alarmsirenen schrillen, da es sich um zwei verschiedene Dateitypen handelt. Leider wird die drohende Gefahr aufgrund des allseits bekannten .zip-Dateiformats nur allzu gerne übersehen

  • Nicht alle Bedrohungen kommen in Form von E-Mail-Anhängen daher, ebenso misstrauisch sollten Empfänger sogenannte getarnte Links behandeln. Der Link selbst wirkt erst einmal nicht sonderlich verdächtig. Allerdings ist er nicht das, was er vorgibt zu sein. Dahinter verbirgt sich natürlich eine bösartige URL, die es dann in sich hat. Solche Art Links werden nicht nur zur Verbreitung von Malware verwendet, sondern leiten Nutzer zu Webseiten, die Diebe explizit eingerichtet haben, um Anmeldeinformationen oder andere persönliche Informationen abzugreifen.
  •  Während Phishing gewöhnlich auf Massenreichweite abzielt, nehmen Spear Phishing-Botschaften speziell Einzelpersonen oder einzelne Unternehmen ins Visier. Diese Art des personalisierten Angriffs gibt es in den verschiedensten Varianten, etwa als gefälschte E-Mail von Banken, Bezahl- oder Zustelldiensten und sogar vom eigenen Arbeitgeber. Die Absicht ist stets die gleiche: Die Opfer sollen Geldbeträge überweisen oder sensible Daten an Kriminelle weitergeben, die sich als Chef, Kollege oder vertrauenswürdiger Kunde ausgeben.
  •  In diesem Beispiel haben sich die Kriminellen die Zeit genommen, eine trügerische Domain zu registrieren, die den Namen eines tatsächlich existierenden Unternehmens enthält. Wer jedoch aufmerksam hinschaut, wird den falsch geschriebenen Unternehmensnamen im Link bemerken (Netfliix), und die Alarmglocken sollten läuten. Diese Methode des „Typosquattings“ (engl. squatter = Hausbesetzer, übertragen: Tippfehlerdomain, Domaingrabbing) beruht darauf, dass eine Person die Webadresse versehentlich falsch eintippt und dann auf eine alternative Webseite geführt wird, die dem „Typosquatter“ gehört. Diese Seiten können dann ein Konkurrenzangebot, unpassende Werbung oder sonstige unerwünschte Inhalte enthalten.

Die gezeigten Beispiele sind nur eine kleine Auswahl der vielen Varianten von Phishing-Betrug, die Kriminelle jeden Tag zigtausendfach versenden. Eine E-Mail-Sicherheitslösung, die Sandboxing sowie einen erweiterten Schutz vor Bedrohungen bietet und Malware blockiert– und zwar noch bevor das kriminelle Anschreiben den E-Mail-Server des Unternehmens erreicht, ist ein „Muss“.

Zur Abwehr von E-Mails mit bösartigen Links hilft zudem ein Anti-Phishing-Schutz, der eine Link Protection-Funktion enthält. Diese sucht nach URLs zu Webseiten, die bösartigen Code enthalten, und blockiert Links zu gefährdeten Webseiten, selbst wenn diese sich im Inhalt eines Dokuments verstecken.

Fälschliche Links (Bildquelle: barracuda Networks)

Fälschliche Links (Bildquelle: barracuda Networks)

Ein Tipp: Indem lediglich der Mauszeiger über den Link bewegt wird – ohne diesen anzuklicken – offenbart sich die tatsächliche, kriminelle Absicht dahinter.

Allen erforderlichen Sicherheitstechnologien voran sollte jedoch immer eine fundierte Aufklärung der Mitarbeiter und Mitarbeiterinnen stehen. Diese müssen regelmäßig über aktuelle Gefahren und Phishing-Methoden geschult und anschließend getestet werden, um ihr Sicherheitsbewusstsein für verschiedene gezielte Angriffe zu erhöhen. Das simulierte Angriffstraining ist hier bei Weitem die effektivste Form solcher Schulungen. Funktioniert die menschliche Firewall, ist ein wesentlicher Schritt getan, es Cyberkriminellen – zumindest – deutlich schwerer zu machen.

Autor: Klaus Gheri, Vice President and General Manager Network Security, Barracuda Networks  

 

Der Digitale Nachlass: So geht man damit verantwortungsvoll um

Grabstein_NordfriedhofLaut einer aktuellen Bitkom-Umfrage sagt etwa jeder zweite Social-Media-Nutzer (49 Prozent), dass er sich nicht damit beschäftigen möchte, was nach seinem Tod mit seinen Profilen in den sozialen Netzwerken passiert. Der Branchenverband Bitkom-Hinweise hat daher zum digitalen Nachlass zusammengestellt:

 Persönliche Informationen auf Datenträgern

Wenn im Testament oder in einer Vollmacht nichts anderes geregelt ist, werden die Erben Eigentümer aller Gegenstände des Verstorbenen, also auch des Computers, Smartphones oder lokaler Speichermedien. Damit dürfen sie die dort gespeicherten Daten uneingeschränkt lesen. Deshalb sollte man die Entscheidung, ob die Hinterbliebenen nach dem Tod Einblick in die digitale Privatsphäre haben, zu Lebzeiten treffen.

Ein Notar oder Nachlassverwalter kann unter Umständen entsprechende Dateien oder ganze Datenträger vernichten bzw. konservieren lassen. Neben Hinweisen auf das Erbe können sich in persönlichen Dateien sensible private Informationen befinden, die mancher lieber mit ins Grab nehmen möchte.

Online-Dienste wie E-Mail-Konto oder Cloud-Speicher

Hinterbliebene erben nicht nur Sachwerte, sondern treten auch in die Verträge des Verstorben ein. Gegenüber E-Mail- und Cloud-Anbietern haben sie in der Regel Sonderkündigungsrechte. Bei der Online-Kommunikation gilt aber zugleich das Fernmeldegeheimnis, das auch die Rechte der Kommunikationspartner des Verstorbenen schützt.

In der Praxis gelingt der Zugang zu den Nutzerkonten am besten, wenn der Verstorbene zu Lebzeiten geregelt hat, ob und in welchem Umfang die Erben im Todesfall Zugriff auf die Accounts erhalten. Außerdem kann man die Zugangsdaten für solche Dienste beim Notar hinterlegen. Dabei sollte man aber beachten, dass der Notar zusätzliche Gebühren verlangt, falls sich Angaben wie Benutzername oder Passwort zwischenzeitig ändern.

Profile in sozialen Netzwerken

Hinterbliebene sollten die Betreiber von sozialen Netzwerken benachrichtigen, wenn sie entsprechende Mitgliedschaften des Verstorbenen kennen. Viele Betreiber verlangen die Vorlage einer Sterbeurkunde. Bei Facebook ist es Nutzern möglich, zu Lebzeiten einen Nachlasskontakt zu bestimmen, der das Profilfoto des Verstorbenen ändern oder auf Freundschaftsanfragen reagieren darf.

Eine Anmeldung unter dem Konto des Verstorbenen oder das Lesen von dessen Chats ist aber auch dem Nachlasskontakt nicht möglich. Angehörige können darüber hinaus beantragen, das Profil in einen „Gedenkzustand“ zu versetzen. Die Profilinhalte bleiben dann erhalten und Freunde oder Familienmitglieder können in der Chronik Erinnerungen teilen. Bei beruflichen Netzwerken wie etwa Xing wird das Profil deaktiviert, sobald der Betreiber vom Tod eines Mitglieds erfährt.

 

Maschinen, Menschen, Demagogen – Warum Kommunikation bei digitaler Transformation eine Schlüsselrolle einnimmt

DemagogenWasser ist nass, in Amsterdam fallen gelegentlich Fahrräder um und die Welt wird immer digitaler. Auf den ersten Blick lohnt es die Mühe nicht, der Artikelflut zur digitalen Transformation einen weiteren Strauß an Binsenweisheiten hinzuzufügen. Was technisch machbar ist, ist immer schon gemacht worden – vorausgesetzt, es bringt Gewinn – und die Digitalisierung macht hier keine Ausnahme. Sieht man sich die Gemengelage allerdings nicht wie üblich mit der Lupe, sondern aus dem Hubschrauber an, so wird das Thema wieder erheblich spannender.

Aus dieser Perspektive geht es nicht mehr um die Frage, ob die übernächste Generation von Smartphones bereits implantiert ist, wer für die Parkschäden eines autonom fahrenden Tesla haftet oder wie lange sich Kommunikationsagenturen noch mit dem Layout von gedruckten Broschüren herumschlagen dürfen. Hier geht es vielmehr um die Frage, ob beispielsweise Donald Trump ein Kollateralschäden der Digitalisierung ist, wie eine Gesellschaft aussehen kann, in der Arbeit nur noch für eine Minderheit zur Verfügung steht, und welchen neuen Verantwortungen die Kommunikationsbranche dabei entgegensieht, die bisher noch nicht im Fokus der Diskussion standen.

All he can do for money is drive

Übernimmt man den angelsächsischen Brauch, die Welt in eine Domäne blauer und eine Domäne weißer Kragen zweizuteilen, so schrumpft der Bedarf in der Blaumann-Abteilung schon seit langer Zeit dramatisch.

Bereits 1784 mechanisiert beispielsweise Edmund Cartwright den Webstuhl und stellt damit Heerscharen von Facharbeitern frei. Wenig später konnten auch die beiden armen Kerle entlassen werden, die noch an der Kurbel des Geräts schwitzten, denn diese Aufgabe übernahm eine Dampfmaschine. Nach mehr als zwei Jahrhunderten energischer Innovation spielt manuelle Arbeit in den Industrieländern mittlerweile kaum noch eine Rolle.

Überall dort, wo sich Automatisierung rechnet, ist sie umgesetzt. Was weiterhin besser von Menschen erledigt werden kann, ist in Schwellenländer ausgelagert, in denen die Löhne niedrig und die Arbeitstage lang sind. In der Heimat bleibt geringqualifizierten Arbeitssuchenden wenig mehr als die Option, Lastwagen zu fahren. Genau hieraus, bei den desperaten Verlierern des industriellen Wandels, rekrutiert sich schon heute ein großer Teil der Trump-Fans, Brexit-Befürworter und AfD-Wähler – auch wenn dies natürlich eine polemische Verkürzung ist.

Es kommt allerdings noch schlimmer. Mit dem Übergang von der Roboterisierung des Fließbandes zur intelligenten Digitalisierung ganzer Wertschöpfungsketten nimmt die Transformation weiter Tempo auf. Dass unsere Lastwagen auf dem Weg von A nach B schon sehr bald auf die Chauffeurdienste übergewichtiger Country-Fans verzichten können, ist dabei nur ein Randphänomen.

Viel dramatischer ist, dass eine beinahe menschenleere „Dark Factory“ schon in naher Zukunft ebenso gut in Baden-Württemberg wie in Burkina Faso stehen kann. Die Industrieländer werden wieder als Produktionsstandorte attraktiv. Gut ausgebildete Maschinensteuerer finden sich hier sogar besser. Unvermeidliche Konsequenz bilden Ströme von Flüchtlingen aus Asien und Afrika, deren Ausmaß die Bilder von 2015/16 um ein Vielfaches übertreffen wird.

„Alexa, den Jahresabschluss für 2020 bitte“

Bisher wird das triste Los des Prekariats von den Bewohnern der Teppichetagen noch aus gelassener Distanz betrachtet. Damit wird allerdings bald Schluss sein. Weitgehend unbemerkt kommt die Digitalisierung aus den Startlöchern, um auch in der Domäne der weißen Kragen gründlich aufzuräumen.

Neuronale Netzwerke sind inzwischen so leistungsfähig, dass sie bei einer Vielzahl von Aufgabenstellungen menschlicher Intelligenz nicht nur ebenbürtig, sondern sogar überlegen sind. Längst geht es nicht mehr um dumpfe Rechenleistung, wie etwa bei den Schachcomputern der Vergangenheit, sondern um echtes Lernen, mit dem selbst hochkomplexe, intuitive Aufgaben gemeistert werden.

Die Künstlichen Intelligenzen (KI) entwickeln dabei eine verblüffende, wenn nicht sogar beängstigende Selbstständigkeit. Um herauszufinden, dass wir Zweibeiner Gefallen an Katzenvideos auf YouTube finden, benötigt ein neuronales Netzwerk keine Unterstützung und bastelt sich die Algorithmen zum Erkennen der Tierchen gleich nebenbei mit. Dass so etwas auch nach hinten losgehen kann, lernte Microsoft im Jahr 2016, als sein autonomer Twitter-Chatbot „Tay“ binnen weniger Stunden zum Nazi mutierte und abgeschaltet werden musste.

Die Übernahme der Weltherrschaft durch den Computer steht noch nicht auf der Tagesordnung, selbst wenn kluge Leute wie Stephen Hawking und Elon Musk sich ernsthafte Sorgen in dieser Richtung machen. Doch was unterhalb dieser Schwelle abläuft, ist schon bemerkenswert genug. Mittlerweile gehören KI in Gestalt gehorsamer Assistentinnen fast schon zum Alltag, sei es bei der Navigation im Auto, bei der Suche nach dem passenden Restaurant oder der Thermostateinstellung im smarten Eigenheim.

Dass genau diese dienstbaren Geister derweil unsere Kreditanträge ablehnen und sich um unsere Jobs bewerben, wird gerne übersehen. Dabei liegt es auf der Hand, dass die Bewertung von Kreditrisiken als algorithmusbasierter Vorgang aus der Hand des Sachbearbeiters genommen und einem Computer übertragen wird.

Je schneller Entscheidungen getroffen werden müssen, je größer die zu durchforstenden Datenberge sind, umso unausweichlicher wird der Einsatz von KI, sei es beim Arbitragehandel an den internationalen Börsen oder der Beglückung potentieller Kunden durch individualisierte Werbung. Genau hier beginnt dann auch der Abbau ehemals felsenfest in menschlicher Hand befindlicher Arbeitsplätze.

Vom Versicherungsvertreter über den Bankangestellten bis zum Buchhalter wanken die Bastionen administrativer Jobs, und selbst Rechtsanwälten und Journalisten wird bereits heute die Feder von der KI aus der Hand genommen. Vielleicht ist ja sogar dieses Dossier schon von einer KI geschrieben, merken würde es beim aktuellen Stand der Technik kaum noch jemand. Kein Wunder, dass in einer Studie zu den Digitalisierungsrisiken Service- und Vertriebsmitarbeiter sowie Büroangestellte die größten Segmente auf der Verliererseite ausmachen.

Nach den Arbeitern geraten nun also auch die Angestellten ins Räderwerk der Digitalisierung. Damit aber wird Arbeit endgültig zur Mangelware in der sozialen Realität. Die entscheidende Frage in Literatur und Film lautet daher schon lange nicht mehr, wozu wir Maschinen benötigen, sondern wozu die Maschinen uns noch brauchen (so sie denn je ein Bewusstsein entwickeln …).

Politik jenseits der Arbeitsgesellschaft

Das Problem der digitalen Transformation trifft eine Welt, die ohnehin schon aus den Fugen geraten zu sein scheint. Es bleibt schleierhaft, wie die ökologischen Herausforderungen eines Planeten mit bald acht Milliarden Bewohnern bewältigt werden können. Zudem gelingt es den Staaten in einer zunehmend globalisierten Wirtschaft immer weniger, ihren Anteil der Wertschöpfung in Form von Steuern abzuschöpfen.

Ein Großteil der faktischen Macht hat sich von den demokratisch legitimierten Institutionen in die Hände einer kleinen Elite von Konzernen und Individuen verlagert, die von der Politik nur noch sehr partiell kontrolliert werden. Dieser Bündelung schwer greifbarer Macht entgegengesetzt entwickelt sich die wachsende Komplexität ökonomischer und sozialer Systeme in ausufernden Bürokratien, deren oberste Maxime die Selbsterhaltung ist. Auf beiden Ebenen regieren gleichermaßen die keynesianischen Götter „Geiz“, „Wucher“ und „Misstrauen“ – Eigennutz geht vor Gemeinwohl.

In einem solchen Kontext geht die Einkommensschere fast zwangsläufig immer weiter auf, Produktivitätsgewinne kommen nicht mehr beim Bürger an, sondern landen beim Shareholder oder versickern im Labyrinth bürokratischer Verteilungsnetzwerke. Wird dieses Phänomen durch die Verknappung von Arbeit noch verstärkt, sind die gesellschaftlichen Folgen unabsehbar. Schon jetzt wird die rapide Veränderung der politischen Landschaft entscheidend von dieser Dynamik getrieben.

Die Verlierer des gesellschaftlichen Umbaus befinden sich in Phase eins ihrer Trauerarbeit – „Verleugnung“ – und laufen Rattenfängern nach, welche ihnen die Paradiese der Vergangenheit zurückbringen wollen. Die bislang dominierenden Volksparteien, insbesondere die klassischen Arbeiterparteien, stehen mit ihren Kernpositionen dagegen auf verlorenem Posten. Punkten können sie nur noch, wenn sie sich über ihre extremen Flügel ebenfalls auf populistisches Gelände vorwagen.

Ob dabei nun das konservative Paradies der 1950er-Jahre versprochen wird, wie bei Trump, Farage und Gauland, oder das sozialdemokratische Paradies der 1970er, wie bei Sanders und Corbyn, ist dabei gleich trügerisch. Denn beides ist gleichermaßen romantisch rückwärtsgewandt und zeigt nur, dass Wünschen häufig stärker ist als Denken.

Wirkliche Lösungen setzten vielmehr ein radikales Umdenken in zentralen politischen und gesellschaftlichen Fragen voraus, das vermutlich quer zu allen traditionellen Links-/Rechts-Unterscheidungen verlaufen wird. Jenseits der Arbeitsgesellschaft muss der Begriff der „Arbeit“ völlig neu definiert werden und – vielleicht noch entscheidender – der Begriff der „Arbeitslosigkeit“ entstigmatisiert werden.

Wenn Arbeitssuchende zur Mehrheit werden, ist es keine Option mehr, sie als „Sozialschmarotzer“ zu diffamieren. Logische Konsequenz ist das bedingungslose Grundeinkommen, auch wenn dabei die Zahnbürstenzähler des Sozialamts ebenfalls in die Arbeitslosigkeit rutschen. Achtung, das meint natürlich keine Hauruckverfahren, sondern eine schrittweise Anpassung an sich absehbar verändernde Realitäten.

Parallel muss das Konzept der Steuern, sprich die Beteiligung des Staates an der Wertschöpfung, ebenfalls auf ein neues, für eine globalisierte und digitalisierte Welt taugliches Niveau gehoben werden. Hier mag eine Maschinensteuer den notwendigen Steuerzuwachs für das Grundeinkommen bringen. Es wäre nicht überraschend, wenn genau diese Vorschläge von populistischen Regierungen als erste verwirklicht werden, damit sie nach dem Scheitern ihrer Rückwärtsutopien tatsächlich etwas für ihre Klientel tun können. Ärgerlich nur, dass hier internationale Zusammenarbeit besonders wichtig ist, um nicht weltweiten Fluchtbewegungen von Geld und Produktion Vorschub zu leisten.

Erfolgsfaktor Kommunikation

Die Kommunikationsbranche ist bei der digitalen Transformation natürlich mit im Boot – vielleicht sogar in einer zentraleren Rolle, als ihr bisher bewusst ist. Zunächst einmal ist es eine triviale Notwendigkeit, mit den rasch aufeinanderfolgenden Phasen der Digitalisierung Schritt zu halten. Verkauft und überzeugt wird längst überwiegend online – und dort immer stärker mit dem Fokus auf mobilen Plattformen und Social Media.

Von Prof. Dr. Alexander Güttler, CEO der Unternehmens- und Kommunikationsberatung komm.passion

Von Prof. Dr. Alexander Güttler, CEO der Unternehmens- und Kommunikationsberatung komm.passion

Was auf dem Handy nicht stattfindet, findet oft gar nicht mehr statt. Wer hier noch nicht vollständig angekommen ist, hat reichlich Gelegenheit, sich in geeigneten Seminaren fit zu machen und seine Kapazitäten entsprechend umzubauen. Wichtiger als die Anpassung althergebrachter Strategien an neue Medien ist es allerdings, die neuen Chancen einer grundlegend veränderten Kommunikationslandschaft zu nutzen.

Big Data ermöglicht einen präzisen Blick auf Einstellungen und Verhalten der Zielgruppen und bahnt damit den Weg zu ebenso präzisen Kommunikationsmaßnahmen. Wie erfolgreich diese Strategie ist, zeigt der Siegeszug von Labour bei den letzten Wahlen in Großbritannien, bei denen differenzierte Mailings punktgenau auf die Sorgen und Nöte im jeweiligen Wahlbezirk abgestimmt waren.

Bei der nächsten Einstellungsrunde sollten Agenturen also eher auf ihre IT als auf ihre Personalabteilung hören und eine KI ganz oben auf die Liste setzen. Mit PAS (Pragmatic Analytic Services) kann man heute seine Fans im Internet in jeder Ausprägung kennenlernen und mit entsprechend differenzierten Themen bespielen. Hierzu muss keiner mehr nach Cambridge fahren.

Der digitale Wandel ist aber nicht nur eine „technische“ Herausforderung für professionelle Kommunikatoren – er ist auch eine ihrer wichtigsten inhaltlichen Aufgaben.

Veränderung – und hier vor allem der digital getriebene Change – wird zu einem Dauerthema. Mitarbeitern, die sich gerade ermattet vom letzten Umbauprojekt („Fit for Future 23/d“) zurücklehnen und den Status quo genießen wollen, muss nahegebracht werden, dass der Wandel nie mehr aufhört.

Entsprechend hoch ist der Unterstützungsbedarf bei der schlagkräftigen Kommunikation neuer Unternehmenspositionierung nach außen und der Begleitung von Umbauprozessen in der internen Kommunikation. Gleiches gilt für Kampagnen auf gesellschaftlicher Ebene. Veränderung muss immer bergauf durchgesetzt werden, denn der Mensch ist ein Gewohnheitstier.

Wenn die Inhalte dann auch noch komplex und potentiell bedrohlich sind, ist die Vermittlung eine Aufgabe für Profis. Viel zu oft sind bittere Pillen mit argumentativem Zuckerguss kaschiert oder noch banaler als „alternativlos“ durchgeprügelt worden. Die Quittung ist eine breite Rebellion gegen die Eliten und ihre Rhetorik. Unabhängig von ihrer inhaltlichen Qualität werden daher zukünftig nur noch Ansätze Erfolg haben, die von qualifizierten Kommunikatoren auf einen breitentauglichen Komplexitätsgrad reduziert werden. Und ja, das bedeutet sicher auch Verdichtung, Emotionalisierung und gute Dramaturgien. Vertrauen entsteht nicht rational.

Um ihre Zukunft muss sich die Kommunikationsbranche also keine Sorgen machen. Wer gute Lösungsvorschläge für unsere drängendsten Probleme hat, braucht eine noch bessere Agentur, um sie einer überforderten und widerstrebenden Gesellschaft schmackhaft zu machen. Erheblich mehr Anlass zum Grübeln bietet die Frage, wie weit die Branche der Versuchung nachgeben darf, sich als „Rent a Goebbels“ mit Kampagnen für dubioseste Auftraggeber eine goldene Nase zu verdienen.

Aktuelle Wahlkämpfe und Referenden zeigen, wie schnell eine politikmüde Bevölkerung auf verlockend schlichte Demagogie hereinfällt und wie erfolgreich Meinungssteuerung in der Grauzone von Social Media ist. Kommunikatoren sind zukünftig die Schlüsselfiguren des Wandels. Sie sollten also gründlich darüber nachdenken, ob sie sich vor jeden Karren spannen lassen oder ob sie sich aktiv für ein eigenes Zukunftsmodell demokratischer Gesellschaften einsetzen. Das fordert normative Diskussionen und eine immer wieder neue Ethikdiskussion – gerade in Zeiten, in denen verdeckt agierende Bots oder „Fake News“ nicht immer leicht zu dekuvrieren sind.

Ein wichtiger Treiber dieser Diskussion könnte sicher auch der Deutsche Rat für Public Relations (DRPR) sein. Gut und hilfreich, dass dieser sich in seiner Organisationsstruktur erst kürzlich stärker fokussiert und damit an Handlungsfähigkeit deutlich gewonnen hat. Diskurs kommt auf uns zu – in den Organisationen wie auf gesamtgesellschaftlicher und damit politischer Ebene. Und wie auch die aktuellen politischen Tangram-Spiele zeigen, eines ist Politik sicherlich nicht mehr: langweilig.

 

 

Das lebende Unternehmen: Was die IT vom Menschen lernen kann

img_1345757923DSC_7020Das System Mensch verarbeitet Daten automatisiert und in Echtzeit. Unternehmen können davon lernen und ihren veralteten Datenverarbeitungsprozess fit für Digitalisierung machen.

Der menschliche Körper ist ein bemerkenswerter Organismus. Ohne hier zu tief in Anatomie und Physiologie des Menschen einzutauchen, gibt es zahlreiche Bereiche, in denen sich der Mensch und die Datenverarbeitung eines Unternehmens stark ähneln.

Zwar sind die Systeme des Menschen nicht digital sondern organisch, das Gesamtsystem Mensch funktioniert jedoch ganz ähnlich wie eine Organisation – eine große Anzahl an Informationssystemen laufen parallel und transportieren eine Fülle von Informationen zu jedem Organ. Wenig überraschend, ist der Mensch der IT in Sachen Datenverarbeitung nach vielen Millionen Jahren Evolution um einiges voraus.

Datenverarbeitung in Echtzeit

So funktioniert die Datenverarbeitung des Menschen in den meisten Fällen nicht nur in Echtzeit, sondern auch komplett automatisiert. Hier können Unternehmen ansetzen, um vom Menschen zu lernen und ihre IT in Zeiten der Digitalisierung leistungsfähiger zu machen.

Für CIOs ist die digitale Transformation eine der wichtigsten Prioritäten, um ihre Unternehmen bestmöglich durch eine umfassende datengetriebene Strategie zu unterstützen. Damit dies gelingen kann, müssen Daten und Informationen optimal durch das Unternehmen fließen. Am besten in Echtzeit, wie bei einem Menschen, und komplett wartungsfrei und automatisch. Das ist natürlich einfacher gesagt als getan und Unternehmen haben in der Realität große Schwierigkeiten damit, dem Organismus Mensch in dieser Hinsicht nachzueifern.

Die Datenlage eines Unternehmens ändert sich kontinuierlich

Anders als der Mensch, und anders als Unternehmen vor der Digitalen Revolution, schläft ein modernes Unternehmen nie. Für ein globales Unternehmen ist ohnehin immer irgendwo Tag und selbst wer nicht global präsent ist, bekommt rund um die Uhr Daten von internen oder externen Anwendungen, IoT oder Social Media, ins Rechenzentrum. Diese neu angekommenen Daten sollten möglichst sofort und in Echtzeit bearbeitet werden, damit sie direkt genutzt werden können.

Diese neuen Datenquellen, die rund um die Uhr sprudeln, überfordern jedoch ältere Systeme der Datenverarbeitung, wie etwa die traditionelle Datenanalyse. Diese wurde bisher nur aus regelmäßig oder zyklisch erzeugten Datenquellen erstellt, was auch im Allgemeinen ausreichte, um sehr spezifische, nicht zeitkritische Daten effizient zu verarbeiten, wie etwa die Verarbeitung von Abrechnungen oder das Reporting der monatlichen Einnahmen.

Für Systeme, die hingegen rund um die Uhr laufen und kontinuierlich Daten erzeugen, ist diese traditionelle Datenanalyse natürlich vollkommen ungeeignet. Eine Analyse des Aktienmarktes beispielsweise wäre im Moment der Analyse bereits veraltet. Der Wert solcher Daten, wie IoT-Sensoren oder Finanzdaten, liegt im Wesentlichen in den identifizierten Trends und Anomalien, die möglichst in Echtzeit identifiziert werden müssen, um wertvoll zu sein.

Automatisierung hilft der IT dem Mensch nachzueifern

Genauso wie beim Menschen, laufen in einem Unternehmen eine Vielzahl von Systemen parallel – einige in Echtzeit, einige in Intervallen. Es ist seit jeher eines der Ziele jeder IT, Informationen aus einer Vielzahl von Datenquellen in einer einzigen Infrastruktur automatisch zusammenzuführen, sie dort aufzubereiten und den Anwendern zur Verfügung zu stellen. Diese Aufgabe war schon immer eine große Herausforderung, die durch die steigende Digitalisierung stetig komplexer geworden ist.

Die Anzahl der Systeme und Anwendungen steigt seit langem ständig und mit ihnen wächst das zu verarbeitende und zu speichernde Datenvolumen. Damit wird auch die manuelle Verarbeitung und Bereitstellung dieser Daten immer komplexer und zeitaufwändiger und bringt die IT unter Zugzwang diese Prozesse zu vereinfachen und zu automatisiere, um ihrer eigentlichen Aufgabe gerecht zu werden.

Um Daten wie der Mensch automatisch und in Echtzeit verarbeiten zu können, kommt der Unternehmens-IT die Automatisierung zu Hilfe, der eine Schlüsselrolle bei der fortschreitenden Digitalisierung zufällt. Erst durch umfangreiche Automatisierung kann der Zeitaufwand und das Verständnis für die nötigen Prozesse deutlich verringert werden.

Die Vorteile eines automatisierten Unternehmens

Gelingt es der IT die Vielzahl paralleler Systeme und die damit steigende Datenmenge automatisiert und in Echtzeit zu verarbeiten, kommt sie dem Vorbild Mensch nahe. Die Vorteile eines autonom Daten atmenden und Informationen pumpenden Unternehmens zeigen sich fortan in jeder Geschäftszelle des Unternehmens: In kundennahen Bereichen kann in Echtzeit auf Trends und Situationen reagiert werden, zum Beispiel auf aktuelle Trends von Aktienwerten oder auf Marktinformationen.

Trotz viel Rechenleistung ist die vollkommen künstliche Intelligenz noch Science Fiction. Maschinelles Lernen hingegen wird bereits in vielen Bereichen eingesetzt, um die Berge an Daten effizient zu bearbeiten. Mathematische Algorithmen können hier eingesetzt werden, um aus den Datenströmen zu lernen und Erkenntnisse zu generieren.

Für jeden CEO ist vollkommen klar: wenn sein Unternehmen Daten schnell und in Echtzeit bearbeiten und diese dank maschinellem Lernen sogar gleich direkt interpretieren kann, wäre das ein riesiger Vorteil gegenüber allen Wettbewerbern. Man ist immer einen Schritt voraus, kann jederzeit auf aktuellen Daten basierende Entscheidungen treffen und kann den Kunden beweisen, dass man am sprichwörtlichen Puls der Zeit ist. Diese Vorteile und Chancen aus der Analyse aktueller Daten in Echtzeit sind zu wichtig, um sie zu ignorieren.

Unternehmen brauchen Lösungen zur automatisierten Datenverarbeitung

Praktisch jedes Unternehmen ist derzeit im fortlaufenden Prozess der Digitalisierung. Ein wichtiger Teil davon, den es derzeit zu meistern gilt, ist die Herausforderung Daten aus einer Vielzahl hybrider Datenquellen verarbeiten zu können. Die Automatisierung hat hier bereits Erfolge bei der Stapelverarbeitung von Batch-basierten Daten erzielt. Jetzt gilt es für Unternehmen – und ihre IT – den gleichen Ansatz bei Datenströmen in Echtzeit anzuwenden. Damit dies gelingt, müssen sich Unternehmen genau überlegen, wie sie ihr internes Know-how am besten mit neuen Lösungen zur automatisierten Datenverarbeitung kombinieren können.

Der menschliche Körper ist ein in vieler Hinsicht weit entwickeltes System, das einer modernen IT ähnelt und Daten aus einer Vielzahl an Quellen automatisch und in Echtzeit verarbeitet. Um im Rahmen der Digitalisierung nicht ins Hintertreffen zu geraten, müssen Unternehmen dem Menschen nacheifern und Systeme zur automatisierten Datenverarbeitung kontinuierlicher Datenströme implementieren.

Marc Budzinski ist CEO bei WhereScape.

Marc Budzinski ist CEO bei WhereScape.

Autor: Marc Budzinski ist CEO bei WhereScape. WhereScape ist Pionier der Automatisierung von Data Warehouses und hilft IT-Unternehmen aller Größenordnungen die Automatisierung zu nutzen, um Dateninfrastrukturen schneller zu entwerfen, zu entwickeln, zu implementieren und zu betreiben.  www.wherescape.com

 

Ransomware der Dinge: Das IoT-Gerät als Geisel

swirl-optical-illusion-300x203Die weltweite Vernetzung schreitet kontinuierlich voran, allerdings schaffen die wechselseitigen Abhängigkeiten des digitalen Zeitalters auch eine neue Angriffsfläche für Cyberkriminelle. Leider verzeichneten die letzten Jahre unrühmliche Meilensteile in der Entwicklungsgeschichte des Internet of Things: So war Ende 2016 das erste Mal ein groß angelegter Cyber-Angriff in Form der Mirai Malware erfolgreich, der hunderttausende IoT-Geräte wie Router, Kameras, Drucker und Smart-TVs für den Aufbau eines Botnets nutzte.

Dieses sorgte weltweit für DDoS-Attacken, unter anderem auf Unternehmen wie Twitter, Amazon oder die Deutsche Telekom. Wie groß die Sicherheitslücken im IoT sind, wurde auch auf der Def Con Hacking Conference in Las Vegas gezeigt, indem Sicherheitsforscher vorführten, wie ein IoT-fähiges Thermostat mit einem gezielten Ransomware-Angriff gehackt und gesperrt werden kann.

Zunächst ist es wichtig, zwischen traditioneller Ransomware, die in der Regel auf PCs und Server abzielt, und Attacken auf IoT-Geräte zu unterscheiden. Klassische Ransomware infiziert den Zielcomputer und verschlüsselt die darauf befindlichen Daten, um für deren Entschlüsselung anschließend ein Lösegeld zu erpressen.

Zwar ist es hier möglich, mit einer Datensicherung die betroffenen Daten wiederherzustellen, doch aufgrund mangelhafter Backups sehen sich einige Opfer gezwungen, der Lösegeldforderung nachzugeben. So bleibt diese Methode für Angreifer weiterhin ein profitables Geschäft, wie auch die massiven Ransomware-Wellen von WannaCry und Petya eindrucksvoll unter Beweis gestellt haben. Mit dem geringen Sicherheitsniveau von IoT-Geräten ist daher in den kommenden Jahren auch mit darauf zugeschnittenen Ransomware-Angriffen zu rechnen.

Ziel der IoT-Ransomware: Geiselnahme des Geräts

Datendiebstahl lohnt sich bei IoT-Geräten nicht. Auf ihnen befinden sich in der Regel kaum beziehungsweise keinerlei sensible Daten. Die Strategie der Angreifer konzentriert sich daher darauf, den Nutzerzugriff auf das Gerät zu sperren und das Endgerät sozusagen in Geiselhaft zu nehmen.

Auf den ersten Blick mag dies eher wie eine Unannehmlichkeit erscheinen. Doch bereits ein relativ harmloses Beispiel wie der Hack auf das Computersystem eines Vier-Sterne-Hotels in Kärnten, der 2017 Schlagzeilen machte, zeigt, welche weitreichenden Konsequenzen ein derartiger Angriff nach sich ziehen kann: Kriminelle manipulierten das Schließsystem der Zimmer, infolgedessen sie für die Gäste nicht mehr betretbar waren.

Gleich dreimal in Folge führten die Angreifer erfolgreich diese Attacke gegen Forderung eines Lösegelds aus. Gleiches gilt für den Def Con-Hack des gesperrten Thermostats: Überträgt man dieses Beispiel auf Thermostate zur Steuerung von Kühlaggregaten in einem Lebensmittellager oder auf eine Rechenzentrumsklimaanlage, wird die neue Bedrohungslage von IoT-Ransomware deutlich.

Die zweifelhafte Sicherheitshistorie des Internet of Things

Leider ist eine Vielzahl der derzeit in Betrieb befindlichen IoT-Geräte extrem anfällig für IoT-Ransomware-Angriffe, denn im Zuge der IoT-Popularitätswelle haben viele Hersteller in den letzten Jahren Millionen von IoT-Geräten so schnell wie möglich entwickelt und verkauft, wobei die Gerätesicherheit auf der Strecke blieb. Infolgedessen verfügen die meisten IoT-Geräte heutzutage über Standardberechtigungen, verwenden unsichere Konfigurationen und Protokolle und sind notorisch schwer zu aktualisieren, was sie überaus anfällig für Kompromittierungsversuche und damit zu einem lukrativen Ziel für Cyberkriminelle macht.

Erschwerend kommt hinzu, dass das Auftreten von Low-Level-Protocol-Hacks wie KRACK (Key Reinstallation Attack) Angreifern neue Möglichkeiten bietet, die IoT-Infrastruktur zu umgehen und Geräte durch die Einspeisung eines anderen Codes zu manipulieren. Dies hat besonders schwerwiegende Folgen, wenn die Geräte Steuerbefehle von einer Cloud-Anwendung synchronisieren oder empfangen müssen.

 Drei Punkte zur Bewertung der IoT-Gerätesicherheit

Um sichere Betriebsabläufe gewährleisten zu können, ist beim Einsatz von IoT-Geräten eine umfassende Bewertung der Gerätesicherheit aus verschiedenen Blickwinkeln unabdingbar. Die Evaluierung sollte stets die folgenden drei Bereiche abdecken:

Hardware: Die physische Sicherheit sollte bei der Bewertung eines neuen Geräts immer eine wichtige Rolle spielen. Mit physischen Schaltern kann das Gerät manipulationssicher gemacht werden, indem dafür gesorgt wird, dass einzelne Gerätekomponenten nicht ohne Erlaubnis angesprochen und dekodiert werden können. Beispielsweise können mit einer Stummschalttaste Mikrofone und Audioempfänger sämtlicher Geräte deaktiviert werden.

  • Software: Auch bei IoT-Geräten gilt: Die Software sollte stets auf dem neuesten Stand sein. Bei der Auswahl eines Geräteherstellers muss daher darauf geachtet werden, dass dieser seine Software regelmäßig aktualisiert und patcht.
  • Netzwerk: Der Datenaustausch zwischen IoT-Geräten, Backend-Management- oder Speicherlösungen sollte ausschließlich über sichere Webprotokolle wie HTTPS erfolgen und der Zugriff ausschließlich über mehrstufige Authentifizierungsmethoden. Darüber hinaus ist darauf zu achten, dass alle standardmäßigen Anmeldeinformationen, die mit dem Gerät mitgeliefert wurden, umgehend in starke alphanumerische Zeichenfolgen abgeändert werden.

Die Umsetzung dieser grundlegenden Sicherheitsprinzipien trägt wesentlich dazu bei, sich gegen viele der aufkommenden Bedrohungen wie die neue Art von IoT-Ransomware-Angriffen zu verteidigen. Wenn die IoT-Welt jedoch wirklich sicher werden soll, ist es an der Zeit, sie wie jedes andere IT-System zu behandeln und sicherzustellen, dass ihr Schutz ebenso robust, effektiv und zukunftssicher ist.

Autor: Christoph M. Kumpa ist Director DACH & EE bei Digital Guardian. Digital Guardian bietet eine bedrohungserkennende Datensicherungsplattform, die speziell entwickelt wurde, um Datendiebstahl sowohl durch interne als auch durch externe Angriffe zu verhindern. Die Digital Guardian-Plattform kann für das gesamte Unternehmensnetzwerk, traditionelle und mobile Endgeräte sowie Cloudanwendungen eingesetzt werden.