Category Archives: Topstory

Der Digitale Nachlass: So geht man damit verantwortungsvoll um

Grabstein_NordfriedhofLaut einer aktuellen Bitkom-Umfrage sagt etwa jeder zweite Social-Media-Nutzer (49 Prozent), dass er sich nicht damit beschäftigen möchte, was nach seinem Tod mit seinen Profilen in den sozialen Netzwerken passiert. Der Branchenverband Bitkom-Hinweise hat daher zum digitalen Nachlass zusammengestellt:

 Persönliche Informationen auf Datenträgern

Wenn im Testament oder in einer Vollmacht nichts anderes geregelt ist, werden die Erben Eigentümer aller Gegenstände des Verstorbenen, also auch des Computers, Smartphones oder lokaler Speichermedien. Damit dürfen sie die dort gespeicherten Daten uneingeschränkt lesen. Deshalb sollte man die Entscheidung, ob die Hinterbliebenen nach dem Tod Einblick in die digitale Privatsphäre haben, zu Lebzeiten treffen.

Ein Notar oder Nachlassverwalter kann unter Umständen entsprechende Dateien oder ganze Datenträger vernichten bzw. konservieren lassen. Neben Hinweisen auf das Erbe können sich in persönlichen Dateien sensible private Informationen befinden, die mancher lieber mit ins Grab nehmen möchte.

Online-Dienste wie E-Mail-Konto oder Cloud-Speicher

Hinterbliebene erben nicht nur Sachwerte, sondern treten auch in die Verträge des Verstorben ein. Gegenüber E-Mail- und Cloud-Anbietern haben sie in der Regel Sonderkündigungsrechte. Bei der Online-Kommunikation gilt aber zugleich das Fernmeldegeheimnis, das auch die Rechte der Kommunikationspartner des Verstorbenen schützt.

In der Praxis gelingt der Zugang zu den Nutzerkonten am besten, wenn der Verstorbene zu Lebzeiten geregelt hat, ob und in welchem Umfang die Erben im Todesfall Zugriff auf die Accounts erhalten. Außerdem kann man die Zugangsdaten für solche Dienste beim Notar hinterlegen. Dabei sollte man aber beachten, dass der Notar zusätzliche Gebühren verlangt, falls sich Angaben wie Benutzername oder Passwort zwischenzeitig ändern.

Profile in sozialen Netzwerken

Hinterbliebene sollten die Betreiber von sozialen Netzwerken benachrichtigen, wenn sie entsprechende Mitgliedschaften des Verstorbenen kennen. Viele Betreiber verlangen die Vorlage einer Sterbeurkunde. Bei Facebook ist es Nutzern möglich, zu Lebzeiten einen Nachlasskontakt zu bestimmen, der das Profilfoto des Verstorbenen ändern oder auf Freundschaftsanfragen reagieren darf.

Eine Anmeldung unter dem Konto des Verstorbenen oder das Lesen von dessen Chats ist aber auch dem Nachlasskontakt nicht möglich. Angehörige können darüber hinaus beantragen, das Profil in einen „Gedenkzustand“ zu versetzen. Die Profilinhalte bleiben dann erhalten und Freunde oder Familienmitglieder können in der Chronik Erinnerungen teilen. Bei beruflichen Netzwerken wie etwa Xing wird das Profil deaktiviert, sobald der Betreiber vom Tod eines Mitglieds erfährt.

 

Maschinen, Menschen, Demagogen – Warum Kommunikation bei digitaler Transformation eine Schlüsselrolle einnimmt

DemagogenWasser ist nass, in Amsterdam fallen gelegentlich Fahrräder um und die Welt wird immer digitaler. Auf den ersten Blick lohnt es die Mühe nicht, der Artikelflut zur digitalen Transformation einen weiteren Strauß an Binsenweisheiten hinzuzufügen. Was technisch machbar ist, ist immer schon gemacht worden – vorausgesetzt, es bringt Gewinn – und die Digitalisierung macht hier keine Ausnahme. Sieht man sich die Gemengelage allerdings nicht wie üblich mit der Lupe, sondern aus dem Hubschrauber an, so wird das Thema wieder erheblich spannender.

Aus dieser Perspektive geht es nicht mehr um die Frage, ob die übernächste Generation von Smartphones bereits implantiert ist, wer für die Parkschäden eines autonom fahrenden Tesla haftet oder wie lange sich Kommunikationsagenturen noch mit dem Layout von gedruckten Broschüren herumschlagen dürfen. Hier geht es vielmehr um die Frage, ob beispielsweise Donald Trump ein Kollateralschäden der Digitalisierung ist, wie eine Gesellschaft aussehen kann, in der Arbeit nur noch für eine Minderheit zur Verfügung steht, und welchen neuen Verantwortungen die Kommunikationsbranche dabei entgegensieht, die bisher noch nicht im Fokus der Diskussion standen.

All he can do for money is drive

Übernimmt man den angelsächsischen Brauch, die Welt in eine Domäne blauer und eine Domäne weißer Kragen zweizuteilen, so schrumpft der Bedarf in der Blaumann-Abteilung schon seit langer Zeit dramatisch.

Bereits 1784 mechanisiert beispielsweise Edmund Cartwright den Webstuhl und stellt damit Heerscharen von Facharbeitern frei. Wenig später konnten auch die beiden armen Kerle entlassen werden, die noch an der Kurbel des Geräts schwitzten, denn diese Aufgabe übernahm eine Dampfmaschine. Nach mehr als zwei Jahrhunderten energischer Innovation spielt manuelle Arbeit in den Industrieländern mittlerweile kaum noch eine Rolle.

Überall dort, wo sich Automatisierung rechnet, ist sie umgesetzt. Was weiterhin besser von Menschen erledigt werden kann, ist in Schwellenländer ausgelagert, in denen die Löhne niedrig und die Arbeitstage lang sind. In der Heimat bleibt geringqualifizierten Arbeitssuchenden wenig mehr als die Option, Lastwagen zu fahren. Genau hieraus, bei den desperaten Verlierern des industriellen Wandels, rekrutiert sich schon heute ein großer Teil der Trump-Fans, Brexit-Befürworter und AfD-Wähler – auch wenn dies natürlich eine polemische Verkürzung ist.

Es kommt allerdings noch schlimmer. Mit dem Übergang von der Roboterisierung des Fließbandes zur intelligenten Digitalisierung ganzer Wertschöpfungsketten nimmt die Transformation weiter Tempo auf. Dass unsere Lastwagen auf dem Weg von A nach B schon sehr bald auf die Chauffeurdienste übergewichtiger Country-Fans verzichten können, ist dabei nur ein Randphänomen.

Viel dramatischer ist, dass eine beinahe menschenleere „Dark Factory“ schon in naher Zukunft ebenso gut in Baden-Württemberg wie in Burkina Faso stehen kann. Die Industrieländer werden wieder als Produktionsstandorte attraktiv. Gut ausgebildete Maschinensteuerer finden sich hier sogar besser. Unvermeidliche Konsequenz bilden Ströme von Flüchtlingen aus Asien und Afrika, deren Ausmaß die Bilder von 2015/16 um ein Vielfaches übertreffen wird.

„Alexa, den Jahresabschluss für 2020 bitte“

Bisher wird das triste Los des Prekariats von den Bewohnern der Teppichetagen noch aus gelassener Distanz betrachtet. Damit wird allerdings bald Schluss sein. Weitgehend unbemerkt kommt die Digitalisierung aus den Startlöchern, um auch in der Domäne der weißen Kragen gründlich aufzuräumen.

Neuronale Netzwerke sind inzwischen so leistungsfähig, dass sie bei einer Vielzahl von Aufgabenstellungen menschlicher Intelligenz nicht nur ebenbürtig, sondern sogar überlegen sind. Längst geht es nicht mehr um dumpfe Rechenleistung, wie etwa bei den Schachcomputern der Vergangenheit, sondern um echtes Lernen, mit dem selbst hochkomplexe, intuitive Aufgaben gemeistert werden.

Die Künstlichen Intelligenzen (KI) entwickeln dabei eine verblüffende, wenn nicht sogar beängstigende Selbstständigkeit. Um herauszufinden, dass wir Zweibeiner Gefallen an Katzenvideos auf YouTube finden, benötigt ein neuronales Netzwerk keine Unterstützung und bastelt sich die Algorithmen zum Erkennen der Tierchen gleich nebenbei mit. Dass so etwas auch nach hinten losgehen kann, lernte Microsoft im Jahr 2016, als sein autonomer Twitter-Chatbot „Tay“ binnen weniger Stunden zum Nazi mutierte und abgeschaltet werden musste.

Die Übernahme der Weltherrschaft durch den Computer steht noch nicht auf der Tagesordnung, selbst wenn kluge Leute wie Stephen Hawking und Elon Musk sich ernsthafte Sorgen in dieser Richtung machen. Doch was unterhalb dieser Schwelle abläuft, ist schon bemerkenswert genug. Mittlerweile gehören KI in Gestalt gehorsamer Assistentinnen fast schon zum Alltag, sei es bei der Navigation im Auto, bei der Suche nach dem passenden Restaurant oder der Thermostateinstellung im smarten Eigenheim.

Dass genau diese dienstbaren Geister derweil unsere Kreditanträge ablehnen und sich um unsere Jobs bewerben, wird gerne übersehen. Dabei liegt es auf der Hand, dass die Bewertung von Kreditrisiken als algorithmusbasierter Vorgang aus der Hand des Sachbearbeiters genommen und einem Computer übertragen wird.

Je schneller Entscheidungen getroffen werden müssen, je größer die zu durchforstenden Datenberge sind, umso unausweichlicher wird der Einsatz von KI, sei es beim Arbitragehandel an den internationalen Börsen oder der Beglückung potentieller Kunden durch individualisierte Werbung. Genau hier beginnt dann auch der Abbau ehemals felsenfest in menschlicher Hand befindlicher Arbeitsplätze.

Vom Versicherungsvertreter über den Bankangestellten bis zum Buchhalter wanken die Bastionen administrativer Jobs, und selbst Rechtsanwälten und Journalisten wird bereits heute die Feder von der KI aus der Hand genommen. Vielleicht ist ja sogar dieses Dossier schon von einer KI geschrieben, merken würde es beim aktuellen Stand der Technik kaum noch jemand. Kein Wunder, dass in einer Studie zu den Digitalisierungsrisiken Service- und Vertriebsmitarbeiter sowie Büroangestellte die größten Segmente auf der Verliererseite ausmachen.

Nach den Arbeitern geraten nun also auch die Angestellten ins Räderwerk der Digitalisierung. Damit aber wird Arbeit endgültig zur Mangelware in der sozialen Realität. Die entscheidende Frage in Literatur und Film lautet daher schon lange nicht mehr, wozu wir Maschinen benötigen, sondern wozu die Maschinen uns noch brauchen (so sie denn je ein Bewusstsein entwickeln …).

Politik jenseits der Arbeitsgesellschaft

Das Problem der digitalen Transformation trifft eine Welt, die ohnehin schon aus den Fugen geraten zu sein scheint. Es bleibt schleierhaft, wie die ökologischen Herausforderungen eines Planeten mit bald acht Milliarden Bewohnern bewältigt werden können. Zudem gelingt es den Staaten in einer zunehmend globalisierten Wirtschaft immer weniger, ihren Anteil der Wertschöpfung in Form von Steuern abzuschöpfen.

Ein Großteil der faktischen Macht hat sich von den demokratisch legitimierten Institutionen in die Hände einer kleinen Elite von Konzernen und Individuen verlagert, die von der Politik nur noch sehr partiell kontrolliert werden. Dieser Bündelung schwer greifbarer Macht entgegengesetzt entwickelt sich die wachsende Komplexität ökonomischer und sozialer Systeme in ausufernden Bürokratien, deren oberste Maxime die Selbsterhaltung ist. Auf beiden Ebenen regieren gleichermaßen die keynesianischen Götter „Geiz“, „Wucher“ und „Misstrauen“ – Eigennutz geht vor Gemeinwohl.

In einem solchen Kontext geht die Einkommensschere fast zwangsläufig immer weiter auf, Produktivitätsgewinne kommen nicht mehr beim Bürger an, sondern landen beim Shareholder oder versickern im Labyrinth bürokratischer Verteilungsnetzwerke. Wird dieses Phänomen durch die Verknappung von Arbeit noch verstärkt, sind die gesellschaftlichen Folgen unabsehbar. Schon jetzt wird die rapide Veränderung der politischen Landschaft entscheidend von dieser Dynamik getrieben.

Die Verlierer des gesellschaftlichen Umbaus befinden sich in Phase eins ihrer Trauerarbeit – „Verleugnung“ – und laufen Rattenfängern nach, welche ihnen die Paradiese der Vergangenheit zurückbringen wollen. Die bislang dominierenden Volksparteien, insbesondere die klassischen Arbeiterparteien, stehen mit ihren Kernpositionen dagegen auf verlorenem Posten. Punkten können sie nur noch, wenn sie sich über ihre extremen Flügel ebenfalls auf populistisches Gelände vorwagen.

Ob dabei nun das konservative Paradies der 1950er-Jahre versprochen wird, wie bei Trump, Farage und Gauland, oder das sozialdemokratische Paradies der 1970er, wie bei Sanders und Corbyn, ist dabei gleich trügerisch. Denn beides ist gleichermaßen romantisch rückwärtsgewandt und zeigt nur, dass Wünschen häufig stärker ist als Denken.

Wirkliche Lösungen setzten vielmehr ein radikales Umdenken in zentralen politischen und gesellschaftlichen Fragen voraus, das vermutlich quer zu allen traditionellen Links-/Rechts-Unterscheidungen verlaufen wird. Jenseits der Arbeitsgesellschaft muss der Begriff der „Arbeit“ völlig neu definiert werden und – vielleicht noch entscheidender – der Begriff der „Arbeitslosigkeit“ entstigmatisiert werden.

Wenn Arbeitssuchende zur Mehrheit werden, ist es keine Option mehr, sie als „Sozialschmarotzer“ zu diffamieren. Logische Konsequenz ist das bedingungslose Grundeinkommen, auch wenn dabei die Zahnbürstenzähler des Sozialamts ebenfalls in die Arbeitslosigkeit rutschen. Achtung, das meint natürlich keine Hauruckverfahren, sondern eine schrittweise Anpassung an sich absehbar verändernde Realitäten.

Parallel muss das Konzept der Steuern, sprich die Beteiligung des Staates an der Wertschöpfung, ebenfalls auf ein neues, für eine globalisierte und digitalisierte Welt taugliches Niveau gehoben werden. Hier mag eine Maschinensteuer den notwendigen Steuerzuwachs für das Grundeinkommen bringen. Es wäre nicht überraschend, wenn genau diese Vorschläge von populistischen Regierungen als erste verwirklicht werden, damit sie nach dem Scheitern ihrer Rückwärtsutopien tatsächlich etwas für ihre Klientel tun können. Ärgerlich nur, dass hier internationale Zusammenarbeit besonders wichtig ist, um nicht weltweiten Fluchtbewegungen von Geld und Produktion Vorschub zu leisten.

Erfolgsfaktor Kommunikation

Die Kommunikationsbranche ist bei der digitalen Transformation natürlich mit im Boot – vielleicht sogar in einer zentraleren Rolle, als ihr bisher bewusst ist. Zunächst einmal ist es eine triviale Notwendigkeit, mit den rasch aufeinanderfolgenden Phasen der Digitalisierung Schritt zu halten. Verkauft und überzeugt wird längst überwiegend online – und dort immer stärker mit dem Fokus auf mobilen Plattformen und Social Media.

Von Prof. Dr. Alexander Güttler, CEO der Unternehmens- und Kommunikationsberatung komm.passion

Von Prof. Dr. Alexander Güttler, CEO der Unternehmens- und Kommunikationsberatung komm.passion

Was auf dem Handy nicht stattfindet, findet oft gar nicht mehr statt. Wer hier noch nicht vollständig angekommen ist, hat reichlich Gelegenheit, sich in geeigneten Seminaren fit zu machen und seine Kapazitäten entsprechend umzubauen. Wichtiger als die Anpassung althergebrachter Strategien an neue Medien ist es allerdings, die neuen Chancen einer grundlegend veränderten Kommunikationslandschaft zu nutzen.

Big Data ermöglicht einen präzisen Blick auf Einstellungen und Verhalten der Zielgruppen und bahnt damit den Weg zu ebenso präzisen Kommunikationsmaßnahmen. Wie erfolgreich diese Strategie ist, zeigt der Siegeszug von Labour bei den letzten Wahlen in Großbritannien, bei denen differenzierte Mailings punktgenau auf die Sorgen und Nöte im jeweiligen Wahlbezirk abgestimmt waren.

Bei der nächsten Einstellungsrunde sollten Agenturen also eher auf ihre IT als auf ihre Personalabteilung hören und eine KI ganz oben auf die Liste setzen. Mit PAS (Pragmatic Analytic Services) kann man heute seine Fans im Internet in jeder Ausprägung kennenlernen und mit entsprechend differenzierten Themen bespielen. Hierzu muss keiner mehr nach Cambridge fahren.

Der digitale Wandel ist aber nicht nur eine „technische“ Herausforderung für professionelle Kommunikatoren – er ist auch eine ihrer wichtigsten inhaltlichen Aufgaben.

Veränderung – und hier vor allem der digital getriebene Change – wird zu einem Dauerthema. Mitarbeitern, die sich gerade ermattet vom letzten Umbauprojekt („Fit for Future 23/d“) zurücklehnen und den Status quo genießen wollen, muss nahegebracht werden, dass der Wandel nie mehr aufhört.

Entsprechend hoch ist der Unterstützungsbedarf bei der schlagkräftigen Kommunikation neuer Unternehmenspositionierung nach außen und der Begleitung von Umbauprozessen in der internen Kommunikation. Gleiches gilt für Kampagnen auf gesellschaftlicher Ebene. Veränderung muss immer bergauf durchgesetzt werden, denn der Mensch ist ein Gewohnheitstier.

Wenn die Inhalte dann auch noch komplex und potentiell bedrohlich sind, ist die Vermittlung eine Aufgabe für Profis. Viel zu oft sind bittere Pillen mit argumentativem Zuckerguss kaschiert oder noch banaler als „alternativlos“ durchgeprügelt worden. Die Quittung ist eine breite Rebellion gegen die Eliten und ihre Rhetorik. Unabhängig von ihrer inhaltlichen Qualität werden daher zukünftig nur noch Ansätze Erfolg haben, die von qualifizierten Kommunikatoren auf einen breitentauglichen Komplexitätsgrad reduziert werden. Und ja, das bedeutet sicher auch Verdichtung, Emotionalisierung und gute Dramaturgien. Vertrauen entsteht nicht rational.

Um ihre Zukunft muss sich die Kommunikationsbranche also keine Sorgen machen. Wer gute Lösungsvorschläge für unsere drängendsten Probleme hat, braucht eine noch bessere Agentur, um sie einer überforderten und widerstrebenden Gesellschaft schmackhaft zu machen. Erheblich mehr Anlass zum Grübeln bietet die Frage, wie weit die Branche der Versuchung nachgeben darf, sich als „Rent a Goebbels“ mit Kampagnen für dubioseste Auftraggeber eine goldene Nase zu verdienen.

Aktuelle Wahlkämpfe und Referenden zeigen, wie schnell eine politikmüde Bevölkerung auf verlockend schlichte Demagogie hereinfällt und wie erfolgreich Meinungssteuerung in der Grauzone von Social Media ist. Kommunikatoren sind zukünftig die Schlüsselfiguren des Wandels. Sie sollten also gründlich darüber nachdenken, ob sie sich vor jeden Karren spannen lassen oder ob sie sich aktiv für ein eigenes Zukunftsmodell demokratischer Gesellschaften einsetzen. Das fordert normative Diskussionen und eine immer wieder neue Ethikdiskussion – gerade in Zeiten, in denen verdeckt agierende Bots oder „Fake News“ nicht immer leicht zu dekuvrieren sind.

Ein wichtiger Treiber dieser Diskussion könnte sicher auch der Deutsche Rat für Public Relations (DRPR) sein. Gut und hilfreich, dass dieser sich in seiner Organisationsstruktur erst kürzlich stärker fokussiert und damit an Handlungsfähigkeit deutlich gewonnen hat. Diskurs kommt auf uns zu – in den Organisationen wie auf gesamtgesellschaftlicher und damit politischer Ebene. Und wie auch die aktuellen politischen Tangram-Spiele zeigen, eines ist Politik sicherlich nicht mehr: langweilig.

 

 

Das lebende Unternehmen: Was die IT vom Menschen lernen kann

img_1345757923DSC_7020Das System Mensch verarbeitet Daten automatisiert und in Echtzeit. Unternehmen können davon lernen und ihren veralteten Datenverarbeitungsprozess fit für Digitalisierung machen.

Der menschliche Körper ist ein bemerkenswerter Organismus. Ohne hier zu tief in Anatomie und Physiologie des Menschen einzutauchen, gibt es zahlreiche Bereiche, in denen sich der Mensch und die Datenverarbeitung eines Unternehmens stark ähneln.

Zwar sind die Systeme des Menschen nicht digital sondern organisch, das Gesamtsystem Mensch funktioniert jedoch ganz ähnlich wie eine Organisation – eine große Anzahl an Informationssystemen laufen parallel und transportieren eine Fülle von Informationen zu jedem Organ. Wenig überraschend, ist der Mensch der IT in Sachen Datenverarbeitung nach vielen Millionen Jahren Evolution um einiges voraus.

Datenverarbeitung in Echtzeit

So funktioniert die Datenverarbeitung des Menschen in den meisten Fällen nicht nur in Echtzeit, sondern auch komplett automatisiert. Hier können Unternehmen ansetzen, um vom Menschen zu lernen und ihre IT in Zeiten der Digitalisierung leistungsfähiger zu machen.

Für CIOs ist die digitale Transformation eine der wichtigsten Prioritäten, um ihre Unternehmen bestmöglich durch eine umfassende datengetriebene Strategie zu unterstützen. Damit dies gelingen kann, müssen Daten und Informationen optimal durch das Unternehmen fließen. Am besten in Echtzeit, wie bei einem Menschen, und komplett wartungsfrei und automatisch. Das ist natürlich einfacher gesagt als getan und Unternehmen haben in der Realität große Schwierigkeiten damit, dem Organismus Mensch in dieser Hinsicht nachzueifern.

Die Datenlage eines Unternehmens ändert sich kontinuierlich

Anders als der Mensch, und anders als Unternehmen vor der Digitalen Revolution, schläft ein modernes Unternehmen nie. Für ein globales Unternehmen ist ohnehin immer irgendwo Tag und selbst wer nicht global präsent ist, bekommt rund um die Uhr Daten von internen oder externen Anwendungen, IoT oder Social Media, ins Rechenzentrum. Diese neu angekommenen Daten sollten möglichst sofort und in Echtzeit bearbeitet werden, damit sie direkt genutzt werden können.

Diese neuen Datenquellen, die rund um die Uhr sprudeln, überfordern jedoch ältere Systeme der Datenverarbeitung, wie etwa die traditionelle Datenanalyse. Diese wurde bisher nur aus regelmäßig oder zyklisch erzeugten Datenquellen erstellt, was auch im Allgemeinen ausreichte, um sehr spezifische, nicht zeitkritische Daten effizient zu verarbeiten, wie etwa die Verarbeitung von Abrechnungen oder das Reporting der monatlichen Einnahmen.

Für Systeme, die hingegen rund um die Uhr laufen und kontinuierlich Daten erzeugen, ist diese traditionelle Datenanalyse natürlich vollkommen ungeeignet. Eine Analyse des Aktienmarktes beispielsweise wäre im Moment der Analyse bereits veraltet. Der Wert solcher Daten, wie IoT-Sensoren oder Finanzdaten, liegt im Wesentlichen in den identifizierten Trends und Anomalien, die möglichst in Echtzeit identifiziert werden müssen, um wertvoll zu sein.

Automatisierung hilft der IT dem Mensch nachzueifern

Genauso wie beim Menschen, laufen in einem Unternehmen eine Vielzahl von Systemen parallel – einige in Echtzeit, einige in Intervallen. Es ist seit jeher eines der Ziele jeder IT, Informationen aus einer Vielzahl von Datenquellen in einer einzigen Infrastruktur automatisch zusammenzuführen, sie dort aufzubereiten und den Anwendern zur Verfügung zu stellen. Diese Aufgabe war schon immer eine große Herausforderung, die durch die steigende Digitalisierung stetig komplexer geworden ist.

Die Anzahl der Systeme und Anwendungen steigt seit langem ständig und mit ihnen wächst das zu verarbeitende und zu speichernde Datenvolumen. Damit wird auch die manuelle Verarbeitung und Bereitstellung dieser Daten immer komplexer und zeitaufwändiger und bringt die IT unter Zugzwang diese Prozesse zu vereinfachen und zu automatisiere, um ihrer eigentlichen Aufgabe gerecht zu werden.

Um Daten wie der Mensch automatisch und in Echtzeit verarbeiten zu können, kommt der Unternehmens-IT die Automatisierung zu Hilfe, der eine Schlüsselrolle bei der fortschreitenden Digitalisierung zufällt. Erst durch umfangreiche Automatisierung kann der Zeitaufwand und das Verständnis für die nötigen Prozesse deutlich verringert werden.

Die Vorteile eines automatisierten Unternehmens

Gelingt es der IT die Vielzahl paralleler Systeme und die damit steigende Datenmenge automatisiert und in Echtzeit zu verarbeiten, kommt sie dem Vorbild Mensch nahe. Die Vorteile eines autonom Daten atmenden und Informationen pumpenden Unternehmens zeigen sich fortan in jeder Geschäftszelle des Unternehmens: In kundennahen Bereichen kann in Echtzeit auf Trends und Situationen reagiert werden, zum Beispiel auf aktuelle Trends von Aktienwerten oder auf Marktinformationen.

Trotz viel Rechenleistung ist die vollkommen künstliche Intelligenz noch Science Fiction. Maschinelles Lernen hingegen wird bereits in vielen Bereichen eingesetzt, um die Berge an Daten effizient zu bearbeiten. Mathematische Algorithmen können hier eingesetzt werden, um aus den Datenströmen zu lernen und Erkenntnisse zu generieren.

Für jeden CEO ist vollkommen klar: wenn sein Unternehmen Daten schnell und in Echtzeit bearbeiten und diese dank maschinellem Lernen sogar gleich direkt interpretieren kann, wäre das ein riesiger Vorteil gegenüber allen Wettbewerbern. Man ist immer einen Schritt voraus, kann jederzeit auf aktuellen Daten basierende Entscheidungen treffen und kann den Kunden beweisen, dass man am sprichwörtlichen Puls der Zeit ist. Diese Vorteile und Chancen aus der Analyse aktueller Daten in Echtzeit sind zu wichtig, um sie zu ignorieren.

Unternehmen brauchen Lösungen zur automatisierten Datenverarbeitung

Praktisch jedes Unternehmen ist derzeit im fortlaufenden Prozess der Digitalisierung. Ein wichtiger Teil davon, den es derzeit zu meistern gilt, ist die Herausforderung Daten aus einer Vielzahl hybrider Datenquellen verarbeiten zu können. Die Automatisierung hat hier bereits Erfolge bei der Stapelverarbeitung von Batch-basierten Daten erzielt. Jetzt gilt es für Unternehmen – und ihre IT – den gleichen Ansatz bei Datenströmen in Echtzeit anzuwenden. Damit dies gelingt, müssen sich Unternehmen genau überlegen, wie sie ihr internes Know-how am besten mit neuen Lösungen zur automatisierten Datenverarbeitung kombinieren können.

Der menschliche Körper ist ein in vieler Hinsicht weit entwickeltes System, das einer modernen IT ähnelt und Daten aus einer Vielzahl an Quellen automatisch und in Echtzeit verarbeitet. Um im Rahmen der Digitalisierung nicht ins Hintertreffen zu geraten, müssen Unternehmen dem Menschen nacheifern und Systeme zur automatisierten Datenverarbeitung kontinuierlicher Datenströme implementieren.

Marc Budzinski ist CEO bei WhereScape.

Marc Budzinski ist CEO bei WhereScape.

Autor: Marc Budzinski ist CEO bei WhereScape. WhereScape ist Pionier der Automatisierung von Data Warehouses und hilft IT-Unternehmen aller Größenordnungen die Automatisierung zu nutzen, um Dateninfrastrukturen schneller zu entwerfen, zu entwickeln, zu implementieren und zu betreiben.  www.wherescape.com

 

Ransomware der Dinge: Das IoT-Gerät als Geisel

swirl-optical-illusion-300x203Die weltweite Vernetzung schreitet kontinuierlich voran, allerdings schaffen die wechselseitigen Abhängigkeiten des digitalen Zeitalters auch eine neue Angriffsfläche für Cyberkriminelle. Leider verzeichneten die letzten Jahre unrühmliche Meilensteile in der Entwicklungsgeschichte des Internet of Things: So war Ende 2016 das erste Mal ein groß angelegter Cyber-Angriff in Form der Mirai Malware erfolgreich, der hunderttausende IoT-Geräte wie Router, Kameras, Drucker und Smart-TVs für den Aufbau eines Botnets nutzte.

Dieses sorgte weltweit für DDoS-Attacken, unter anderem auf Unternehmen wie Twitter, Amazon oder die Deutsche Telekom. Wie groß die Sicherheitslücken im IoT sind, wurde auch auf der Def Con Hacking Conference in Las Vegas gezeigt, indem Sicherheitsforscher vorführten, wie ein IoT-fähiges Thermostat mit einem gezielten Ransomware-Angriff gehackt und gesperrt werden kann.

Zunächst ist es wichtig, zwischen traditioneller Ransomware, die in der Regel auf PCs und Server abzielt, und Attacken auf IoT-Geräte zu unterscheiden. Klassische Ransomware infiziert den Zielcomputer und verschlüsselt die darauf befindlichen Daten, um für deren Entschlüsselung anschließend ein Lösegeld zu erpressen.

Zwar ist es hier möglich, mit einer Datensicherung die betroffenen Daten wiederherzustellen, doch aufgrund mangelhafter Backups sehen sich einige Opfer gezwungen, der Lösegeldforderung nachzugeben. So bleibt diese Methode für Angreifer weiterhin ein profitables Geschäft, wie auch die massiven Ransomware-Wellen von WannaCry und Petya eindrucksvoll unter Beweis gestellt haben. Mit dem geringen Sicherheitsniveau von IoT-Geräten ist daher in den kommenden Jahren auch mit darauf zugeschnittenen Ransomware-Angriffen zu rechnen.

Ziel der IoT-Ransomware: Geiselnahme des Geräts

Datendiebstahl lohnt sich bei IoT-Geräten nicht. Auf ihnen befinden sich in der Regel kaum beziehungsweise keinerlei sensible Daten. Die Strategie der Angreifer konzentriert sich daher darauf, den Nutzerzugriff auf das Gerät zu sperren und das Endgerät sozusagen in Geiselhaft zu nehmen.

Auf den ersten Blick mag dies eher wie eine Unannehmlichkeit erscheinen. Doch bereits ein relativ harmloses Beispiel wie der Hack auf das Computersystem eines Vier-Sterne-Hotels in Kärnten, der 2017 Schlagzeilen machte, zeigt, welche weitreichenden Konsequenzen ein derartiger Angriff nach sich ziehen kann: Kriminelle manipulierten das Schließsystem der Zimmer, infolgedessen sie für die Gäste nicht mehr betretbar waren.

Gleich dreimal in Folge führten die Angreifer erfolgreich diese Attacke gegen Forderung eines Lösegelds aus. Gleiches gilt für den Def Con-Hack des gesperrten Thermostats: Überträgt man dieses Beispiel auf Thermostate zur Steuerung von Kühlaggregaten in einem Lebensmittellager oder auf eine Rechenzentrumsklimaanlage, wird die neue Bedrohungslage von IoT-Ransomware deutlich.

Die zweifelhafte Sicherheitshistorie des Internet of Things

Leider ist eine Vielzahl der derzeit in Betrieb befindlichen IoT-Geräte extrem anfällig für IoT-Ransomware-Angriffe, denn im Zuge der IoT-Popularitätswelle haben viele Hersteller in den letzten Jahren Millionen von IoT-Geräten so schnell wie möglich entwickelt und verkauft, wobei die Gerätesicherheit auf der Strecke blieb. Infolgedessen verfügen die meisten IoT-Geräte heutzutage über Standardberechtigungen, verwenden unsichere Konfigurationen und Protokolle und sind notorisch schwer zu aktualisieren, was sie überaus anfällig für Kompromittierungsversuche und damit zu einem lukrativen Ziel für Cyberkriminelle macht.

Erschwerend kommt hinzu, dass das Auftreten von Low-Level-Protocol-Hacks wie KRACK (Key Reinstallation Attack) Angreifern neue Möglichkeiten bietet, die IoT-Infrastruktur zu umgehen und Geräte durch die Einspeisung eines anderen Codes zu manipulieren. Dies hat besonders schwerwiegende Folgen, wenn die Geräte Steuerbefehle von einer Cloud-Anwendung synchronisieren oder empfangen müssen.

 Drei Punkte zur Bewertung der IoT-Gerätesicherheit

Um sichere Betriebsabläufe gewährleisten zu können, ist beim Einsatz von IoT-Geräten eine umfassende Bewertung der Gerätesicherheit aus verschiedenen Blickwinkeln unabdingbar. Die Evaluierung sollte stets die folgenden drei Bereiche abdecken:

Hardware: Die physische Sicherheit sollte bei der Bewertung eines neuen Geräts immer eine wichtige Rolle spielen. Mit physischen Schaltern kann das Gerät manipulationssicher gemacht werden, indem dafür gesorgt wird, dass einzelne Gerätekomponenten nicht ohne Erlaubnis angesprochen und dekodiert werden können. Beispielsweise können mit einer Stummschalttaste Mikrofone und Audioempfänger sämtlicher Geräte deaktiviert werden.

  • Software: Auch bei IoT-Geräten gilt: Die Software sollte stets auf dem neuesten Stand sein. Bei der Auswahl eines Geräteherstellers muss daher darauf geachtet werden, dass dieser seine Software regelmäßig aktualisiert und patcht.
  • Netzwerk: Der Datenaustausch zwischen IoT-Geräten, Backend-Management- oder Speicherlösungen sollte ausschließlich über sichere Webprotokolle wie HTTPS erfolgen und der Zugriff ausschließlich über mehrstufige Authentifizierungsmethoden. Darüber hinaus ist darauf zu achten, dass alle standardmäßigen Anmeldeinformationen, die mit dem Gerät mitgeliefert wurden, umgehend in starke alphanumerische Zeichenfolgen abgeändert werden.

Die Umsetzung dieser grundlegenden Sicherheitsprinzipien trägt wesentlich dazu bei, sich gegen viele der aufkommenden Bedrohungen wie die neue Art von IoT-Ransomware-Angriffen zu verteidigen. Wenn die IoT-Welt jedoch wirklich sicher werden soll, ist es an der Zeit, sie wie jedes andere IT-System zu behandeln und sicherzustellen, dass ihr Schutz ebenso robust, effektiv und zukunftssicher ist.

Autor: Christoph M. Kumpa ist Director DACH & EE bei Digital Guardian. Digital Guardian bietet eine bedrohungserkennende Datensicherungsplattform, die speziell entwickelt wurde, um Datendiebstahl sowohl durch interne als auch durch externe Angriffe zu verhindern. Die Digital Guardian-Plattform kann für das gesamte Unternehmensnetzwerk, traditionelle und mobile Endgeräte sowie Cloudanwendungen eingesetzt werden.

Im Trend: Nutzen statt besitzen – mieten statt kaufen

ShareconomyFast zwei Drittel der Stadtbewohner unter 25 Jahren finden ein eigenes Auto unwichtig. So eine aktuelle Umfrage des Center of Automotive Management (CAM). Doch das ist erst der Anfang: Mietmodelle für Elektronik, Haushaltsgeräte oder Kinderkleidung werden offenbar für die Verbraucher immer attraktiver. Digitalisierung und E-Commerce befeuern den Trend. Offen allerdings ist bislang, wie sich das Thema langfristig logistisch darstellen lässt, meint Logistik-Experte und E-Commerce-Kenner Heribert Trunk.

So viel ist klar: Die Wirtschaft muss umdenken. Sie braucht neue Geschäftsmodelle, die den zunehmenden Hang der Verbraucher, Produkte zu mieten statt zu kaufen, aufgreifen. So haben nach einer aktuellen Studie des Beratungsunternehmens PwC 40 Prozent der Bundesbürger schon einmal Angebote der sogenannten Share Economy genutzt, wie der Handels-Branchendienst etailment berichtet.

„Damit zeichnen sich völlig neue Geschäftsmodelle für den Handel ab“, kommentiert Heribert Trunk, Mitinhaber des Hybrid-Logistikers BI-LOG mit Sitz in Bamberg. „Ein Händler, der dieses wachsende Bedürfnis der Verbraucher bedient, kann sich so gegen Amazon und andere auf Kauf ausgerichtete Anbieter positionieren. Er kann neue Kunden und gegebenenfalls Käufer gewinnen und Mietmodelle mit zusätzlichen wertschöpfenden Services anreichern.“

Kaninchen vor der Schlange

Das Problem allerdings sei, dass die meisten traditionellen Handelsunternehmen noch immer zu zögerlich und schwerfällig seien. „Die großen Online-Player sind letztlich nur mit ihren eigenen Waffen zu schlagen: Datenkompetenz und gut funktionierende Logistik. Aber die meisten Handelshäuser verhalten sich noch immer wie das sprichwörtliche Kaninchen vor der Schlange und warten ab. Das ist angesichts der rasanten Entwicklung der digitalen Transformation lebensgefährlich, wie sich jetzt einmal mehr zeigt.“

Denn was für die den traditionellen Handel gelte, sei für Sharing Economy Geschäftsmodelle erst recht essentiell: „Sie funktionieren nur mit einer extrem leistungsfähigen Hybrid-Logistik, die weit mehr leistet als nur den effizienten Transport von Waren.“

Hybrid-Logistik als Schlüssel

Der Hybrid-Logistiker müsse sich unter anderem durch hohe Datenkompetenz auszeichnen. Er müsse in der Lage sein, unkonventionelle Geschäftsideen flexibel und schnell logistisch umzusetzen. „Dazu gehören auch Lösungen, um die letzte Meile zu überbrücken. Außerdem gilt es Zustell- und Abhol-Services intelligent miteinander zu koppeln, um Verkehrsaufkommen und Kosten zu minimieren.“

Administrative Dienstleistungen wie Rechnungsstellung für den Endkunden und die Überwachung des Zahlungsflusses dürften für den Logistiker der Zukunft ebenso wenig ein Problem sein wie etwa die Abwicklung von Versicherungsfällen. „Nicht zu vergessen: Der Logistiker, der Sharing Economy Modelle unterstützt, muss Produkte im Konfektionierungsprozess individualisieren können – sonst dauert das zu lange – und extrem schlanke und effiziente Retouren- und Refurbishment-Prozesse beherrschen“, so der Logistik- und E-Commerce-Experte.

„Das alles muss wirtschaftlich darstellbar sein, sonst brauchen wir gar nicht erst anzufangen. Und es muss schnell gehen, denn wo ein attraktiver Markt ist, sind die großen digitalen Player nicht weit.“

 

Die GAFA-Gefahr für Banking und Wealth Management

Gafa-1024x455Wird Amazon zur Bank? Das Wall Street Journal hat jedenfalls Anfang März 2018 schon über Gespräche zwischen dem Handelsriesen und etablierten US-Banken wie JPMorgan Chase und Capital One berichtet. Dem Vernehmen nach geht es um ein Girokonto-Angebot für (junge) Amazon-Kunden. Umfragen von Mitte 2017, etwa durch Sopra Steria Consulting, zeigten noch, dass der Großteil der Branche die Bedrohung durch mögliche „GAFA“-Banken sehr gelassen nahm.

Was aber, wenn die vier GAFAs – das sind Google (bzw. Alphabet), Apple, Facebook und Amazon – tatsächlich ins Bankgeschäft eintreten würden? Die finanziellen Mittel dafür brächte jeder der modernen Technologiegiganten spielend auf: Apple, Amazon und Google belegen aktuell die Spitzenplätze im weltweiten Marktkapitalisierungs-Ranking, sie sind die drei wertvollsten Unternehmen der Welt.

 Der gigantische Kundenstamm als Faktor

Es wäre blauäugig, das Potenzial zu verkennen, das der Markteintritt eines der GAFA-Riesen hätte. Was sie gefährlich macht, ist, dass sie sehr genau wissen, wie man mit Kundendaten umgeht und wie man sie nutzt, um die Kundenbeziehung zu festigen und auszubauen. GAFAs sind schon deswegen potenziell disruptiv, weil ihr Kundenstamm gigantisch ist, erst recht im Vergleich zu Fintechs.

Amazon etwa hatte 2016 allein in Deutschland 44 Millionen Kunden, 17 Millionen davon waren Prime-Nutzer. Auch in Asien gibt es Beispiele, die nachdenklich machen. Alipay etwa, das chinesische Online- und Mobile-Bezahlsystem der Alibaba Group, hat heute schon 600 Millionen Kunden – und erschließt mit einer Vielzahl von Apps so gut wie alle Lebensbereiche der Menschen.

Alipay führt praktisch auch alle chinesischen Touristen durch Europa; Händler, die Alipay abwickeln können, haben einen entsprechenden Vorteil. Alipay macht vor, wie Marktmacht ausgespielt wird. Zieht Amazon bald nach? Ungeachtet des aktuellen Cambridge Analytica-Skandals um Facebook bleibt es unbestreitbar: Kundendaten sind das Gold der Zukunft. Und die Geschäftsmodelle der Tech-Giganten basieren darauf.

Unangreifbare GAFAs

Der Zugang zum Kunden, seinen Vorlieben, seinen Bedürfnissen und seiner Entscheidungshistorie wird sich im Finanzmarkt der Zukunft als immenser Vorteil erweisen. Vor diesem Hintergrund wirken neue Fintechs und Startups, die zwar digitale Innovationen, aber keine nennenswerte Kundenbasis bieten können, weit weniger bedrohlich.

Zumal etablierte Marktteilnehmer auch durch Akquisitionen einen neuen, potenziellen Konkurrenten in ein Asset verwandeln können – wie es etwa die ING-Diba mit Lendico vorgemacht hat. Beim Markteintritt eines GAFA-Riesen existiert diese Option nicht. Im Gegenteil: Apple könnte bereits mit einem Bruchteil seiner Cash-Reserven die Deutsche Bank übernehmen.

Predictive Analytics sind die Zukunft

Ob im Retailbanking oder in der Vermögensberatung: Hier muss das Gold der Zukunft erst noch gehoben werden. Ein Unternehmen wie Google macht vor, was in Sachen Predictive Analytics schon alles möglich ist – inklusive Tracking von Websitebesuchern oder App-Nutzern, bis hin zum Ausspielen zielgerichteter, individualisierter Werbung.

Davon sind Banken derzeit noch sehr weit entfernt. Dabei böte eine konsequente Analyse des Kundenverhaltens ganz neue Möglichkeiten, im Massenmarkt genauso wie im Wealth Management oder Private Banking. So gewinnt im Wealth Management derzeit die IT-gestützte Beratung immer mehr an Bedeutung. Und eine Bank wie die UBS beginnt gerade damit, moderne Analyse-Technologie über Anlageportfolios laufen zu lassen – durchaus mit dem Ziel, dadurch auch hochpreisige Anlagen in Zukunft sehr gezielt und bedarfsgerecht anbieten zu können.

Die Bedürfnisse der Klienten verstehen

Den Klienten und seine Bedürfnisse ins Zentrum zu stellen, zu analysieren, was ihm wichtig sein wird, bevor es ihm vielleicht selbst klar ist, und alle Kommunikationskanäle zu unterstützen, die Digital Natives heute als selbstverständlich betrachten, vom Online-Banking über die mobile App bis zum Sprachassistenten – das dürfte in Zukunft über Kundenzufriedenheit, Kundenbindung und Markterfolg entscheiden.

Vermutlich noch nicht morgen, aber vielleicht schon übermorgen. Mit einem durchaus kurzfristigen Zeithorizont von ein oder zwei Jahren könnten bereits neue mächtige Player antreten. Die GAFA-Bedrohung ist real. Ob es Wealth Manager, Retail- oder Privatbanken sind: Es ist höchste Zeit, dass sie sich Gedanken um eine konsequente Digitalisierung machen. Wenn sich der Markt nicht auf die Zukunft vorbereitet, wird er für die GAFAs am Ende nur ein noch viel verlockenderes Ziel.

Dennoch: Solch ein Markeintritt könnte auch eine Chance bedeuten. Im Idealfall eröffnet sich etablierten Markteilnehmern dadurch vielleicht sogar die Gelegenheit, sich einem neuen Ecosystem anzuschließen, mit neuen Produkten und neuen, weiteren Kanälen. Eine sprachgesteuerte, automatisierte Vermögensberatung per Amazon Echo direkt im Wohnzimmer des neuen Klienten: Warum eigentlich nicht?

Autor: Uwe Krakau verfügt über umfangreiche Erfahrung in der Finanzdienstleistungsbranche. Bei Avaloq ist er als General Manager Deutschland und Mitglied der Geschäftsleitung tätig. Zu seinen Kernthemen gehören Markt, Wachstum, M&A, Start-ups, Value Proposition und Fintechs. Bevor er 2004 zu Avaloq wechselte, war er 14 Jahre lang hauptsächlich für DAX-Unternehmen in Deutschland tätig. Unter anderem hatte er Managementpositionen beim debis Systemhaus, EADS und BASF inne. Er studierte an der Fachhochschule für Technik Esslingen Wirtschafts-Ingenieur, verfügt über einen Abschluss in Informations-Wissenschaft der Universität Konstanz und hat das Executive Program des Swiss Finance Institute abgeschlossen.

 

„The Circle“ im eigenen Büro – Kommunikationsdaten machen soziale Beziehungen für Arbeitgeber analysierbar

© Foto Fraunhofer FIT

© Foto Fraunhofer FIT

Durch elektronische Kommunikation fallen in Unternehmen immer mehr Daten an, die Interaktionen unter Beschäftigten dokumentieren. Technisch ist es für Arbeitgeber bereits möglich, daraus soziale Beziehungsgeflechte oder „soziale Graphen“ der Belegschaft zu konstruieren und für Personalentscheidungen einzusetzen, zeigt eine aktuelle, von der Hans-Böckler-Stiftung geförderte Studie*.

Bei wem laufen die Fäden zusammen? Wer ist ein gefragter Ansprechpartner und Ratgeber? Wer steht eher am Rande und bekommt selten Antworten auf seine Mails oder Beiträge im firmeninternen Social Network? In kleinen Betrieben weiß das jeder.

In Großunternehmen hat das Management aber keinen Einblick in die sozialen Detailstrukturen, die viel über Kooperation, Konflikte und Motivation unter den Beschäftigten aussagen. Doch das ist vielleicht nur noch eine Frage der Zeit.

Der soziale Graph in Unternehmen

Denn was für Laien nach Science-Fiction à la „The Circle“ klingt, ist technisch bereits möglich und praktisch in einzelnen Unternehmen schon Realität. Vielfach wird der „soziale Graph“ schon unentwegt gefüttert, ohne dass Auswertungen erfolgen: Mit jeder E-Mail, mit jedem Chat, mit jedem Tweet und jedem Like wird der Graph um eine Beziehung zwischen Kollegen ergänzt. Und erste Softwareprodukte kommen auf den Markt, um persönliche Stellungen und soziale Beziehungen in diesem Graphen zu analysieren.

Systeme wie „Workplace Analytics“ von Microsoft oder „Organisational Analytics“ von IBM haben dieses Potenzial.  Darauf weisen die Studienautoren, der Informatiker Prof. Dr. Heinz-Peter Höller und der Jurist Prof. Dr. Peter Wedde hin.

Mitarbeiter „aushorchen“ via Analyse

Die Professoren von der Hochschule Schmalkalden beziehungsweise der Frankfurt University of Applied Sciences warnen: Solche Methoden könnten vom Management künftig verstärkt genutzt werden, „um in die Belegschaft hineinzuhorchen“. In einem fiktiven, aber unter rein technischen Gesichtspunkten realistischen Szenario, stellen sie die Möglichkeit in den Raum, dass Arbeitgeber, die Entlassungen planen, sich an den Ergebnissen solcher Analysen orientieren: Wer nicht hinreichend vernetzt ist, riskiert berufliche Nachteile oder sogar eine Kündigung.

Damit es nicht so weit kommt, seien neben der Politik die Betriebsräte gefordert, Arbeitgebern genau auf die Finger zu sehen, wenn es um das Sammeln und Auswerten von Daten mit „sozialen Graphen“ geht. Rechtlich sind derartigen Formen der Vorratsdatenspeicherung zwar relativ enge Grenzen gezogen. Das geltende Recht müsse aber auch effektiv durchgesetzt werden, so Höller und Wedde.

Auswertungen der Hans-Böckler-Stiftung zeigen, dass Betriebsvereinbarungen zu Datennutzung und -schutz längst einen Schwerpunkt der Betriebsratsarbeit bilden. Doch nur knapp die Hälfte der Arbeitnehmerinnen und Arbeitnehmer in Deutschland hat einen Betriebsrat an ihrer Seite – obwohl in jedem Betrieb mit mindestens fünf Beschäftigten eine Arbeitnehmervertretung gegründet werden kann. Zudem sei es notwendig, die Mitbestimmungsrechte auszubauen, betonen die beiden Wissenschaftler. Sie empfehlen die Schaffung eines neuen Mitbestimmungsrechts zum Datenschutz, da vorhandene Mitbestimmungsrechte dieses Thema bisher nicht direkt beinhalten.

*Heinz-Peter Höller, Peter Wedde: Die Vermessung der Belegschaft, Mitbestimmungsreport Nr. 10, Januar 2018. Download.

Die Ideologie der Digitalisierung ist der Informationskapitalismus

3-affenBeitrag auf dem Blog der Telekom: Auf die Frage, was denn »Digitalisierung« sei, können im Sommer 2015 mehr als die Hälfte der deutschen Beschäftigten (56 Prozent) keine Antwort geben. Ein Drittel hat noch nie von dem Begriff gehört. Auch das »Internet der Dinge«, das gaben 88 Prozent der Befragten an, sei ihnen kein Begriff. Bei »Big Data« waren es sogar 92 Prozent.

Die Digitalisierung baut unsere Welt in einen Mega-Computer um.

Dabei sind die Zusammenhänge schnell erklärt: Die Digitalisierung baut unsere Welt in einen Mega-Computer um. Alles wird vernetzt. Alles wird gemessen, gespeichert, analysiert und prognostiziert, um optimiert und – möglichst vollautomatisch – gesteuert zu werden. Davon ist der Mensch nicht ausgenommen. »Globale Konsumentensteuerung« nennen das die Technologiegiganten.

Inzwischen sind die Probleme der Digitalisierung nicht mehr zu übersehen und werden auf breiter Basis debattiert. Die computerisierte Massendatenanalyse und die algorithmische Steuerung der Gesellschaft führten in eine Blackbox-Gesellschaft. Die vollständige elektronische Überwachung der Konsumenten – eigentlich Eigenschaft totalitärer Staaten – durch private Unternehmen sei illegitim und verletze Grundrechte.

Immer mehr Berufsbilder würden verschwinden und durch (intelligente) Rechner ersetzt. Was, fragen sich viele, geht hier eigentlich vor? Ist die Digitalisierung nur süße Medizin mit schwerwiegenden Nebenwirkungen? Es ist der Blick in die Geschichte, der hilft, die Gegenwart besser zu verstehen.

 »Sich die Erde untertan machen«, ist uraltes theologisches Motiv und gleichzeitig europäische Leitkategorie.

»Sich die Erde untertan machen«, ist uraltes theologisches Motiv und gleichzeitig europäische Leitkategorie. Der Mensch hat den Auftrag, die schroffe, oft lebensfeindliche Natur zu beugen und sie zu überwinden, um für sich selbst ein menschenfreundliches, ein besseres Leben zu gestalten. Genau das ist es, was wir als »Kulturleistung« bezeichnen.

Der Auftrag zur Gestaltung rechtfertigt jeden technologischen Fortschritt, von der Entdeckung des Feuers über die Erfindung des Rades bis hin zur massenhaften Einführung der Universaltechnologien des 19. und 20. Jahrhunderts – darunter Elektrizität, Funk, Wasserdampf und Computer. Je weiter die Menschheitsgeschichte voranschreitet und je mehr Kultur wir schaffen, desto weiter entfernen wir uns von der Natur.

Dass die Kultur der Digitalisierung tatsächlich schon sehr »un-«natürlich ist, wird schon sprachlich deutlich: an Begriffen wie »Künstliche Intelligenz«, »virtuelle Realität« oder »synthetische Biologie«. Die Digitalisierung setzt nur den Weg fort, auf dem jeder Fortschritt die Menschen ein Stück mehr von der Natur abtrennt.

Die Frage, ob wir Digitalisierung wollen oder nicht, stellt sich daher nicht. Die digitale Transformation wird sich vollziehen, und sie ist philosophisch begründbar. Der Mensch vollzieht kulturelle Leistungen, weil er zur Vernunft begabt ist, im Falle der Digitalisierung zur wissenschaftlichen Vernunft. Deshalb ist die Digitalisierung, wie sie sich gerade entwickelt, nicht gottgegeben. Sie fällt nicht vom Himmel. Wir selbst gestalten sie. Wir wollen das so. Aber warum nur?

Die Antwort ist für manchen nicht ganz naheliegend: Wir brauchen Wirtschaftswachstum. Lässt das Wirtschaftswachstum nach, büßen wir Lebensstandard ein. Wirtschaftswachstum heißt: »Geld verdienen«. Ein anderer Begriff für diese zugegebenermaßen sehr verkürzte Erklärung ist Kapitalismus.

Schon im 20. Jahrhundert hat der österreichisch-ungarische Ökonom Karl Polanyi die drei fiktiven Güter des Kapitalismus definiert, von denen jedes Kind schon in der Schule hört: Arbeit, Boden (Natur) und Kapital. Doch schon in den Zehnerjahren unsrer Zeit galten sie als aufgezehrt. Ein neues fiktives Gut des Kapitalismus muss her – unverbraucht und so innovativ, dass es viele Investitionen auf sich ziehen kann: die Information.

Innovation, das stellte schon ein Zeitgenosse Karl Polanyis, der österreichische Wirtschaftswissenschaftler und kurzzeitige Finanzminister des Jahres 1919, Joseph Schumpeter, fest, ist der Treiber des Kapitalismus. Und die Digitalisierung hat zweifellos zu einem Innovationsschub geführt. Finanzinvestoren haben digitale Technologiegiganten zu den teuersten Firmen der Welt gemacht. Apple, Google und Microsoft belegen die Plätze eins bis drei. Sie bilden ein Oligopol vergleichbar den frühen Wirtschaftsmagnaten der Industriellen Revolution: J.P. Morgan (Strom), Carnegie (Stahl) und Rockefeller (Öl).

Die wirtschaftliche Ausdehnung auf das neue fiktive Gut der Information

Die wirtschaftliche Ausdehnung auf das neue fiktive Gut der Information, mit dem sich seit dem 21. Jahrhundert wieder Geld verdienen lässt, hat keine politische Quelle. Ganz ähnlich den Entwicklungen der Ersten Industrialisierung entstammt auch sie dem Reich der Spekulation, wo rational handelnde Wirtschaftsakteure und ihre Finanzinvestoren investieren, um zu wachsen und zu expandieren.

Das erklärt auch, warum sich die Digitalisierung ohne gesellschaftliche Debatte und ohne politische A-priori-Mitgestaltung vollzieht. Wirtschaftswachstum und Expansion sind keine politischen Aufgaben. Sie beruhen nur auf den Gesetzen der Ökonomie und des Marktes – weder sind sie politisch motiviert noch haben sie einen politischen Ursprung. Wirtschaftsakteure preschen vor, die Politik sieht dem »Neuland« staunend zu.

Deshalb ist richtig, was Ranga Yogeshwar in einem anderen Beitrag zu dieser Reihe ausspricht: »Die Politik ist zu träge, die Strukturen sind zu langsam… Was wir im Moment erleben, ist, dass oft Dinge gemacht werden…, bevor wir eigentlich den Dialog geführt haben.« Die Politik ist dem Markt noch lange nicht in denselben Raum – den digitalen, den virtuellen, den nicht-stofflichen Raum von Daten und Information – gefolgt, wohin sich die Wirtschaft längst ausgedehnt hat. Doch inzwischen zwingt uns die Informationsökonomie, auch in digitalen Zeiten politisch zu werden.

Die Digitalisierung hat einen neuen, ungeregelten Markt geschaffen. Libertäre Märkte, auch das ist gängige Währung unter großen deutschen Philosophen, tendieren dazu, inhuman zu sein und den Menschen nichts als den Weg ins Prekariat zu weisen. Glaubt man dem erwähnten McKinsey-Bericht, scheint sich dies heute so zu bewahrheiten wie in den ungeregelten Anfängen der Industriellen Revolution, in der Kinderarbeit, 60-Stunden-Woche und unhygienische Arbeitsverhältnisse allgemein üblich waren.

In den Nachkriegsjahren des 20. Jahrhunderts hatte der Kapitalismus nur deshalb große Akzeptanz erfahren, weil er sich sozial bändigen ließ, sich unter Ludwig Erhard als sozial-liberal erwies. An der libertären Version von Reaganomics und Thatcherism, den deregulierten (Finanz-)Märkten, die nicht nur Wachstum, sondern auch nie dagewesene Crashs produzierten, leiden wir Europäer noch heute ausnahmslos.

Erst in jüngster Zeit stehen der Informationsökonomie die Ambitionen der Politik auf gesellschaftliche Gestaltung und Marktregulierung gegenüber.

Erst in jüngster Zeit stehen der Informationsökonomie die Ambitionen der Politik auf gesellschaftliche Gestaltung und Marktregulierung gegenüber. Doch die Politik ist im Konflikt mit sich selbst: Soll sie die Informationsökonomie möglichst unangetastet lassen und womöglich große gesellschaftliche Kollateralschäden in Kauf nehmen? Oder soll sie regulieren und sich so zum Bremser des so hochnotwendigen Wirtschaftswachstums machen?

Die Antwort lautet: Regulierung schließt Wirtschaftswachstum und Wettbewerbsvorteile nicht aus. Mit der Regulierung der Informationsökonomie stehen wir heute dort, wo wir in den Achtzigerjahren beim Umweltschutz standen – ganz am Anfang. Auch damals übertönten die Stimmen der Wirtschaft die ersten grünen Ökos: Umweltschutz schade der Wirtschaft. Heute steht das Gegenteil fest. Hohe europäische Umweltstandards haben sich zum Wettbewerbsvorteil entwickelt und gleichzeitig Mensch und Natur genützt. Vor dem Auftrag, die digitale Ära ähnlich erfolgreich zu humanisieren, stehen wir heute. Es gilt, eine sozial-liberale Informationsökonomie zu schaffen, die jungen Generationen ein gutes Leben mit glanzvollen Technologien ermöglicht.

 Wenn Sie die vollständige Fassung des Statements lesen möchten, klicken Sie bitte hier.

 

Ethik und künstliche Intelligenz: Was ist der Mensch uns wert?

Verständnis-Ethik-260x300Menschliche Intelligenz ist das mächtigste Phänomen im uns bekannten Universum. Ohne Intelligenz würden die Dinge einfach nur ohne Zweck ablaufen. Doch mit Intelligenz werden Dinge kreativ und bewusst geschaffen. Kein anderes Phänomen besitzt diese immense Kraft. Neue Ideen in die Welt bringen, Dinge planen, konstruieren und ihnen Bedeutung verleihen. Systeme und Zivilisationen erschaffen. Die Welt nach eigenen Vorstellungen gestalten. Ohne Intelligenz wäre das alles unmöglich.

 Künstliche Intelligenz übernimmt menschliche Kompetenzbereiche

Lange Zeit galt dieses mächtige Werkzeug als einzigartig, die Prozesse unseres Gehirns als nicht kopierbar. Doch dieses Bild gerät zunehmend ins Wanken. Waren frühere künstliche Intelligenzen lediglich in der Lage, exakte Befehle auszuführen, gehen neue Machine- und Deep Learning-Algorithmen an die Substanz unseres Menschseins: Sie sind kreativ, lernen von alleine, führen zu neuen Erkenntnissen und übernehmen zunehmend komplexere kognitive Tätigkeiten.

Jan Pechmann  studierte Medienwissenschaften, Kommunikationsforschung und Sozialpsychologie in Hannover. Dort gründete er, noch aus dem Studium heraus, die Strategieagentur diffferent.

Jan Pechmann studierte Medienwissenschaften, Kommunikationsforschung und Sozialpsychologie in Hannover. Dort gründete er, noch aus dem Studium heraus, die Strategieagentur diffferent.

Dieser extreme Kompetenz-Gewinn von künstlicher Intelligenz (KI) wird Unternehmen jeder Größe substantiell verändern, denn KI stößt mit enormer Geschwindigkeit in Bereiche vor, die bisher exklusiv dem Menschen vorbehalten waren. Und es sind nicht mehr nur noch die monotonen physischen Routine-Arbeiten, die schleichend von Maschinen übernommen werden.

 Automatisiert wird, was automatisiert werden kann

Die Jobs, die durch die KI-Evolution zunehmend in Gefahr geraten, sind die soliden, gut bezahlten „White Collar“-Jobs in den Büros dieser Welt: Accounting, Daten-Auswertung, Wissens-Management, Finanz-Kalkulationen. Obwohl diese neue Stufe der KI-Evolution noch frisch und jung ist, ist der Pool an Exklusiv-Fähigkeiten des Menschen bereits bemerkenswert geschrumpft.

Aus Wettbewerbs-Perspektive mag das verlockend sein: Personalkosten werden gespart, Prozesse gestreamlined, Firmen schlanker und agiler. Künstliche Intelligenz verspricht zu Recht eine Fülle ungeahnter Möglichkeiten. Dieser Transformationsprozess ist spannend und kann Marken in völlig neue Sphären katapultieren. Die Marschrichtung ist eindeutig: Alles, was automatisiert werden kann, wird automatisiert.

Unternehmen in der ethischen Verantwortung

Aus menschlicher und sozialer Perspektive wird die Notwendigkeit mit jedem KI-bedingt wegrationalisiertem Mitarbeiter aber größer, eine Position zu finden, die kluge und weitsichtige Antworten auf die Schattenseite künstlicher Intelligenz findet. Denn der Bereich, in dem sich Mitarbeiter in ihren Kompetenzen noch sicher wähnen können, wird immer kleiner. Das ist die kalte Logik künstlicher Intelligenz.

Die Herausforderung ist am Ende systemischer Natur. Doch jedes Unternehmen ist ein Teil des Systems und muss daher Teil der Antwort sein. KI-Strategien müssen frühzeitig und vollkommen organisch diese Dimension mitdenken und an Antworten arbeiten. Es geht darum, die Menschen für die Prozesse einzusetzen, die noch lange nicht von Maschinen übernommen werden können. Das sind genau die Bereiche, die ein hohes Maß an kreativer Intelligenz benötigen. Das eigene Personal jetzt schon auf diese Tätigkeiten zu schulen, ist eine schwierige, teure und zeitaufwendige Aufgabe.

Bei aller Tech-Euphorie dürfen Unternehmen aber nicht die Augen vor der Frage verschließen, die sich früher oder später jedem stellen wird, die KI zu einem natürlichen Teil ihres Geschäftsmodells macht:

Was ist der Mensch uns wert?

Autor: Jan Pechmann, Jahrgang 1974, studierte Medienwissenschaften, Kommunikationsforschung und Sozialpsychologie in Hannover. Dort gründete er, noch aus dem Studium heraus, die Strategieagentur diffferent. Er leitet die Agentur mit ca. 80 Mitarbeitern an den Standorten Berlin und München zusammen mit seinen Geschäftspartnern Alexander Kiock und Dirk Jehmlich. Mit seiner Strategieberatung ist Pechmann darauf spezialisiert, für seine Kunden überraschende  Lösungen im Spannungsfeld zwischen Marken-, Kommunikations- und Innovationsstrategie zu entwickeln.

Bedeutung von KI im Dokumentenmanagement: Die schöne neue KI-Welt steuern

Indien_41Wenn man über künstliche Intelligenz (KI) spricht, lohnt es sich, zunächst zu klären, was damit überhaupt gemeint ist. Eine immer noch griffige Definition entstand bereits in den 1980er-Jahren: KI ist die Lehre darüber, wie man Maschinen Dinge beibringen kann, die der Mensch selbst derzeit noch besser beherrscht.

Und der Begriff Intelligenz – ob bei Menschen oder Maschinen – lässt sich recht gut als die Fähigkeit beschreiben, komplexe Dinge zu tun. Noch ist die Fähigkeit von Maschinen, komplexe Probleme zu lösen und die umfassenden Fähigkeiten des menschlichen Verstands zu imitieren, sicherlich begrenzt. Aber schon heute werden lernende Systeme in sehr kurzen Zeitabständen deutlich klüger – in ihrem jeweiligen Aufgabenbereich.

Von Null auf Genie in drei Tagen

Ein jüngeres Beispiel, das auch in der Öffentlichkeit Resonanz fand, hat mit der AlphaGo-Software zu tun. AlphaGo, das beste aller Computerprogramme für das asiatische Brettspiel Go, besiegte bereits im März 2016 den damals weltbesten menschlichen Spieler, den Südkoreaner Lee Sedo.

Während AlphaGo neben dem Regelwerk noch mit einer Datenbank von 30 Millionen Zügen gefüttert werden musste, um lernen zu können, wurde das Nachfolgeprogramm AlphaGo Zero nur mit den Spielregeln gespeist: Es lernte durch Partien gegen sich selbst. Innerhalb von drei Tagen hatte es in seiner Spielstärke das ursprüngliche AlphaGo überflügelt. Nach 40 Tagen des Selbstlernens war das neue Programm sogar stärker als die letzte Ausbaustufe des Vorgängers, AlphaGo Master. Das war im Herbst 2017.

Dokumente semantisch verstehen

Matthias Kunisch ist Geschäftsführer der forcont business technology GmbH  & Mitglied des Vorstandes des Cloud-EcoSystem e.V.

Matthias Kunisch ist Geschäftsführer der forcont business technology GmbH & Mitglied des Vorstandes des Cloud-EcoSystem e.V.

Stehen wir also vor einem evolutionären Prozess? Werden die Maschinen am Ende die besseren Menschen? Wenn es darum geht, relevante Zusammenhänge in sehr großen Mengen von Informationen zu finden, sind KI-Systeme dem Menschen sicherlich überlegen. Big Data, Business Intelligence und KI: Sie werden nicht zufällig in einem Atemzug genannt.

Es ist absehbar, dass KI-Anwendungen auch im Kontext der Dokumentenmanagementsysteme (DMS) ihren Platz im Unternehmen finden werden. DMS-Lösungen dienen der Verwaltung von Informationen, und KI könnte helfen, diese Informationen besser nutzbar zu machen – indem sie aus einer großen Menge von Dokumenten neue Zusammenhänge filtert.

Schon jetzt wird entsprechende Software dazu eingesetzt, eingehende Dokumente zu verstehen und zuzuordnen – wie etwa Rechnungen oder Lieferscheine – und mithilfe von Daten aus dem ERP-System Plausibilitätsschecks durchzuführen. Der nächste Schritt wird darin bestehen, nicht mehr nur in Formularform, sondern in freier Textform erstellte Dokumente zu erfassen – und sie semantisch zu verstehen. Damit auch ein Schreiben wie dieses korrekt zugeordnet wird: „Sehr geehrter Energieversorger, ich kündige hiermit … an, dass ich mehr Strom benötige.“

KI entscheidet?

Die Strukturen, die DMS-Lösungen aufbauen, und die Vorgänge, die sie erfassen, sind durchaus einem maschinellen Verstehen und einer automatisierten Bearbeitung zugänglich, von der Angebotserstellung bis zur Auftragsbestätigung. Sogar im HR-Bereich könnte künstliche Intelligenz Nutzen stiften.

Etwa indem sie die digitalen Personalakten auswertet und eine Übersicht über die Skill-Sets erstellt, die bei den Mitarbeitern im Unternehmen vorhanden sind. So erfährt der Arbeitgeber, ob seine Organisation den Herausforderungen der Zukunft gewachsen ist. Prinzipiell kann eine KI, die die Anforderungen im HR-Bereich versteht, natürlich auch eine (Vor-)auswahl unter Bewerbern treffen. Nur: Was passiert, wenn der abgelehnte Kandidat klagt? Wen trifft die Schuld für etwaige Fehlentscheidungen? Und wie kam es überhaupt zu der Entscheidung?

Die Zukunft verstehen

Dass selbstlernende Algorithmen Entscheidungen treffen, die sinnvoll sein mögen, aber aus menschlicher Perspektive praktisch nicht nachvollziehbar sind, ist ein durchaus gravierendes Problem. Anders gesagt: Was denkt eine künstliche Intelligenz eigentlich? Es ist ein wichtiges Ziel der aktuellen KI-Forschung, die Entscheidungen selbstlernender Systeme nachvollziehbar zu machen.

Bereits die im Mai 2018 wirksam werdende europäische Datenschutzgrundverordnung (EU-DSGVO) verlangt, dass Entscheidungen, die Personen beeinträchtigen könnten, nicht ausschließlich auf einer automatisierten Verarbeitung beruhen dürfen. In der Tat braucht es jenseits der technischen Möglichkeiten einen gesellschaftlichen Diskurs über den Nutzen und die Beherrschbarkeit der schönen neuen KI-Welt. Es bleibt an uns, unsere technische Zukunft zu steuern und selbst zu gestalten.

Autor: Matthias Kunisch, Geschäftsführer der forcont business technology GmbH  & Mitglied des Vorstandes des Cloud-EcoSystem e.V.

Datenschutzaufsichtsbehörden: Wearables und die Illusion vom Datenschutz

Bildquelle: fitbit.

Bildquelle: fitbit.

Das Bayerische Landesamt für Datenschutzaufsicht (BayLDA) beteiligte sich an einer deutschlandweiten Prüfaktion und prüfte gemeinsam mit sechs weiteren Aufsichtsbehörden Wearables. Auf dem Prüfstand standen sowohl Fitness-Armbänder als auch Smart Watches mit Gesundheitsfunktionen. Außerdem wurden die Apps der Hersteller einer technischen Analyse unterzogen. Das Ergebnis war eindeutig: kein Gerät erfüllt vollständig die datenschutzrechtlichen Anforderungen.

Daten interessieren Versicherer und Unternehmen der Gesundheitsbranche

Wearables, auch bekannt unter dem Begriff Fitness-Armbänder oder Activity-Tracker, sollen den Nutzer zu einer gesunden Lebensweise motivieren und die Bewegung im Alltag fördern. Schon lange können die Geräte Schritte zählen, zurückgelegte Kilometer messen und verbrauchte Kalorien erfassen. Doch die aktuellsten Wearables bieten noch viel mehr. Die geprüften Geräte überwachen die Herzfrequenz, bestimmen die Körpertemperatur über Sensoren auf der Haut und geben Rückmeldung über den Schlafrhythmus. Diese Angaben interessieren immer mehr Versicherer und Unternehmen der Gesundheitsbranche, sodass es sich lohnt, die Geräte genauer unter die Lupe zu nehmen.

Das BayLDA überprüfte zusammen mit den Datenschutzaufsichtsbehörden aus Schleswig-Holstein, Brandenburg, Niedersachsen, Nordrhein-Westfalen und Hessen sowie der Bundesbeauftragten für den Datenschutz und die Informationsfreiheit insgesamt 16 Wearables von Herstellern, die ca. 70Prozent des Marktanteils in Deutschland abdecken.

Geprüft wurden zum einen rechtliche Fragestellungen, wie z. B. die ausreichende Aufklärung über den Datenumgang oder die Frage, ob tatsächlich Gesundheitsdaten verarbeitet werden. Auch die Technik stand im Fokus. In drei deutschen Prüfzentren wurden die Geräte sowie deren Hersteller-Apps für die Betriebssysteme iOS und Android im Labor getestet.

Es wurden die Datenflüsse analysiert, um festzustellen, wer auf welche Daten Zugriff bekommen kann. Außerdem war ein Blick auf die Apps notwendig. Ohne die dazugehörigen A pps sind die meisten Wearables in ihrer Funktion erheblich eingeschränkt oder sogar unbrauchbar. Diese getesteten Apps wurden durch die Nutzer zusammen mehr als 30 Mio. Mal heruntergeladen.

Die Ergebnisse der Prüfung zeigen zahlreiche Mängel auf

  • Transparenz? Nachvollziehbarkeit? Fehlanzeige! Wer Wearables nutzt, muss zur Kenntnis nehmen, dass oftmals zahlreichen Firmen die Daten erhalten. Hersteller und Betreiber geben sich keine Mühe, Licht in das Dickicht aus Hardware-Hersteller, App-Betreiber, App-Shop-Anbieter und zahlreichen Dienstleistern zu bringen. Für den Nutzer bedeutet das, dass er sich oftmals nur pauschalen Datenschutzerklärungen gegenüber sieht und keine Chance hat, zu erkennen, wer für was zuständig ist und was mit den eigenen Daten bei wem passiert. Tests, bei den Anbietern Auskunft über die gespeicherten Daten zu erhalten, wurden entweder mit pauschalen Verweisen auf Datenschutzerklärungen beantwortet oder wegen vermeintlicher Nicht-Zuständigkeit abgewiesen. Hinzu kommt, dass die Anbieter teilweise im Ausland sitzen und nur eine internationale E-Mail-Adresse als Kontaktmöglichkeit anbieten.
  • Besonders schützenswerte Daten: Die Aufgabe der Fitness-Tracker und Apps ist es, Gesundheitsdaten und damit besonders schützenswerte Daten der Nutzer zu verarbeiten. Zwar sind die Einzelinformationen wie z. B. Körpergewicht, zurückgelegte Schritte, Dauer des Schlafes oder Herzfrequenz für sich betrachtet oftmals wenig aussagekräftig. In der Regel werden diese Daten jedoch mit eindeutig zugewiesenen Personenkennungen verbunden. Bei einer dauerhaften Nutzung fallen derart viele Informationen an, dass sich daraus ein erstaunlich präzises Bild des Tagesablaufs und Gesundheitszustands des Nutzers ergibt (was der Nutzer des Gerätes auch bezweckt). Insbesondere bei Verknüpfung der Einzelinformationen mit Standortdaten ergibt das sehr persönliche Informationen:
  • Wann bin ich morgens aufgestanden?
  • Habe ich unruhig geschlafen, (da ich am Vorabend Alkohol konsumiert habe)?
  • Wo beginnt und endet mein Weg zur Arbeit?
  • Warum bin ich aufgeregt und wieso schlägt mein Herz höher, obwohl ich seit 30 min auf dem Bürostuhl sitze?

All diese Fragen lassen sich beantworten, wenn die Daten der Wearables ausgewertet werden. Kritisch wird dieses insbesondere dadurch, dass viele der Geräte die Daten extern durch Dritte verarbeiten lassen und durch die unklaren Regelungen der Nutzer keine Kontrolle mehr darüber hat, wer die Daten von ihm sonst noch hat.

  • Datenschutzbestimmungen: Datenschutzbestimmungen sollen den Nutzer in die Lage versetzen, zu erkennen, wer welche Daten von ihm zu welchen Zwecken erhebt, was er damit macht und insbesondere auch, an wen er welche Daten weitergibt bzw. wer sonst noch Zugriff darauf hat. Die meisten Datenschutzerklärungen erfüllten diese gesetzlichen Anforderungen nicht. Sie waren in der Regel viele Seiten lang, schwer verständlich, enthielten zu essentiellen Datenschutzfragen nur pauschale Hinweise und waren teilweise nicht einmal in deutscher Sprache vorhanden. So erfährt der Nutzer oftmals nicht im ausreichenden Maße, wer konkret Zugriff auf die Daten hat und wie lange sie gespeichert werden. Dabei wäre es ein Leichtes, dies in wenigen kurzen Sätzen zu beschreiben. Oftmals wurde auch nur auf die generelle Datenschutzerklärung des Unternehmens verwiesen, die kaum konkreten Bezug zu dem Wearable hat.

Erstaunlich ist auch, dass fast kein Gerätehersteller über die besonders schützenswerten Gesundheits- und Standortdaten aufklärt – ganz im Gegenteil: einige Hersteller waren sogar der Auffassung, dass es sich dabei um anonyme Daten handle.

  • Daten mit Freunden teilen: Viele Geräte und Apps bieten die Möglichkeit, die aufgezeichneten Fitness-Daten mit Freunden z. B. über soziale Netzwerke zu teilen. Die Funktion soll den Nutzer zu häufigem Training und Bestleistungen anspornen und das gemeinsame Training fördern. Da hierbei auch sehr sensible Informationen preisgegeben werden können, darf das jedoch nur dann geschehen, wenn der Nutzer es ausdrücklich wünscht.
  • Datenweitergabe an Dritte: Beunruhigend sind auch die Aussagen vieler Hersteller zur Datenweitergabe. Einige Hersteller stellen klar, dass sie die Fitness-Daten der Nutzer für eigene Forschungszwecke und Marketing verwenden und an verbundene Unternehmen weitergeben. Der Nutzer erfährt weder, um wen es sich dabei handelt, noch kann er widersprechen. Ein klarer Verstoß gegen deutsches Datenschutzrecht.
  • Reichweitenmessung: Die technische Analyse brachte mehr Licht ins Dunkel. Fast alle Hersteller setzen Tracking-Tools US-amerikanischer Unternehmen ein. Mithilfe dieser Tools können Hersteller erfassen, wie die Geräte oder Apps genutzt werden, um die Benutzerfreundlichkeit zu verbessern. Die Daten können aber auch für Werbezwecke und zur Profilbildung verwendet werden. Zwar wird oft angegeben, dass hierzu nur anonyme Daten verwendet werden würden. Den Nachweis bleiben die Hersteller jedoch schuldig. Die Erfahrung zeigt, dass in der Regel in solchen Fällen weiterhin bei vielen Daten ein Personenbezug hergestellt werden kann.
  • Datenlöschung: Die Geräte sind schnell verloren oder technisch überholt, sodass zahlreiche Nutzer ihre gebrauchten Geräte weiterverkaufen wollen. Das birgt ein enormes Risiko. Nutzer glauben, dass mit dem Löschen der App alle Daten vernichtet sind. Das ist falsch! Bei vielen Geräten hat der Nutzer keine Möglichkeit, seine Daten selbstständig vollständig zu löschen. Weder im Gerät selbst noch im Nutzerkonto gibt es eine Löschfunktion. Einige Hersteller weisen sogar darauf hin, dass eine Löschung nicht möglich ist. Wie lange die Hersteller die Daten speichern, bleibt verborgen. Fakt ist, dass es sich hierbei um einen gravierenden Verstoß handelt.
 Thomas Kranig, der Präsident des BayLDA.

Thomas Kranig, der Präsident des BayLDA.

„Aufgrund unserer zahlreichen Prüfungen der letzten Jahre im Bereich Internet und smarte Geräte haben wir viel Erfahrung gesammelt. Auch diese Prüfung offenbarte Mängel im Datenschutz, die wir bereits bei anderen Testgeräten feststellten. Dass die Unternehmen ihren Aufklärungspflichten nicht immer vollständig nachkommen, ist bekannt. Mit Erschrecken mussten wir feststellen, dass gerade in sensiblen Bereichen wie Gesundheit und Bewegungsprofile die Daten häufig an Dritte übermittelt werden. Der Nutzer ist aufgrund der mangelnden Transparenz nicht mehr Herr seiner Daten und hat keine Chance zu verfolgen, in wessen Hände seine Gesundheitsdaten gelangen“, erklärte Thomas Kranig, der Präsident des BayLDA.

Einige Mängel ließen sich problemlos dadurch beheben, dass die Fitnessdaten der Wearables lediglich auf das Smartphone weitergeleitet und lokal verarbeitet werden. Eine permanente Übermittlung aller Daten vom Smartphone an Server diverser Firmen ist aus Sicht der Datenschützer in der Regel mit Risiken verbunden, denen sich die Nutzer bewusst sein sollten.

„Würden die Hersteller dieser Empfehlung nachkommen, würden in den wenigsten Fällen Gesundheitsdaten in die Hände Dritter gelangen. Die heutigen Smartphones sind so leistungsstark, dass sich dies ohne Funktionseinschränkung technisch ganz einfach umsetzen ließe. Indem die Hersteller jedoch alle Daten von der App weiterleiten, signalisieren sie ein eigenes Interesse an den

 

 

 

Vom Bitcoin Boom profitieren auch Cyberkriminelle

(Bildquelle: DigitalShadows)

(Bildquelle: DigitalShadows)

Der Run auf Kryptowährungen wie Bitcoin, Monero, Zcash und Ethereum wirft auch für Cyberkriminelle reichlich Gewinn ab. Nach einem aktuellen Report von Digital Shadows steigt die Anzahl an Services und Tools, die es Hackern ermöglicht, den Boom um die digitalen Währung auf illegalem Weg auszunutzen.

Mit mehr als 1.442 im Netz verfügbaren Kryptowährungen und wöchentlich neuen „alternativen Münzen“ (Altcoins) wächst das potentielle Betätigungsfeld für Cyberkriminelle rasant. Dabei profitieren sie von fehlenden Kontrollmechanismen, Sicherheitsproblemen und der Anonymität im Netz. Zu den beliebtesten Betrugsmaschen zählen Krypto Jacking, Mining Fraud und Account-Übernahmen durch Phising oder Credential Stuffing.

Attacken auf Kryptowährungsbörsen

Auch direkte Attacken auf Kryptowährungsbörsen (ICOs, Initial Coin Offerings) nehmen zu. Die japanische Kryptowährungsbörse Coincheck gab erst kürzlich einen Diebstahl ihrer Kryptowährung NEM im Wert von knapp 429 Millionen Euro bekannt. Von den Angreifern fehlt bislang jede Spur, die Art des Angriffs ließ sich nicht nachverfolgen.

„Kryptowährungen sind der Goldrausch unserer Zeit, wobei sich die unregulierte und weitgehend unsichere Welt der digitalen Währungen mit dem Wilden Westen vergleichen lässt“, erklärt Rick Holland, VP Strategy, Digital Shadows, einem Experten für Cyberbedrohuungen. „Käufer und Händler von Kryptowährungen sollten sich der Risiken bewusst sein und die Taktiken, Techniken und Prozeduren (TTPs) kennen. Es gilt, in allen Phasen des Transaktionszyklus wachsam sein.“

(Bildquelle: DigitalShadows)

(Bildquelle: DigitalShadows)

Zu den gebräuchlichsten Angriffsmethoden auf Kryptowährungen zählen

Crypto Mining durch Crypto Jacking

Beim Crypto Jacking zapfen Cyberkriminelle heimlich über Internet-Browser, Browsererweiterungen und mobile Apps die Rechnerleistung ab, um Kryptowährungen zu schürfen. Digital Shadows entdeckte eine neue Software namens „Crypto Jacker“, die Coinhive, Authedmine und Crypto-Loot in einem WordPress-Plugin (cj-plugin) kombiniert (einschließlich SEO-Funktionalitäten). Seit November 2017 ermöglicht es die Software für nur 29 Dollar, beliebte Webseiten zu klonen, um sie für Spam-Kampagnen zu nutzen.

 Angriff auf Tauschbörsen

Ähnlich wie bei klassischen Bankkonten greifen Cyberkriminelle die Benutzerkonten von Umtausch-Services an. Dabei nutzen sie Credential Stuffing oder Phising, um an Zugangsdaten zu gelangen, die anschließend zum Verkauf angeboten werden. Im Januar 2018 identifzierte Digital Shadows allein auf einem kriminellen Forum im Dark Web sensible Daten von mehr als 100 Benutzerkunden.

 Falsche Initial Coin Offerings (ICOs) und Kryptowährungen

Neben Angriffe auf legitime Tauschbörsen und Händler, finden sich im Netz auch falsche Dienstleister, die fiktive Kryptowährungen anbieten, um an das Geld hoffnungsvoller Anleger zu gelangen. In einem Job-Portal boomt der Stellenmarkt für Freischaffende, die in der Lage sind, Webseiten bekannter Tauschbörsen zu klonen oder neue Kryptowährungen zu entwickeln.

Kursmanipulation von Kryptowährungen

Sogenannte “Pump-and-Dump”-Services nutzen Social Media-Kanäle und Foren, um den Preis weniger bekannter Kryptowährungen durch falsche oder irreführende Posts künstlich in die Höhe zu schrauben. Sobald ein Höchstpreis erreicht ist, werden die Kryptowährungen abgestoßen. Im beliebten Messenger Discord beobachtete Digital Shadows allein im Januar 2018 mehr als 20 Chat-Kanäle zu diesem Thema.

Europäischer Datenschutztag 2018: Diese Tipps schützen vor Datenmissbrauch im Netz

Dr. Carsten Föhlisch ist Bereichsleiter Recht sowie Prokurist von Trusted Shops  und seit vielen  Jahren im E-Commerce-Recht tätig.

Dr. Carsten Föhlisch ist Bereichsleiter Recht sowie Prokurist von Trusted Shops und seit vielen Jahren im E-Commerce-Recht tätig.

Der Europäische Datenschutztag wird jährlich am 28. Januar begangen. Das Ziel: Für den Umgang mit personenbezogenen Daten zu sensibilisieren. Wie akut das Thema ist, belegt eine aktuelle YouGov-Studie: Jeder Fünfte shoppt mit wenig Vertrauen im Netz und hat Angst vor Datenmissbrauch. Was tun gegen diesen Identitätsdiebstahl? Dazu fünf Tipps von Dr. Carsten Föhlisch, Verbraucherrechtsexperte des europäischen Online-Gütesiegels Trusted Shops.

Tipp 1: Manchmal ist weniger mehr

Dr. Carsten Föhlisch: Ob in sozialen Netzwerken oder auch beim Online-Shopping – Verbraucher sollten sparsam mit den eigenen Daten umgehen. Sie sollten niemals mehr preisgeben, als es unbedingt notwendig ist. Nur so können Verbraucher vermeiden, dass ihre Daten in falsche Hände gelangen. Das gilt auch für die E-Mail-Adresse. Online-Händler beispielsweise benötigen zwar immer eine E-Mail-Adresse, um eine Bestellbestätigung schicken zu können, aber besonders bei Foren oder Gewinnspielen sollten Verbraucher aufmerksam sein und auf Seriosität achten. Zudem sind Spam-Mails im Posteingang oftmals sehr ärgerlich. Um diese zu vermeiden, sollte die E-Mail-Adresse nicht zu leichtfertig angeben werden.

Tipp 2: Keine unverschlüsselten Daten übertragen

Dr. Carsten Föhlisch: Beim Online-Shopping sind die Zahlung per Kreditkarte oder Einzugsermächtigung gängige Verfahren. Verbraucher sollten Zahlungsdaten niemals unverschlüsselt übertragen. Denn sonst könnten die Daten leicht abgefangen und für andere Zwecke missbraucht werden.

Was viele Verbraucher nicht wissen: Beim Senden von unverschlüsselten Daten verstoßen viele Online-Käufer gegen die Bedingungen ihrer Bank. Um auf der sicheren Seite zu sein, ist es deshalb ratsam, dass Verbraucher vor dem Senden der Zahlungsdaten immer schauen, ob im Browserfenster ein Schloss-Symbol bzw. ein „https“ in der URL angezeigt wird. Das Symbol garantiert eine verschlüsselte Datenübertragung.

Tipp 3: Unseriöse Online-Shops erkennen

Dr. Carsten Föhlisch: Im Internet gibt es zahlreiche Online-Shops. Die meisten Shop-Betreiber sind ehrliche Händler. Doch immer häufiger nutzen Betrüger sogenannte Fake-Shops, um Verbraucher abzuzocken. Verbraucher sollten deshalb unbedingt auf eine vollständige Anbieterkennzeichnung sowie auf umfängliche Informationen zu Widerruf, Versandkosten und Zahlungsmethoden achten.

Bei unseriösen Shop-Betreibern sind diese oft fehlerhaft oder schwer zu finden. Zudem kann eine kurze Internetrecherche sinnvoll sein. Vielleicht gibt es Negativeinträge in Foren, die zu erhöhter Wachsamkeit mahnen. Lässt sich ein Online-Shop darüber hinaus von seinen Kunden direkt bewerten und blendet das Ergebnis auf seiner Website ein – etwa über das Kundenbewertungssystem –, kann dies zusätzlichen Aufschluss über die Qualität von Service und Angebot geben. Trusted Shops stellt die Unabhängigkeit und Echtheit der Bewertungen über eine mehrstufige Überprüfung sicher. Darüber hinaus sollten Verbraucher schauen, ob ein Shop mit einem Gütesiegel zertifiziert ist. So geraten die sensiblen Daten gar nicht erst in falsche Hände.

Tipp 4: Passwörter niemals auf öffentlichen PCs speichern

Dr. Carsten Föhlisch: Gespeicherte Passwörter erleichtern das Surfen im Internet, da das lästige Einloggen entfällt. Jedoch sollten Internet-Nutzer unbedingt darauf verzichten, wenn sie an einem öffentlichen Computer, zum Beispiel in einem Internetcafé, sitzen. Die Passwörter werden über sogenannte Cookies gespeichert, die auf dem Computer abgelegt werden.

Vergisst der Nutzer am Ende die Cookies zu löschen, wird der nächste Computernutzer automatisch mit dem Account angemeldet. Was viele nicht wissen: Einige Computerviren lesen die Cookie-Listen ohne Zustimmung des Nutzers aus. Grundsätzlich sollten Verbraucher es Betrügern schwer machen, das Passwort zu knacken.

Die verwendeten Passwörter sollten immer aus einer Kombination von Sonderzeichen, Buchstaben und Zahlen bestehen. Am besten verwendet man unterschiedliche Passwörter für verschiedene Anwendungen. Regelmäßiges Ändern des Passworts und Sicherheitsfragen, die nur vom Verbraucher selbst beantwortet werden können, schützen zusätzlich vor Datenmissbrauch.

Tipp 5: Zuerst die Allgemeinen Geschäftsbedingungen lesen, dann zustimmen

Dr. Carsten Föhlisch: Bei sozialen Netzwerken und Internet-Diensten müssen sich Nutzer häufig registrieren. Auch wenn es keine spannende Lektüre ist, ist es empfehlenswert, dass sich Nutzer trotzdem unbedingt die AGB und die Datenschutzerklärungen bei der Registrierung durchlesen. Denn nur so wissen Nutzer, was mit ihren Daten geschieht.

Beispiel facebook: Hier sollten Nutzer einiges beachten. Drückt ein Nutzer auf einer Internetseite einen „Gefällt mir“-Button und ist gleichzeitig bei facebook angemeldet, dann erhält das soziale Netzwerk die Information, dass der Nutzer die Website besucht hat. Die Information wird auch dann übertragen und kann dem Nutzerprofil zugeordnet werden, wenn der Nutzer den Button nicht gedrückt hat.

Watson, wir haben (k)ein Problem

Watson_IBMGroße Konzerne, Start-ups und Kooperationen investieren gerne in Künstliche Intelligenz (KI): 2016 flossen zwischen 26 und 39 Milliarden US-Dollar in die Forschung und Entwicklung kognitiver Systeme und Roboter, so eine Studie. In der jüngeren medialen Berichterstattung zur ‚KI‘ von IBM ist Watson aber ein wenig in Misskredit geraten.

Einige großen Projekte etwa mit Versicherungskonzernen erbrachten bisher nicht die gewünschten Ergebnisse. Ein oft geäußerter Vorwurf dabei lautet, dass durch die offensive Medienkampagne von IBM zu Watson Erwartungen geweckt wurden, die die Technologie nicht bzw. noch nicht erfüllen kann. „Dieser Vorwurf zeigt jedoch auch ein großes Missverständnis in der öffentlichen wie geschäftlichen Wahrnehmung, in der Watson immer wieder als die den Menschen verstehende ‚Maschine‘ personifiziert wird“, bemerkt Ursula Flade-Ruf, Geschäftsführerin von Management Informations Partner. Doch was ist denn ‚Watson‘ eigentlich genau?

 Reduktion auf Watson als einzelne Maschine

„Diese Reduktion auf Watson als einzelne Maschine hat in der Vergangenheit sicher für die ein oder andere Verwirrung gesorgt“, so Markus Ruf, Geschäftsführer und Big-Data-Experte bei mip GmbH. „Er ist aber weder ein einzelner Superrechner, noch eine irgendwie geartete individuelle KI. Vielmehr ist Watson eine Plattform verschiedenster Services und Verfahren, die auf derselben Technologie basieren. Es handelt sich bei Watson nicht um ein Produkt, sondern um viele Einzelprodukte. Auch sind diese meistens auf mehreren Rechnern installiert – von einer ‚Maschine‘ oder einem ‚Watson‘ kann also keine Rede sein.“

KIs im B2C und B2B – Vergleiche hinken

Zudem wird Watson gerne seinen KI-Brüdern und -Schwestern aus dem B2C-Bereich gegenübergestellt. „Ungerechterweise“, wie Flade-Ruf meint, „denn hier werden Äpfel mit Birnen verglichen. Die mit Watson verbundenen Services und Entwickler-Tools von IBM sind ausschließlich auf den B2B-Sektor ausgerichtet.“ Alexa, Siri, Cortana, Google Home und Co haben es hingegen mit den Endkunden im B2C erheblich einfacher, rasche Erfolge vorzuweisen, da sie jeden Tag von Millionen Menschen genutzt, mit Informationen gefüttert und dadurch stetig trainiert werden.

Dass diese Geräte schnell eine große Menge an Informationen zu Personen und ihren Vorlieben ansammeln und dann auch anwenden, ist leicht nachvollziehbar. Allerdings geschieht dies durch ein ständiges Mithören, was eigentlich jeden Nutzer aufhorchen und vorsichtiger werden lassen sollte. Wem die Daten am Ende gehören und wo sie genau gespeichert sind (was wichtig für die Datenschutzrichtlinien ist), ist meist nicht eindeutig geklärt oder steht gut versteckt im Kleingedruckten.

Daten bleiben Eigentum der Watson-Nutzer

„Solch ein Vorgehen unterscheidet sich erheblich vom projektbezogenen, individuellen Daten-Training mit Watson“, meint Flade-Ruf. „Hier hat IBM zudem eine Art Code of Conduct für Cloud Services in Verbindung mit KI-Daten verfasst, sodass die innerhalb eines Projektes gewonnenen Informationen immer Eigentum der jeweiligen Service-Nutzer bleiben – und bisher hält sich IBM auch daran.“

Damit lässt sich auch der Vorwurf einiger Unternehmen entkräften, dass man ja bei Watson nicht genau wisse, wem schließlich sowohl die eingespielten als auch die neu gewonnenen Daten gehören würden. Unterm Strich lassen sich die KIs durch die völlig verschiedenen Zielrichtungen der Hersteller und Einsatzgebiete nur schwer bis überhaupt nicht miteinander vergleichen.

Watson-Projekte benötigen einen längeren Atem – zeitlich und finanziell

Künstliche Intelligenz ist kein neues Phänomen. Schon seit Jahrzehnten taucht der Begriff in Verbindung mit Regressionsanalysen, Clustering oder Multivariable-Verfahren auf. Dem autonomen Lernen wird dabei eine besonders große gesellschaftliche sowie wirtschaftliche Bedeutung zugemessen, was unter anderem das nahezu exponentielle Wachstum von Fundraising-Projekten rund um Start-ups im Bereich Deep oder Machine Learning erklärt.

Nach den jüngsten Kritiken zu urteilen haben aber scheinbar viele Unternehmen den Aufwand, der mit einem Watson-Projekt auf ein Unternehmen zukommt, unterschätzt. „So hat ein Beispiel eines Kunden aus der Bekleidungsbranche gezeigt, wie viel Arbeit etwa ein Training von Watsons Visual Recognition kosten kann“, wirft Ruf ein. „Für die visuelle Unterscheidung von Kleidungsstücken wurden rund 30.000 Bilder benötigt, bis der Service autonom funktionierte.“

Auch in der Medizin oder bei Versicherungsfällen muss eine riesige Menge an Daten herangezogen werden, um eine verlässliche statistische Auswertung zu ermöglichen. „Die Intelligenz der Programme und Services wird natürlich stetig weiterentwickelt“, ergänzt Markus Ruf. „Die Wissensdatenbanken, die sich dahinter verbergen, müssen allerdings den Watson-Systemen in den einzelnen Projekten immer wieder neu beigebracht werden.“

Kooperationen entscheidend für Weiterentwicklung von KI

Um solche Mengen an Daten bereitstellen und die zur Verfügung stehenden KI-Services voll ausnutzen zu können, seien Kooperationen unerlässlich, so Flade-Ruf. „Viele Unternehmen sind auf bestimmte Bereiche wie etwa visuelle Wahrnehmung und Verarbeitung, Robotik, Sprachverarbeitung und -analyse oder Datenauswertung spezialisiert und müssen deshalb auch in komplexe Watson-Projekte miteinbezogen werden.“ Unter anderem arbeiten IBM, Apple, Amazon, die Google-Tochter Deep Mind, Facebook und Microsoft an gemeinsamen Projekten rund um das Thema Künstliche Intelligenz.

„IBM hat zudem die Plattform PowerAI installiert, auf der von verschiedenen Herstellern Frameworks zu Deep Learning und unterstützende Datenbanken angeboten werden“, erklärt Flade-Ruf. „Das Unternehmen präsentiert sich in diesem Zusammenhang auch sehr offen: Es gibt einige Open-Source-Projekte oder freie Services aus der Bluemix Cloud.“ Am Ende möchte IBM möglichst viele Experten unter seinem technologischen Dach vereinen, um die Watson-Funktionalitäten künftig noch erheblich zu erweitern.

Konkrete erfolgreiche Anwendungsbeispiele selten

Eine Schwierigkeit im Zusammenhang mit Watson-Projekten ist das Fehlen von allgemeingültigen weltweiten Anwendungsfällen, wie sie im B2C-Bereich mit Alexa, Siri oder Cortana vorhanden sind. „Watson-Projekte sind dagegen äußerst industrie- und unternehmensspezifisch“, erklärt Flade-Ruf. „Vieles passiert hier hinter verschlossenen Türen, da sich niemand zu früh von Mitkonkurrenten in die KI-Karten schauen lassen möchte.“

Ein großer Teil stammt dabei aus dem Bereich Internet of Things (IoT) im industriellen Sektor. Big Data in Form von Sensor- und Maschinendaten soll dort im Predictive-Maintenance-Umfeld und zur Qualitätssicherung eingesetzt werden. IBM kooperiert beispielsweise mit Unternehmen wie Schaeffler, Bosch, BMW, Citroen, Renault etc.

Ein anderer Bereich, in dem ein großes Potenzial gesehen wird, ist die Unterstützung von Call-Centern und -Services etwa im Öffentlichen Dienst oder Versicherungs- und Banking-Umfeld, aber auch im technischen Support. Hier sollen KI-gestützte Systeme automatisch Kunden identifizieren und Empfehlungen zum Umgang mit diesen an die Sachbearbeiter vorschlagen.

Die Nachfrage nach Künstlicher Intelligenz steigt auch in der Ausbildung. „So haben Experten von IBM und der mip GmbH einen halbtägigen Workshop zum Thema ‚Künstliche Intelligenz – Watson Services für Chat-Bots nutzen‘ an der Technische Hochschule Nürnberg abgehalten“, bemerkt Ruf. Die Studenten konnten im Verlauf der Veranstaltung die verschiedenen Cloud-Services von Watson ausprobieren und beispielsweise die Spracherkennung des Bots trainieren.

KI-gestützte Chatbots voll im Trend

Einen Schritt weiter gehen intelligente Chatbots, die eigenständig komplette Chat-Sessions mit Kunden oder Mitarbeitern bewältigen können, um etwa FAQs zu beantworten oder Bestellungen abzuwickeln. „Auf dem Watson Summit wurde ein Chatbot vorgestellt, der Siemens für das eigene Personal basierend auf den IBM Conversation Services und anderen Watson-Tools entwickelt wurde“, so Flade-Ruf. Mitarbeiter können mit diesem interagieren und erhalten automatisiert Antworten auf ihre Fragen.

Auch im juristischen Umfeld könnten eine Vielzahl an einfacheren Rechtsfällen über einen Watson-Service abgebildet werden. DoNotPay ist ein Beispiel für einen intelligenten Chatbot, der Nutzer in kleinen Rechtsfragen wie etwa Falschparken unterstützt.

Ein weiteres Feld umfasst das Thema Enterprise Search, in dem Watson-basierte Tools wie das Natural Language Processing zur Verarbeitung menschlicher Sprache und das Watson Knowledge Studio, welches ein branchenspezifisches Training ohne Programmierungskenntnisse ermöglicht, eingesetzt werden.

„Mit Enterprise-Search-Systemen lassen sich schnell große Mengen an Informationen durchsuchen und personenbezogen aufbereiten“, erklärt Ruf. Die Lösung lernt dabei, welche Informationen für den jeweiligen Nutzer besonders relevant sind und zeigt diese dann übersichtlich in einem Dashboard an.

Ist Watson mittelstandstauglich?

Neben all dem Interesse an der Künstlichen Intelligenz offenbart die McKinsey-Studie aber auch, dass sich kleine und mittelgroße Unternehmen in diesem Bereich noch schwer mit der Umsetzung von Projekten tun: So setzen gerade einmal neun Prozent bereits maschinelles Lernen im größeren Maßstab ein. Nur zwölf Prozent gaben an, dass sie das Experimentierstadium bereits verlassen hätten.

„Unser Rat ist, dass Unternehmen mit der Umsetzung von Watson-Projekten erst einmal klein anfangen sollten“, bemerkt Flade-Ruf. „Watson ist kein fertiges Produkt und vor dem Training sozusagen noch ‚dumm‘. Deshalb müssen Ziele und Trennschärfen im Vorfeld klar formuliert werden.“ Umso eindeutiger sich Themen definieren und Grenzen ziehen lassen, desto einfacher und schneller lässt sich auch zum Beispiel ein Chatbot aus den verschiedenen Watson-Komponenten zusammenstellen und mit einer spezifischen Wissensdatenbank trainieren.

„Zudem ist ein großes Team erforderlich, dass sich aus unterschiedlichen Qualitäten zusammensetzt, die die von üblichen IT-Projekten übersteigen“, so Flade-Ruf: „Man benötigt unter anderem Business-User sowie -Analysten, KI-Experten, Programmierer, Prozess-Spezialisten für die Einbindung der KI in die Systemlandschaft.“ Ein weiterer Punkt, der bei Watson-Projekten bedacht werden muss, ist die Ausrichtung aller Watson-Services auf die Cloud. „Das ist auch sinnvoll, da es zum Beispiel gerade im Bereich Sensorik meist um Maschinendaten aus Anlagen auf der ganzen Welt geht“, bestätigt Ruf. „Hier müssen sich die Kunden also in ihrer Unternehmensstrategie entscheiden, welchen Weg sie gehen wollen.“

Viele KI-Experimente, wenig Ertrag

Im Watson-Umfeld tut sich viel, doch fehlen vielerorts noch die Erträge. Flade-Ruf: „Leider erkennen wir gerade den Trend, dass Unternehmen Projekte in Eigenregie durchführen – und dabei oft scheitern, ohne die entsprechenden Schlüsse daraus zu ziehen.“ Dabei bieten der Markt oder auch Watson selbst viele Open-Source-Möglichkeiten an, um Wettbewerbsvorteile zu generieren oder neue Geschäftsmodelle aufzubauen.

Experimentieren ist dadurch also nahezu ohne große eigene finanzielle Aufwände möglich. „Das Scheitern solcher Ansätze, wie etwa im Start-up-Umfeld, ist ein immanenter Bestandteil solcher Experimente“, bemerkt Flade-Ruf. „Jedoch hat sich in Deutschland bisher keine ‚Fast-Fail-Kultur‘, also der schnelle Übergang von einem Fehlschlag zu einem neuen optimierten Versuch, entwickeln können.“ Dieser Trend fordert IT-Dienstleister heraus, da es immer schwieriger wird, die eigene Expertise in solche Projekte einzubringen. Viele Firmen befürchten scheinbar, dass KI-Know-how über externe Berater zur Konkurrenz wandern könnte. Ruf: „Auf der anderen Seite können Unternehmen von den Erfahrungen von Spezialisten wie uns spürbar profitieren, um beispielsweise Projekte schneller erfolgreich abschließen zu können.“

Vertrauensfrage: Wie viel Datensicherheit kann Gerätekontrolle bieten?

blitzeIn der zunehmend digitalisierten und vernetzten Wirtschaft sind flexible Arbeitsmodelle längst ein fester Bestandteil. Der zeitlich und örtlich unbegrenzte Zugriff auf Unternehmensdaten und -anwendungen vereinfacht Unternehmensprozesse und gibt den Mitarbeitern mehr Gestaltungsspielraum in der Organisation ihrer Arbeitsabläufe. Um dabei die Sicherheit von Unternehmensdaten zu gewährleisten, bestimmt seit Jahren das Konzept der „trusted devices“ – vertrauenswürdigen Geräte – die Sicherheitsstrategie von Unternehmen.

Organisationen weltweit, darunter Regierungsbehörden und Banken, operieren auf Basis dieses Ansatzes. Jedoch gerät dieser im Zeitalter fortschreitender Digitalisierung und Mobilität zunehmend an seine Grenzen.

Sichere Geräte = sichere Daten?

Einfach ausgedrückt gilt die Einstufung „vertrauenswürdig“ für Geräte, die den Unternehmen bekannt sind, die bestimmte Sicherheitsanforderungen erfüllen und über die die Unternehmens-IT ein gewisses Maß an Kontrolle hat. Typischerweise sind diese Geräte mit einem Software-Agenten ausgestattet, der den Datenverkehr an das Unternehmensnetzwerk weiterleitet, so dass grundlegende Sicherheitsüberprüfungen wie ein Zugangscode und ein Check des aktuellen Betriebssystems durchgeführt werden können.

Sobald diese Prüfungen erfolgt sind, erhält ein vertrauenswürdiges Gerät in der Regel uneingeschränkten Netzwerkzugriff, so dass der Benutzer alle Informationen abrufen kann, die er benötigt, um aus der Ferne arbeiten zu können. In der Regel bedeutet dies, dass ein VPN-Tunnel zum Firmennetzwerk geöffnet wird, der den Nutzern einen ungehinderten Dienstzugang ermöglicht.

Unter IT-Managern haben sich vor allem die Apple-Geräte den Ruf erworben, einfacher zu verwalten und auf Grund der abgeschlossenen Plattform sicherer zu sein. Zwar sind die heutigen Mobilplattformen meist viel sicherer als Legacy-Lösungen, doch alle – auch Apple – sind weiterhin anfällig für Datenverlust, beispielsweise durch gezielte Cyber-Angriffe oder direkt durch Verlust oder Diebstahl des Geräts.

Um angesichts derartiger Risiken die Datensicherheit gewährleisten zu können, setzen Unternehmen auf eine verstärkte Kontrolle der Mobilgeräte. Im Zuge dessen kommen Mobile Device Management (MDM)- oder Mobile Application Management (MAM)-Lösungen zum Einsatz. Diese installieren Agenten auf den Mobilgeräten und ermöglichen der IT-Abteilung die umfassende Kontrolle derselben. Alle Aktivitäten werden dann durch das Unternehmensnetzwerk geleitet, Kontrollfunktionen wie Kennwortschutz, Fernlöschung von Daten sowie Beschränkungen bei unsicheren Netzwerkverbindungen werden von der IT-Abteilung über eine zentrale Plattform ausgeübt. So ist diese in der Lage, die Unternehmensdaten im Blick zu behalten und notfalls schnell reagieren zu können.

Vertrauen ist gut – doch ist Kontrolle wirklich besser?

Autor: Mike Schuricht ist VP Product Management bei Bitglass, einem weltweit tätigem Anbieter einer Cloud-Access-Security-Broker-Lösung sowie von agentenloser Mobilsicherheit mit Sitz im Silicon Valley. Die Lösungen des Unternehmens ermöglichen durchgängige Datensicherheit, von der Cloud zu dem Gerät.

Autor: Mike Schuricht ist VP Product Management bei Bitglass, einem weltweit tätigem Anbieter einer Cloud-Access-Security-Broker-Lösung sowie von agentenloser Mobilsicherheit mit Sitz im Silicon Valley. Die Lösungen des Unternehmens ermöglichen durchgängige Datensicherheit, von der Cloud zu dem Gerät.

Was eine weitreichende Kontrolle über die Unternehmensdaten bietet, bringt langfristig jedoch auch Schwierigkeiten mit sich: Sowohl die Einrichtung als auch die Pflege von MDM/MAM-Software ist mit einigem logistischen Aufwand verbunden. Je nach Unternehmensgröße müssen IT-Teams die Software auf ein paar Dutzend bis hin zu mehreren tausend Geräten verwalten und sicherstellen, dass die Agenten regelmäßig aktualisiert werden und alles korrekt funktioniert.

Paradoxerweise führt die umfassende Kontrolle wiederum zu einem Vertrauensverlust – und zwar auf Seiten der Mitarbeiter. Durch die mobilen Agenten sind für das Unternehmen theoretisch sämtliche Aktivitäten der Mitarbeiter nachvollziehbar. Dies ist besonders heikel, wenn Mitarbeiter ihre privaten Geräte für die berufliche Nutzung zur Verfügung stellen. Private Bankgeschäfte, Aktivitäten in sozialen Netzwerken und jede Menge persönlicher Informationen werden neben Unternehmensdaten ebenfalls per Proxy über das Unternehmensnetzwerk übertragen.

Derartige Fälle werfen zudem auch Fragen des innerbetrieblichen Datenschutzes auf. Die meisten Mitarbeiter sind nicht glücklich darüber, dass die Unternehmens-IT Einblick in ihre Daten erhält. Eine von Bitglass durchgeführte Umfrage ergab, dass nur 44 Prozent der befragten Angestellten mit MDM- oder MAM-Software auf ihrem privaten Telefon einverstanden wären. In derselben Umfrage gaben mehr als zwei Drittel (67 Prozent) der Befragten an, dass sie grundsätzlich bereit wären, ihre privaten Mobilgeräte auch für die berufliche Nutzung bereitzustellen, sofern ihr Arbeitgeber die Möglichkeit hätte, Unternehmensdaten zu schützen, ohne die Fähigkeit zu besitzen, ihre persönlichen Daten einzusehen, zu ändern oder zu löschen.

Auf den Punkt gebracht bedeutet dies: Die Unternehmen erhöhen mit MDM-Lösungen die Kontrolle und sichern sich weitreichende Zugriffsrechte, um Geräte nach ihren Maßstäben „vertrauenswürdig“ zu machen. Dies erfolgt jedoch auf Kosten des Vertrauens der Mitarbeiter, und unter Umständen auch zu Lasten der Sicherheit, sofern sie die Kontrollmechanismen durch MDM umgehen sollten.

Vertrauenskrise? Auf ins Datenzeitalter

Es zeichnet sich ab, dass es für Unternehmen langfristig eine Herausforderung darstellen wird, Vertrauen, Gerätekontrolle und Datensicherheit optimal miteinander in Einklang zu bringen. Gleichzeitig gewinnt mit der fortschreitenden Digitalisierung die Rolle von Daten immer mehr an Bedeutung. Als Anzeichen dieses sich vollziehenden Wandels können nicht zuletzt die großen Datendiebstähle in jüngster Vergangenheit sowie eine verstärkt auf Datenschutz abzielende Gesetzgebung angesehen werden.

Dabei sei erwähnt, dass in der IT die Sicherung von Geräten zum Schutz der darauf befindlichen Daten lange Zeit der einzig sinnvolle Ansatz war. Jedoch wird zunehmend deutlich, dass vertrauenswürdige Geräte nur schwer mit dem Begriff “sicher” gleich gesetzt werden können. Kein Gerät ist vor Datenverlust gefeit. Für Unternehmen ist es daher an der Zeit, Daten in den Mittelpunkt ihrer IT-Sicherheitsstrategie zu rücken und ausgehend davon entsprechende Sicherheitsmaßnahmen zu ergreifen.