Category Archives: Topstory

Mit Sicherheit auf dem Weg in die Plattformökonomie

Bildquelle: Fotolia_146248266_M

Bildquelle: Fotolia_146248266_M

Wenngleich in den Diskussionen rund um das Thema Plattformökonomie der Fokus zumeist auf die Geschäftsmodelle gelegt wird, gibt es mittlerweile vermehrt Jene, die eine Technologiebetrachtung als bedeutender erachten.

Auch bei der Beurteilung von Chancen und Risiken herrscht keine Einigkeit – während von einigen Experten die Plattformökonomie als das probate Mittel im globalen Wettbewerb ausgewiesen wird, sehen andere wie etwa Prof. Lutz Becker, Leiter der Business School und Studiendekan Sustainable Marketing & Leadership an der Hochschule Fresenius, Köln hier gleichwohl Probleme.

So vertritt er unter anderem die Auffassung, dass „Plattformen aufgrund ihrer Marktmacht die Wirtschaftsverfassung unterhöhlen“. Ebenso müsse hinterfragt werden, wie die zunehmende Komplexität noch kontrollierbar sei. Eine Frage, die – im Sinne der Resilienz – definitiv auch im Kontext der notwendigen Sicherheit zu stellen ist. „Denn festzuhalten ist, dass die Plattformökonomie Angebot und Nachfrage datenbasiert zusammenbringt“, so Bernd Fuhlert, Experte für Datenschutz und Online Reputation Management sowie Geschäftsführer der @-yet GmbH

Bezüglich des digitalen Durchdringungsgrads und einer daraus resultierenden Effizienzsteigerung gibt es momentan bei deutschen Unternehmen kaum ein einheitliches Bild. Die eher zögerliche Haltung liegt teilweise darin begründet, dass sich vielfach – basierend auf dem bestehenden Geschäftsmodell – noch kein strategischer Ansatz für ein neues, disruptives entwickeln ließ; sowie damit einhergehend auch, dass sich aus den bisherigen Aktivitäten in Richtung digitale Transformation, gemäß den Ergebnissen einer aktuellen Lünendonk-Studie, momentan nur wenig Wettbewerbsvorteile ergeben.

Gleichwohl werden jedoch bereits weitere programmatische Schritte unternommen: die Etablierung digitaler Plattformen im industriellen Umfeld. Diese Entwicklung ist erklärbar, denn zum einen ist eine gewisse Dringlichkeit nicht zuletzt aus dem Grund geboten, weil sich hier, anders als im Konsumentenbereich, noch keine Vormachtstellung internationaler Unternehmen herausgebildet hat.

Zum anderen sind Grundprinzip und Erfolgsrezept der bekannten Unternehmen wie Amazon oder Airbnb relativ gut reproduzierbar – mehrseitige Plattformen erleichtern im erheblichen Maße Interaktion und Transaktion zwischen unterschiedlichen Parteien.

Doch über den Erfolg wird bei den industriellen Plattformen auch, weitaus mehr als im Konsumentenbereich, die Gewährleistung der Sicherheit entscheiden. Nicht zuletzt unter dem Aspekt, dass „Wirtschaftsspionage seit jeher einer der Schwerpunkte der Ausspähungsaktivitäten fremder Nachrichtendienste ist“ wie Michael George, Leiter Cyber-Allianz-Zentrum, Bayerisches Landesamt für Verfassungsschutz erklärt.

 Mögliche Angriffsziele

Die grundsätzliche Betrachtung von Plattformen erfasst zwei Dimensionen: die wirtschaftliche sowie die technologische. Gemäß letzterer basiert die Plattformökonomie unter anderem im ersten Schritt auf dem Zusammenwachsen von Informationstechnologie (IT) mit der Operational Technologie (OT) auf dem Shop Floor. Denn dies ermöglicht, im Rahmen von Industrie 4.0 die Vernetzung einzelner Unternehmensebenen sowie eine unternehmensübergreifende Vernetzung mit Kunden und Lieferanten.

Im Weiteren ergeben sich dann, aus der vertikalen und horizontalen Integration auf der einen Seite, in Verbindung mit Plattformtechnologien wie Infrastructure as a Service (IaaS) auf der anderen Seite die Voraussetzungen für neue Geschäftsmodelle, da dadurch die Einsetzbarkeit zur Interaktionen sowie Transaktionen mit vielen unterschiedlichen Marktteilnehmern besteht. Hierin liegen jedoch nicht nur Chancen sondern auch Risiken. Denn, so die Erfahrung von Michael George, „Angriffe sind umso erfolgreicher, je zielgerichteter sie ausgeübt werden können“. Aus diesem Grund optimieren Angreifer ihre Methoden beständig.

So beobachtet der Experte momentan, dass die so genannte Watering-Hole-Attacke vermehrt zum Einsatz kommt. Diese basiert – entlehnt aus dem Tierreich in der Wüste – auf der Annahme, dass es bestimmte Portale, Plattformen oder Systeme gibt, die viele Anwender mit hoher Wahrscheinlichkeit oft aufsuchen müssen.

Dem Gedanken aus der Tierwelt folgend, werden Anwender also nicht direkt angegriffen, sondern das von ihnen zwangsläufig genutzte ‚Wasserloch’ infiziert, da dies weitaus effizienter und wirkungsvoller ist. In der Praxis wurden entsprechende Angriffe zum Beispiel auf Unternehmen aus dem Energiesektor durchgeführt – unter anderem indem die Webseiten eines Anbieters unter Ausnutzung einer Sicherheitslücke dergestalt manipuliert wurden, dass Rechner von Besuchern hinterher mit Schadsoftware in Form eines Fernsteuerungs-Trojaners (RAT) infiziert waren.

Zudem werden permanent gravierende Schwachstellen publik gemacht: Beispielsweise aktuell die Sicherheitslücken Spectre und Meltdown – letzterer in erster Linie detektiert bei Prozessoren von Intel – aus denen sich verschiedene Zugriffsmöglichkeiten, wie etwa das Auslesen von Speichern, ergeben. Auch wenn sich nach Ansicht von Prof. Becker ein Angriff über Spectre keinesfalls leicht realisieren lässt, so geht er doch davon aus, dass diese Lücke ausgenutzt wird „weil sich ein erhöhter Aufwand immer lohnt, wenn mit einer einzigen Attacke viel erreicht werden kann“. Zusätzlich gefährdet seien Unternehmen auch, da oftmals noch – gerade im Produktionsumfeld – veraltete Hard- und Software vorzufinden ist, die per se nicht mehr den erforderlichen Sicherheitsstandards entsprechen kann. „Insgesamt gesehen stellt“, so Bernd Fuhlert, „also Digitalisierung ohne IT-Sicherheit im Fokus klar erkennbar ein unkalkulierbares Risiko für Verbraucher und Unternehmen dar.“

Der richtige Schutz

Im Zuge von Industrie 4.0 ist es nicht mehr möglich, ein Unternehmen nach außen komplett abzuschotten, da dies dem Prinzip der notwendigen durchgängigen Kommunikation und Interaktion widerspricht. Von daher nutzt es nach Ansicht von Michael George nur wenig, sich darauf zu fokussieren alle internen Schnittstellen wie USB-Ports und DVD-Laufwerke abzusichern, während zwangsläufig durchlässige Übergänge zum Internet bestehen. Aber da auch die herkömmliche Perimeter-Sicherheit, mittels derer die Übergänge zwischen Unternehmensnetzwerk und Internet geschützt werden sollen, nicht mehr ausreichen, müssen Unternehmen generell umdenken.

Seit 2016 ist Bernd Fuhlert Geschäftsführer der @yet GmbH.

Seit 2016 ist Bernd Fuhlert Geschäftsführer der @yet GmbH.

Folglich sollte, nach Meinung von Fuhlert und George, die Grundlage der Abwehrstrategie die Annahme bildet, dass „es ein Angreifer erfolgreich schafft, bis ins interne Unternehmensnetzwerk vorzudringen“. Dass dieser Gedanke substanziell ist, darin sind sich beide Experten einig. Denn daraus lässt sich ableiten, dass die Durchführung geeigneter Gegenmaßnahmen darauf basieren, den Angreifer möglichst zeitnah zu identifizieren. Wobei dies wiederum nicht so zu verstehen sei, dass Unternehmen dem Aufdecken und Absichern von Schwachstellen keine oder nur wenig Bedeutung mehr beimessen sollten.

Ein weiterer wesentlicher Ansatz – gerade im Kontext der Plattformökonomie – ist nach Meinung von George der Austausch von Angriffsmethoden und Erfahrungswerten zwischen den Unternehmen über eine neutrale Plattform. Dies sei von daher sinnvoll, da somit schnellstmöglich und effizient nach Lösungsmöglichkeiten zur Ab- und Gegenwehr gesucht werden könne.

Plattformen – mehr mögliche Risiken

Lutz Becker, selbst viele Jahre in der IT-Industrie tätig, sieht jedoch im Kontext der Plattformökonomie nicht nur Risiken im Bereich der IT-Sicherheit, sondern vorrangig angesichts ökonomischer Aspekte. Plattformen können seines Erachtens nicht nur eine wirtschaftliche Marktmacht entfalten, wie es heute bei Google, Apple, Facebook oder Amazon sichtbar wird, sondern auch Auswirkungen auf ganze Marktsegmenten, etwa dem Tourismus, haben. Denn sie substituieren wichtige Funktionen des Marktes und hebeln damit unter Umständen dessen Freiheit aus. „Ludwig Erhard hat das Wettbewerbsrecht völlig zurecht als Wirtschaftsverfassung bezeichnet“, so Becker, „wir beobachten aber im Moment, dass dieses Recht, nicht den tatsächlichen Gegebenheiten der Digitalen Welt gerecht wird, also so gesehen, ein zahnloser Tiger ist. Was wir also benötigen ist eine neue Wettbewerbsordnung für die digitale Welt.“

Für ihn steht vor allem dabei die Frage der Resilienz im Mittelpunkt. Plattformen legen die Spielregeln der Märkte fest haben und haben damit immer auch eine Gate-Keeper-Funktion. Das macht sie einerseits effizient, aber andererseits anfällig. Märkte hingegen, in denen sich die Spielregeln und Austauschbeziehungen im Zusammenspiel der vielen unabhängigen Marktteilnehmern entwickeln, sind deutlich resilienter, aber eben nicht so effizient. Folglich liegt für ihn die Wahrheit in der Mitte.

Fazit

Allein aufgrund der steigenden Komplexität sowie im Sinne der Resilienz gilt es Maßnahmen und Methoden zum Schutz gegen Angriffe neu zu überdenken.

Damit einhergehen muss unter anderem das Clustern in Sicherheitsbereiche, was – heruntergebrochen auf die Unternehmen – ein ganzheitliches Risikomanagement erfordert. Für den Entwurf der weiteren Strategie zur Absicherung bedarf es hier, so Fuhlert, dann „erst einmal, das wertvolle unternehmensinterne Know-how zu identifizieren und im nächsten Schritt zu definieren, wie sich dieses mit entsprechenden Lösungen schützen lässt“. Dafür sollten die bekannten Maßnahmen wie Patch-Management oder Segmentierung der Netzwerkbereiche – auch wenn sie natürlich kein Allheilmittel sind – zum Einsatz kommen, denn diese bieten die Grundlage für ein gutes Schutzniveau. Aber entscheidend aus Sicht von Bernd Fuhlert ist ferner, dass „die Politik für die Plattformökonomie einen Ordnungsrahmen setzen muss, damit Sicherheit endlich den richtigen Stellenwert bekommt und nicht blind digitalisiert wird“. Zudem sollte hierüber auch ermöglicht werden, global faire Spielregeln für alle – kleine nationale ebenso wie multinationale – Unternehmen zu gewährleisten, um eine Benachteiligung aufgrund individueller Gesetzgebungen auszuschließen.

Coester_Ulla_2016

Ulla Coester, xethix.com/xethix-Diskurs®, Dozentin Hochschule Fresenius und wissenschaftliche Mitarbeiterin skip. Institut für angewandte digitale Visualisierung e.V an der Hochschule Fresenius

Dieser Artikel erschien in verkürzter Form in der IT&Production, Ausgabe März 2018, Teo Verlag GmbH (Seite 74/75)

Die GAFA-Gefahr für Banking und Wealth Management

Gafa-1024x455Wird Amazon zur Bank? Das Wall Street Journal hat jedenfalls Anfang März 2018 schon über Gespräche zwischen dem Handelsriesen und etablierten US-Banken wie JPMorgan Chase und Capital One berichtet. Dem Vernehmen nach geht es um ein Girokonto-Angebot für (junge) Amazon-Kunden. Umfragen von Mitte 2017, etwa durch Sopra Steria Consulting, zeigten noch, dass der Großteil der Branche die Bedrohung durch mögliche „GAFA“-Banken sehr gelassen nahm.

Was aber, wenn die vier GAFAs – das sind Google (bzw. Alphabet), Apple, Facebook und Amazon – tatsächlich ins Bankgeschäft eintreten würden? Die finanziellen Mittel dafür brächte jeder der modernen Technologiegiganten spielend auf: Apple, Amazon und Google belegen aktuell die Spitzenplätze im weltweiten Marktkapitalisierungs-Ranking, sie sind die drei wertvollsten Unternehmen der Welt.

 Der gigantische Kundenstamm als Faktor

Es wäre blauäugig, das Potenzial zu verkennen, das der Markteintritt eines der GAFA-Riesen hätte. Was sie gefährlich macht, ist, dass sie sehr genau wissen, wie man mit Kundendaten umgeht und wie man sie nutzt, um die Kundenbeziehung zu festigen und auszubauen. GAFAs sind schon deswegen potenziell disruptiv, weil ihr Kundenstamm gigantisch ist, erst recht im Vergleich zu Fintechs.

Amazon etwa hatte 2016 allein in Deutschland 44 Millionen Kunden, 17 Millionen davon waren Prime-Nutzer. Auch in Asien gibt es Beispiele, die nachdenklich machen. Alipay etwa, das chinesische Online- und Mobile-Bezahlsystem der Alibaba Group, hat heute schon 600 Millionen Kunden – und erschließt mit einer Vielzahl von Apps so gut wie alle Lebensbereiche der Menschen.

Alipay führt praktisch auch alle chinesischen Touristen durch Europa; Händler, die Alipay abwickeln können, haben einen entsprechenden Vorteil. Alipay macht vor, wie Marktmacht ausgespielt wird. Zieht Amazon bald nach? Ungeachtet des aktuellen Cambridge Analytica-Skandals um Facebook bleibt es unbestreitbar: Kundendaten sind das Gold der Zukunft. Und die Geschäftsmodelle der Tech-Giganten basieren darauf.

Unangreifbare GAFAs

Der Zugang zum Kunden, seinen Vorlieben, seinen Bedürfnissen und seiner Entscheidungshistorie wird sich im Finanzmarkt der Zukunft als immenser Vorteil erweisen. Vor diesem Hintergrund wirken neue Fintechs und Startups, die zwar digitale Innovationen, aber keine nennenswerte Kundenbasis bieten können, weit weniger bedrohlich.

Zumal etablierte Marktteilnehmer auch durch Akquisitionen einen neuen, potenziellen Konkurrenten in ein Asset verwandeln können – wie es etwa die ING-Diba mit Lendico vorgemacht hat. Beim Markteintritt eines GAFA-Riesen existiert diese Option nicht. Im Gegenteil: Apple könnte bereits mit einem Bruchteil seiner Cash-Reserven die Deutsche Bank übernehmen.

Predictive Analytics sind die Zukunft

Ob im Retailbanking oder in der Vermögensberatung: Hier muss das Gold der Zukunft erst noch gehoben werden. Ein Unternehmen wie Google macht vor, was in Sachen Predictive Analytics schon alles möglich ist – inklusive Tracking von Websitebesuchern oder App-Nutzern, bis hin zum Ausspielen zielgerichteter, individualisierter Werbung.

Davon sind Banken derzeit noch sehr weit entfernt. Dabei böte eine konsequente Analyse des Kundenverhaltens ganz neue Möglichkeiten, im Massenmarkt genauso wie im Wealth Management oder Private Banking. So gewinnt im Wealth Management derzeit die IT-gestützte Beratung immer mehr an Bedeutung. Und eine Bank wie die UBS beginnt gerade damit, moderne Analyse-Technologie über Anlageportfolios laufen zu lassen – durchaus mit dem Ziel, dadurch auch hochpreisige Anlagen in Zukunft sehr gezielt und bedarfsgerecht anbieten zu können.

Die Bedürfnisse der Klienten verstehen

Den Klienten und seine Bedürfnisse ins Zentrum zu stellen, zu analysieren, was ihm wichtig sein wird, bevor es ihm vielleicht selbst klar ist, und alle Kommunikationskanäle zu unterstützen, die Digital Natives heute als selbstverständlich betrachten, vom Online-Banking über die mobile App bis zum Sprachassistenten – das dürfte in Zukunft über Kundenzufriedenheit, Kundenbindung und Markterfolg entscheiden.

Vermutlich noch nicht morgen, aber vielleicht schon übermorgen. Mit einem durchaus kurzfristigen Zeithorizont von ein oder zwei Jahren könnten bereits neue mächtige Player antreten. Die GAFA-Bedrohung ist real. Ob es Wealth Manager, Retail- oder Privatbanken sind: Es ist höchste Zeit, dass sie sich Gedanken um eine konsequente Digitalisierung machen. Wenn sich der Markt nicht auf die Zukunft vorbereitet, wird er für die GAFAs am Ende nur ein noch viel verlockenderes Ziel.

Dennoch: Solch ein Markeintritt könnte auch eine Chance bedeuten. Im Idealfall eröffnet sich etablierten Markteilnehmern dadurch vielleicht sogar die Gelegenheit, sich einem neuen Ecosystem anzuschließen, mit neuen Produkten und neuen, weiteren Kanälen. Eine sprachgesteuerte, automatisierte Vermögensberatung per Amazon Echo direkt im Wohnzimmer des neuen Klienten: Warum eigentlich nicht?

Autor: Uwe Krakau verfügt über umfangreiche Erfahrung in der Finanzdienstleistungsbranche. Bei Avaloq ist er als General Manager Deutschland und Mitglied der Geschäftsleitung tätig. Zu seinen Kernthemen gehören Markt, Wachstum, M&A, Start-ups, Value Proposition und Fintechs. Bevor er 2004 zu Avaloq wechselte, war er 14 Jahre lang hauptsächlich für DAX-Unternehmen in Deutschland tätig. Unter anderem hatte er Managementpositionen beim debis Systemhaus, EADS und BASF inne. Er studierte an der Fachhochschule für Technik Esslingen Wirtschafts-Ingenieur, verfügt über einen Abschluss in Informations-Wissenschaft der Universität Konstanz und hat das Executive Program des Swiss Finance Institute abgeschlossen.

 

„The Circle“ im eigenen Büro – Kommunikationsdaten machen soziale Beziehungen für Arbeitgeber analysierbar

© Foto Fraunhofer FIT

© Foto Fraunhofer FIT

Durch elektronische Kommunikation fallen in Unternehmen immer mehr Daten an, die Interaktionen unter Beschäftigten dokumentieren. Technisch ist es für Arbeitgeber bereits möglich, daraus soziale Beziehungsgeflechte oder „soziale Graphen“ der Belegschaft zu konstruieren und für Personalentscheidungen einzusetzen, zeigt eine aktuelle, von der Hans-Böckler-Stiftung geförderte Studie*.

Bei wem laufen die Fäden zusammen? Wer ist ein gefragter Ansprechpartner und Ratgeber? Wer steht eher am Rande und bekommt selten Antworten auf seine Mails oder Beiträge im firmeninternen Social Network? In kleinen Betrieben weiß das jeder.

In Großunternehmen hat das Management aber keinen Einblick in die sozialen Detailstrukturen, die viel über Kooperation, Konflikte und Motivation unter den Beschäftigten aussagen. Doch das ist vielleicht nur noch eine Frage der Zeit.

Der soziale Graph in Unternehmen

Denn was für Laien nach Science-Fiction à la „The Circle“ klingt, ist technisch bereits möglich und praktisch in einzelnen Unternehmen schon Realität. Vielfach wird der „soziale Graph“ schon unentwegt gefüttert, ohne dass Auswertungen erfolgen: Mit jeder E-Mail, mit jedem Chat, mit jedem Tweet und jedem Like wird der Graph um eine Beziehung zwischen Kollegen ergänzt. Und erste Softwareprodukte kommen auf den Markt, um persönliche Stellungen und soziale Beziehungen in diesem Graphen zu analysieren.

Systeme wie „Workplace Analytics“ von Microsoft oder „Organisational Analytics“ von IBM haben dieses Potenzial.  Darauf weisen die Studienautoren, der Informatiker Prof. Dr. Heinz-Peter Höller und der Jurist Prof. Dr. Peter Wedde hin.

Mitarbeiter „aushorchen“ via Analyse

Die Professoren von der Hochschule Schmalkalden beziehungsweise der Frankfurt University of Applied Sciences warnen: Solche Methoden könnten vom Management künftig verstärkt genutzt werden, „um in die Belegschaft hineinzuhorchen“. In einem fiktiven, aber unter rein technischen Gesichtspunkten realistischen Szenario, stellen sie die Möglichkeit in den Raum, dass Arbeitgeber, die Entlassungen planen, sich an den Ergebnissen solcher Analysen orientieren: Wer nicht hinreichend vernetzt ist, riskiert berufliche Nachteile oder sogar eine Kündigung.

Damit es nicht so weit kommt, seien neben der Politik die Betriebsräte gefordert, Arbeitgebern genau auf die Finger zu sehen, wenn es um das Sammeln und Auswerten von Daten mit „sozialen Graphen“ geht. Rechtlich sind derartigen Formen der Vorratsdatenspeicherung zwar relativ enge Grenzen gezogen. Das geltende Recht müsse aber auch effektiv durchgesetzt werden, so Höller und Wedde.

Auswertungen der Hans-Böckler-Stiftung zeigen, dass Betriebsvereinbarungen zu Datennutzung und -schutz längst einen Schwerpunkt der Betriebsratsarbeit bilden. Doch nur knapp die Hälfte der Arbeitnehmerinnen und Arbeitnehmer in Deutschland hat einen Betriebsrat an ihrer Seite – obwohl in jedem Betrieb mit mindestens fünf Beschäftigten eine Arbeitnehmervertretung gegründet werden kann. Zudem sei es notwendig, die Mitbestimmungsrechte auszubauen, betonen die beiden Wissenschaftler. Sie empfehlen die Schaffung eines neuen Mitbestimmungsrechts zum Datenschutz, da vorhandene Mitbestimmungsrechte dieses Thema bisher nicht direkt beinhalten.

*Heinz-Peter Höller, Peter Wedde: Die Vermessung der Belegschaft, Mitbestimmungsreport Nr. 10, Januar 2018. Download.

Die Ideologie der Digitalisierung ist der Informationskapitalismus

3-affenBeitrag auf dem Blog der Telekom: Auf die Frage, was denn »Digitalisierung« sei, können im Sommer 2015 mehr als die Hälfte der deutschen Beschäftigten (56 Prozent) keine Antwort geben. Ein Drittel hat noch nie von dem Begriff gehört. Auch das »Internet der Dinge«, das gaben 88 Prozent der Befragten an, sei ihnen kein Begriff. Bei »Big Data« waren es sogar 92 Prozent.

Die Digitalisierung baut unsere Welt in einen Mega-Computer um.

Dabei sind die Zusammenhänge schnell erklärt: Die Digitalisierung baut unsere Welt in einen Mega-Computer um. Alles wird vernetzt. Alles wird gemessen, gespeichert, analysiert und prognostiziert, um optimiert und – möglichst vollautomatisch – gesteuert zu werden. Davon ist der Mensch nicht ausgenommen. »Globale Konsumentensteuerung« nennen das die Technologiegiganten.

Inzwischen sind die Probleme der Digitalisierung nicht mehr zu übersehen und werden auf breiter Basis debattiert. Die computerisierte Massendatenanalyse und die algorithmische Steuerung der Gesellschaft führten in eine Blackbox-Gesellschaft. Die vollständige elektronische Überwachung der Konsumenten – eigentlich Eigenschaft totalitärer Staaten – durch private Unternehmen sei illegitim und verletze Grundrechte.

Immer mehr Berufsbilder würden verschwinden und durch (intelligente) Rechner ersetzt. Was, fragen sich viele, geht hier eigentlich vor? Ist die Digitalisierung nur süße Medizin mit schwerwiegenden Nebenwirkungen? Es ist der Blick in die Geschichte, der hilft, die Gegenwart besser zu verstehen.

 »Sich die Erde untertan machen«, ist uraltes theologisches Motiv und gleichzeitig europäische Leitkategorie.

»Sich die Erde untertan machen«, ist uraltes theologisches Motiv und gleichzeitig europäische Leitkategorie. Der Mensch hat den Auftrag, die schroffe, oft lebensfeindliche Natur zu beugen und sie zu überwinden, um für sich selbst ein menschenfreundliches, ein besseres Leben zu gestalten. Genau das ist es, was wir als »Kulturleistung« bezeichnen.

Der Auftrag zur Gestaltung rechtfertigt jeden technologischen Fortschritt, von der Entdeckung des Feuers über die Erfindung des Rades bis hin zur massenhaften Einführung der Universaltechnologien des 19. und 20. Jahrhunderts – darunter Elektrizität, Funk, Wasserdampf und Computer. Je weiter die Menschheitsgeschichte voranschreitet und je mehr Kultur wir schaffen, desto weiter entfernen wir uns von der Natur.

Dass die Kultur der Digitalisierung tatsächlich schon sehr »un-«natürlich ist, wird schon sprachlich deutlich: an Begriffen wie »Künstliche Intelligenz«, »virtuelle Realität« oder »synthetische Biologie«. Die Digitalisierung setzt nur den Weg fort, auf dem jeder Fortschritt die Menschen ein Stück mehr von der Natur abtrennt.

Die Frage, ob wir Digitalisierung wollen oder nicht, stellt sich daher nicht. Die digitale Transformation wird sich vollziehen, und sie ist philosophisch begründbar. Der Mensch vollzieht kulturelle Leistungen, weil er zur Vernunft begabt ist, im Falle der Digitalisierung zur wissenschaftlichen Vernunft. Deshalb ist die Digitalisierung, wie sie sich gerade entwickelt, nicht gottgegeben. Sie fällt nicht vom Himmel. Wir selbst gestalten sie. Wir wollen das so. Aber warum nur?

Die Antwort ist für manchen nicht ganz naheliegend: Wir brauchen Wirtschaftswachstum. Lässt das Wirtschaftswachstum nach, büßen wir Lebensstandard ein. Wirtschaftswachstum heißt: »Geld verdienen«. Ein anderer Begriff für diese zugegebenermaßen sehr verkürzte Erklärung ist Kapitalismus.

Schon im 20. Jahrhundert hat der österreichisch-ungarische Ökonom Karl Polanyi die drei fiktiven Güter des Kapitalismus definiert, von denen jedes Kind schon in der Schule hört: Arbeit, Boden (Natur) und Kapital. Doch schon in den Zehnerjahren unsrer Zeit galten sie als aufgezehrt. Ein neues fiktives Gut des Kapitalismus muss her – unverbraucht und so innovativ, dass es viele Investitionen auf sich ziehen kann: die Information.

Innovation, das stellte schon ein Zeitgenosse Karl Polanyis, der österreichische Wirtschaftswissenschaftler und kurzzeitige Finanzminister des Jahres 1919, Joseph Schumpeter, fest, ist der Treiber des Kapitalismus. Und die Digitalisierung hat zweifellos zu einem Innovationsschub geführt. Finanzinvestoren haben digitale Technologiegiganten zu den teuersten Firmen der Welt gemacht. Apple, Google und Microsoft belegen die Plätze eins bis drei. Sie bilden ein Oligopol vergleichbar den frühen Wirtschaftsmagnaten der Industriellen Revolution: J.P. Morgan (Strom), Carnegie (Stahl) und Rockefeller (Öl).

Die wirtschaftliche Ausdehnung auf das neue fiktive Gut der Information

Die wirtschaftliche Ausdehnung auf das neue fiktive Gut der Information, mit dem sich seit dem 21. Jahrhundert wieder Geld verdienen lässt, hat keine politische Quelle. Ganz ähnlich den Entwicklungen der Ersten Industrialisierung entstammt auch sie dem Reich der Spekulation, wo rational handelnde Wirtschaftsakteure und ihre Finanzinvestoren investieren, um zu wachsen und zu expandieren.

Das erklärt auch, warum sich die Digitalisierung ohne gesellschaftliche Debatte und ohne politische A-priori-Mitgestaltung vollzieht. Wirtschaftswachstum und Expansion sind keine politischen Aufgaben. Sie beruhen nur auf den Gesetzen der Ökonomie und des Marktes – weder sind sie politisch motiviert noch haben sie einen politischen Ursprung. Wirtschaftsakteure preschen vor, die Politik sieht dem »Neuland« staunend zu.

Deshalb ist richtig, was Ranga Yogeshwar in einem anderen Beitrag zu dieser Reihe ausspricht: »Die Politik ist zu träge, die Strukturen sind zu langsam… Was wir im Moment erleben, ist, dass oft Dinge gemacht werden…, bevor wir eigentlich den Dialog geführt haben.« Die Politik ist dem Markt noch lange nicht in denselben Raum – den digitalen, den virtuellen, den nicht-stofflichen Raum von Daten und Information – gefolgt, wohin sich die Wirtschaft längst ausgedehnt hat. Doch inzwischen zwingt uns die Informationsökonomie, auch in digitalen Zeiten politisch zu werden.

Die Digitalisierung hat einen neuen, ungeregelten Markt geschaffen. Libertäre Märkte, auch das ist gängige Währung unter großen deutschen Philosophen, tendieren dazu, inhuman zu sein und den Menschen nichts als den Weg ins Prekariat zu weisen. Glaubt man dem erwähnten McKinsey-Bericht, scheint sich dies heute so zu bewahrheiten wie in den ungeregelten Anfängen der Industriellen Revolution, in der Kinderarbeit, 60-Stunden-Woche und unhygienische Arbeitsverhältnisse allgemein üblich waren.

In den Nachkriegsjahren des 20. Jahrhunderts hatte der Kapitalismus nur deshalb große Akzeptanz erfahren, weil er sich sozial bändigen ließ, sich unter Ludwig Erhard als sozial-liberal erwies. An der libertären Version von Reaganomics und Thatcherism, den deregulierten (Finanz-)Märkten, die nicht nur Wachstum, sondern auch nie dagewesene Crashs produzierten, leiden wir Europäer noch heute ausnahmslos.

Erst in jüngster Zeit stehen der Informationsökonomie die Ambitionen der Politik auf gesellschaftliche Gestaltung und Marktregulierung gegenüber.

Erst in jüngster Zeit stehen der Informationsökonomie die Ambitionen der Politik auf gesellschaftliche Gestaltung und Marktregulierung gegenüber. Doch die Politik ist im Konflikt mit sich selbst: Soll sie die Informationsökonomie möglichst unangetastet lassen und womöglich große gesellschaftliche Kollateralschäden in Kauf nehmen? Oder soll sie regulieren und sich so zum Bremser des so hochnotwendigen Wirtschaftswachstums machen?

Die Antwort lautet: Regulierung schließt Wirtschaftswachstum und Wettbewerbsvorteile nicht aus. Mit der Regulierung der Informationsökonomie stehen wir heute dort, wo wir in den Achtzigerjahren beim Umweltschutz standen – ganz am Anfang. Auch damals übertönten die Stimmen der Wirtschaft die ersten grünen Ökos: Umweltschutz schade der Wirtschaft. Heute steht das Gegenteil fest. Hohe europäische Umweltstandards haben sich zum Wettbewerbsvorteil entwickelt und gleichzeitig Mensch und Natur genützt. Vor dem Auftrag, die digitale Ära ähnlich erfolgreich zu humanisieren, stehen wir heute. Es gilt, eine sozial-liberale Informationsökonomie zu schaffen, die jungen Generationen ein gutes Leben mit glanzvollen Technologien ermöglicht.

 Wenn Sie die vollständige Fassung des Statements lesen möchten, klicken Sie bitte hier.

 

Ethik und künstliche Intelligenz: Was ist der Mensch uns wert?

Verständnis-Ethik-260x300Menschliche Intelligenz ist das mächtigste Phänomen im uns bekannten Universum. Ohne Intelligenz würden die Dinge einfach nur ohne Zweck ablaufen. Doch mit Intelligenz werden Dinge kreativ und bewusst geschaffen. Kein anderes Phänomen besitzt diese immense Kraft. Neue Ideen in die Welt bringen, Dinge planen, konstruieren und ihnen Bedeutung verleihen. Systeme und Zivilisationen erschaffen. Die Welt nach eigenen Vorstellungen gestalten. Ohne Intelligenz wäre das alles unmöglich.

 Künstliche Intelligenz übernimmt menschliche Kompetenzbereiche

Lange Zeit galt dieses mächtige Werkzeug als einzigartig, die Prozesse unseres Gehirns als nicht kopierbar. Doch dieses Bild gerät zunehmend ins Wanken. Waren frühere künstliche Intelligenzen lediglich in der Lage, exakte Befehle auszuführen, gehen neue Machine- und Deep Learning-Algorithmen an die Substanz unseres Menschseins: Sie sind kreativ, lernen von alleine, führen zu neuen Erkenntnissen und übernehmen zunehmend komplexere kognitive Tätigkeiten.

Jan Pechmann  studierte Medienwissenschaften, Kommunikationsforschung und Sozialpsychologie in Hannover. Dort gründete er, noch aus dem Studium heraus, die Strategieagentur diffferent.

Jan Pechmann studierte Medienwissenschaften, Kommunikationsforschung und Sozialpsychologie in Hannover. Dort gründete er, noch aus dem Studium heraus, die Strategieagentur diffferent.

Dieser extreme Kompetenz-Gewinn von künstlicher Intelligenz (KI) wird Unternehmen jeder Größe substantiell verändern, denn KI stößt mit enormer Geschwindigkeit in Bereiche vor, die bisher exklusiv dem Menschen vorbehalten waren. Und es sind nicht mehr nur noch die monotonen physischen Routine-Arbeiten, die schleichend von Maschinen übernommen werden.

 Automatisiert wird, was automatisiert werden kann

Die Jobs, die durch die KI-Evolution zunehmend in Gefahr geraten, sind die soliden, gut bezahlten „White Collar“-Jobs in den Büros dieser Welt: Accounting, Daten-Auswertung, Wissens-Management, Finanz-Kalkulationen. Obwohl diese neue Stufe der KI-Evolution noch frisch und jung ist, ist der Pool an Exklusiv-Fähigkeiten des Menschen bereits bemerkenswert geschrumpft.

Aus Wettbewerbs-Perspektive mag das verlockend sein: Personalkosten werden gespart, Prozesse gestreamlined, Firmen schlanker und agiler. Künstliche Intelligenz verspricht zu Recht eine Fülle ungeahnter Möglichkeiten. Dieser Transformationsprozess ist spannend und kann Marken in völlig neue Sphären katapultieren. Die Marschrichtung ist eindeutig: Alles, was automatisiert werden kann, wird automatisiert.

Unternehmen in der ethischen Verantwortung

Aus menschlicher und sozialer Perspektive wird die Notwendigkeit mit jedem KI-bedingt wegrationalisiertem Mitarbeiter aber größer, eine Position zu finden, die kluge und weitsichtige Antworten auf die Schattenseite künstlicher Intelligenz findet. Denn der Bereich, in dem sich Mitarbeiter in ihren Kompetenzen noch sicher wähnen können, wird immer kleiner. Das ist die kalte Logik künstlicher Intelligenz.

Die Herausforderung ist am Ende systemischer Natur. Doch jedes Unternehmen ist ein Teil des Systems und muss daher Teil der Antwort sein. KI-Strategien müssen frühzeitig und vollkommen organisch diese Dimension mitdenken und an Antworten arbeiten. Es geht darum, die Menschen für die Prozesse einzusetzen, die noch lange nicht von Maschinen übernommen werden können. Das sind genau die Bereiche, die ein hohes Maß an kreativer Intelligenz benötigen. Das eigene Personal jetzt schon auf diese Tätigkeiten zu schulen, ist eine schwierige, teure und zeitaufwendige Aufgabe.

Bei aller Tech-Euphorie dürfen Unternehmen aber nicht die Augen vor der Frage verschließen, die sich früher oder später jedem stellen wird, die KI zu einem natürlichen Teil ihres Geschäftsmodells macht:

Was ist der Mensch uns wert?

Autor: Jan Pechmann, Jahrgang 1974, studierte Medienwissenschaften, Kommunikationsforschung und Sozialpsychologie in Hannover. Dort gründete er, noch aus dem Studium heraus, die Strategieagentur diffferent. Er leitet die Agentur mit ca. 80 Mitarbeitern an den Standorten Berlin und München zusammen mit seinen Geschäftspartnern Alexander Kiock und Dirk Jehmlich. Mit seiner Strategieberatung ist Pechmann darauf spezialisiert, für seine Kunden überraschende  Lösungen im Spannungsfeld zwischen Marken-, Kommunikations- und Innovationsstrategie zu entwickeln.

Bedeutung von KI im Dokumentenmanagement: Die schöne neue KI-Welt steuern

Indien_41Wenn man über künstliche Intelligenz (KI) spricht, lohnt es sich, zunächst zu klären, was damit überhaupt gemeint ist. Eine immer noch griffige Definition entstand bereits in den 1980er-Jahren: KI ist die Lehre darüber, wie man Maschinen Dinge beibringen kann, die der Mensch selbst derzeit noch besser beherrscht.

Und der Begriff Intelligenz – ob bei Menschen oder Maschinen – lässt sich recht gut als die Fähigkeit beschreiben, komplexe Dinge zu tun. Noch ist die Fähigkeit von Maschinen, komplexe Probleme zu lösen und die umfassenden Fähigkeiten des menschlichen Verstands zu imitieren, sicherlich begrenzt. Aber schon heute werden lernende Systeme in sehr kurzen Zeitabständen deutlich klüger – in ihrem jeweiligen Aufgabenbereich.

Von Null auf Genie in drei Tagen

Ein jüngeres Beispiel, das auch in der Öffentlichkeit Resonanz fand, hat mit der AlphaGo-Software zu tun. AlphaGo, das beste aller Computerprogramme für das asiatische Brettspiel Go, besiegte bereits im März 2016 den damals weltbesten menschlichen Spieler, den Südkoreaner Lee Sedo.

Während AlphaGo neben dem Regelwerk noch mit einer Datenbank von 30 Millionen Zügen gefüttert werden musste, um lernen zu können, wurde das Nachfolgeprogramm AlphaGo Zero nur mit den Spielregeln gespeist: Es lernte durch Partien gegen sich selbst. Innerhalb von drei Tagen hatte es in seiner Spielstärke das ursprüngliche AlphaGo überflügelt. Nach 40 Tagen des Selbstlernens war das neue Programm sogar stärker als die letzte Ausbaustufe des Vorgängers, AlphaGo Master. Das war im Herbst 2017.

Dokumente semantisch verstehen

Matthias Kunisch ist Geschäftsführer der forcont business technology GmbH  & Mitglied des Vorstandes des Cloud-EcoSystem e.V.

Matthias Kunisch ist Geschäftsführer der forcont business technology GmbH & Mitglied des Vorstandes des Cloud-EcoSystem e.V.

Stehen wir also vor einem evolutionären Prozess? Werden die Maschinen am Ende die besseren Menschen? Wenn es darum geht, relevante Zusammenhänge in sehr großen Mengen von Informationen zu finden, sind KI-Systeme dem Menschen sicherlich überlegen. Big Data, Business Intelligence und KI: Sie werden nicht zufällig in einem Atemzug genannt.

Es ist absehbar, dass KI-Anwendungen auch im Kontext der Dokumentenmanagementsysteme (DMS) ihren Platz im Unternehmen finden werden. DMS-Lösungen dienen der Verwaltung von Informationen, und KI könnte helfen, diese Informationen besser nutzbar zu machen – indem sie aus einer großen Menge von Dokumenten neue Zusammenhänge filtert.

Schon jetzt wird entsprechende Software dazu eingesetzt, eingehende Dokumente zu verstehen und zuzuordnen – wie etwa Rechnungen oder Lieferscheine – und mithilfe von Daten aus dem ERP-System Plausibilitätsschecks durchzuführen. Der nächste Schritt wird darin bestehen, nicht mehr nur in Formularform, sondern in freier Textform erstellte Dokumente zu erfassen – und sie semantisch zu verstehen. Damit auch ein Schreiben wie dieses korrekt zugeordnet wird: „Sehr geehrter Energieversorger, ich kündige hiermit … an, dass ich mehr Strom benötige.“

KI entscheidet?

Die Strukturen, die DMS-Lösungen aufbauen, und die Vorgänge, die sie erfassen, sind durchaus einem maschinellen Verstehen und einer automatisierten Bearbeitung zugänglich, von der Angebotserstellung bis zur Auftragsbestätigung. Sogar im HR-Bereich könnte künstliche Intelligenz Nutzen stiften.

Etwa indem sie die digitalen Personalakten auswertet und eine Übersicht über die Skill-Sets erstellt, die bei den Mitarbeitern im Unternehmen vorhanden sind. So erfährt der Arbeitgeber, ob seine Organisation den Herausforderungen der Zukunft gewachsen ist. Prinzipiell kann eine KI, die die Anforderungen im HR-Bereich versteht, natürlich auch eine (Vor-)auswahl unter Bewerbern treffen. Nur: Was passiert, wenn der abgelehnte Kandidat klagt? Wen trifft die Schuld für etwaige Fehlentscheidungen? Und wie kam es überhaupt zu der Entscheidung?

Die Zukunft verstehen

Dass selbstlernende Algorithmen Entscheidungen treffen, die sinnvoll sein mögen, aber aus menschlicher Perspektive praktisch nicht nachvollziehbar sind, ist ein durchaus gravierendes Problem. Anders gesagt: Was denkt eine künstliche Intelligenz eigentlich? Es ist ein wichtiges Ziel der aktuellen KI-Forschung, die Entscheidungen selbstlernender Systeme nachvollziehbar zu machen.

Bereits die im Mai 2018 wirksam werdende europäische Datenschutzgrundverordnung (EU-DSGVO) verlangt, dass Entscheidungen, die Personen beeinträchtigen könnten, nicht ausschließlich auf einer automatisierten Verarbeitung beruhen dürfen. In der Tat braucht es jenseits der technischen Möglichkeiten einen gesellschaftlichen Diskurs über den Nutzen und die Beherrschbarkeit der schönen neuen KI-Welt. Es bleibt an uns, unsere technische Zukunft zu steuern und selbst zu gestalten.

Autor: Matthias Kunisch, Geschäftsführer der forcont business technology GmbH  & Mitglied des Vorstandes des Cloud-EcoSystem e.V.

Datenschutzaufsichtsbehörden: Wearables und die Illusion vom Datenschutz

Bildquelle: fitbit.

Bildquelle: fitbit.

Das Bayerische Landesamt für Datenschutzaufsicht (BayLDA) beteiligte sich an einer deutschlandweiten Prüfaktion und prüfte gemeinsam mit sechs weiteren Aufsichtsbehörden Wearables. Auf dem Prüfstand standen sowohl Fitness-Armbänder als auch Smart Watches mit Gesundheitsfunktionen. Außerdem wurden die Apps der Hersteller einer technischen Analyse unterzogen. Das Ergebnis war eindeutig: kein Gerät erfüllt vollständig die datenschutzrechtlichen Anforderungen.

Daten interessieren Versicherer und Unternehmen der Gesundheitsbranche

Wearables, auch bekannt unter dem Begriff Fitness-Armbänder oder Activity-Tracker, sollen den Nutzer zu einer gesunden Lebensweise motivieren und die Bewegung im Alltag fördern. Schon lange können die Geräte Schritte zählen, zurückgelegte Kilometer messen und verbrauchte Kalorien erfassen. Doch die aktuellsten Wearables bieten noch viel mehr. Die geprüften Geräte überwachen die Herzfrequenz, bestimmen die Körpertemperatur über Sensoren auf der Haut und geben Rückmeldung über den Schlafrhythmus. Diese Angaben interessieren immer mehr Versicherer und Unternehmen der Gesundheitsbranche, sodass es sich lohnt, die Geräte genauer unter die Lupe zu nehmen.

Das BayLDA überprüfte zusammen mit den Datenschutzaufsichtsbehörden aus Schleswig-Holstein, Brandenburg, Niedersachsen, Nordrhein-Westfalen und Hessen sowie der Bundesbeauftragten für den Datenschutz und die Informationsfreiheit insgesamt 16 Wearables von Herstellern, die ca. 70Prozent des Marktanteils in Deutschland abdecken.

Geprüft wurden zum einen rechtliche Fragestellungen, wie z. B. die ausreichende Aufklärung über den Datenumgang oder die Frage, ob tatsächlich Gesundheitsdaten verarbeitet werden. Auch die Technik stand im Fokus. In drei deutschen Prüfzentren wurden die Geräte sowie deren Hersteller-Apps für die Betriebssysteme iOS und Android im Labor getestet.

Es wurden die Datenflüsse analysiert, um festzustellen, wer auf welche Daten Zugriff bekommen kann. Außerdem war ein Blick auf die Apps notwendig. Ohne die dazugehörigen A pps sind die meisten Wearables in ihrer Funktion erheblich eingeschränkt oder sogar unbrauchbar. Diese getesteten Apps wurden durch die Nutzer zusammen mehr als 30 Mio. Mal heruntergeladen.

Die Ergebnisse der Prüfung zeigen zahlreiche Mängel auf

  • Transparenz? Nachvollziehbarkeit? Fehlanzeige! Wer Wearables nutzt, muss zur Kenntnis nehmen, dass oftmals zahlreichen Firmen die Daten erhalten. Hersteller und Betreiber geben sich keine Mühe, Licht in das Dickicht aus Hardware-Hersteller, App-Betreiber, App-Shop-Anbieter und zahlreichen Dienstleistern zu bringen. Für den Nutzer bedeutet das, dass er sich oftmals nur pauschalen Datenschutzerklärungen gegenüber sieht und keine Chance hat, zu erkennen, wer für was zuständig ist und was mit den eigenen Daten bei wem passiert. Tests, bei den Anbietern Auskunft über die gespeicherten Daten zu erhalten, wurden entweder mit pauschalen Verweisen auf Datenschutzerklärungen beantwortet oder wegen vermeintlicher Nicht-Zuständigkeit abgewiesen. Hinzu kommt, dass die Anbieter teilweise im Ausland sitzen und nur eine internationale E-Mail-Adresse als Kontaktmöglichkeit anbieten.
  • Besonders schützenswerte Daten: Die Aufgabe der Fitness-Tracker und Apps ist es, Gesundheitsdaten und damit besonders schützenswerte Daten der Nutzer zu verarbeiten. Zwar sind die Einzelinformationen wie z. B. Körpergewicht, zurückgelegte Schritte, Dauer des Schlafes oder Herzfrequenz für sich betrachtet oftmals wenig aussagekräftig. In der Regel werden diese Daten jedoch mit eindeutig zugewiesenen Personenkennungen verbunden. Bei einer dauerhaften Nutzung fallen derart viele Informationen an, dass sich daraus ein erstaunlich präzises Bild des Tagesablaufs und Gesundheitszustands des Nutzers ergibt (was der Nutzer des Gerätes auch bezweckt). Insbesondere bei Verknüpfung der Einzelinformationen mit Standortdaten ergibt das sehr persönliche Informationen:
  • Wann bin ich morgens aufgestanden?
  • Habe ich unruhig geschlafen, (da ich am Vorabend Alkohol konsumiert habe)?
  • Wo beginnt und endet mein Weg zur Arbeit?
  • Warum bin ich aufgeregt und wieso schlägt mein Herz höher, obwohl ich seit 30 min auf dem Bürostuhl sitze?

All diese Fragen lassen sich beantworten, wenn die Daten der Wearables ausgewertet werden. Kritisch wird dieses insbesondere dadurch, dass viele der Geräte die Daten extern durch Dritte verarbeiten lassen und durch die unklaren Regelungen der Nutzer keine Kontrolle mehr darüber hat, wer die Daten von ihm sonst noch hat.

  • Datenschutzbestimmungen: Datenschutzbestimmungen sollen den Nutzer in die Lage versetzen, zu erkennen, wer welche Daten von ihm zu welchen Zwecken erhebt, was er damit macht und insbesondere auch, an wen er welche Daten weitergibt bzw. wer sonst noch Zugriff darauf hat. Die meisten Datenschutzerklärungen erfüllten diese gesetzlichen Anforderungen nicht. Sie waren in der Regel viele Seiten lang, schwer verständlich, enthielten zu essentiellen Datenschutzfragen nur pauschale Hinweise und waren teilweise nicht einmal in deutscher Sprache vorhanden. So erfährt der Nutzer oftmals nicht im ausreichenden Maße, wer konkret Zugriff auf die Daten hat und wie lange sie gespeichert werden. Dabei wäre es ein Leichtes, dies in wenigen kurzen Sätzen zu beschreiben. Oftmals wurde auch nur auf die generelle Datenschutzerklärung des Unternehmens verwiesen, die kaum konkreten Bezug zu dem Wearable hat.

Erstaunlich ist auch, dass fast kein Gerätehersteller über die besonders schützenswerten Gesundheits- und Standortdaten aufklärt – ganz im Gegenteil: einige Hersteller waren sogar der Auffassung, dass es sich dabei um anonyme Daten handle.

  • Daten mit Freunden teilen: Viele Geräte und Apps bieten die Möglichkeit, die aufgezeichneten Fitness-Daten mit Freunden z. B. über soziale Netzwerke zu teilen. Die Funktion soll den Nutzer zu häufigem Training und Bestleistungen anspornen und das gemeinsame Training fördern. Da hierbei auch sehr sensible Informationen preisgegeben werden können, darf das jedoch nur dann geschehen, wenn der Nutzer es ausdrücklich wünscht.
  • Datenweitergabe an Dritte: Beunruhigend sind auch die Aussagen vieler Hersteller zur Datenweitergabe. Einige Hersteller stellen klar, dass sie die Fitness-Daten der Nutzer für eigene Forschungszwecke und Marketing verwenden und an verbundene Unternehmen weitergeben. Der Nutzer erfährt weder, um wen es sich dabei handelt, noch kann er widersprechen. Ein klarer Verstoß gegen deutsches Datenschutzrecht.
  • Reichweitenmessung: Die technische Analyse brachte mehr Licht ins Dunkel. Fast alle Hersteller setzen Tracking-Tools US-amerikanischer Unternehmen ein. Mithilfe dieser Tools können Hersteller erfassen, wie die Geräte oder Apps genutzt werden, um die Benutzerfreundlichkeit zu verbessern. Die Daten können aber auch für Werbezwecke und zur Profilbildung verwendet werden. Zwar wird oft angegeben, dass hierzu nur anonyme Daten verwendet werden würden. Den Nachweis bleiben die Hersteller jedoch schuldig. Die Erfahrung zeigt, dass in der Regel in solchen Fällen weiterhin bei vielen Daten ein Personenbezug hergestellt werden kann.
  • Datenlöschung: Die Geräte sind schnell verloren oder technisch überholt, sodass zahlreiche Nutzer ihre gebrauchten Geräte weiterverkaufen wollen. Das birgt ein enormes Risiko. Nutzer glauben, dass mit dem Löschen der App alle Daten vernichtet sind. Das ist falsch! Bei vielen Geräten hat der Nutzer keine Möglichkeit, seine Daten selbstständig vollständig zu löschen. Weder im Gerät selbst noch im Nutzerkonto gibt es eine Löschfunktion. Einige Hersteller weisen sogar darauf hin, dass eine Löschung nicht möglich ist. Wie lange die Hersteller die Daten speichern, bleibt verborgen. Fakt ist, dass es sich hierbei um einen gravierenden Verstoß handelt.
 Thomas Kranig, der Präsident des BayLDA.

Thomas Kranig, der Präsident des BayLDA.

„Aufgrund unserer zahlreichen Prüfungen der letzten Jahre im Bereich Internet und smarte Geräte haben wir viel Erfahrung gesammelt. Auch diese Prüfung offenbarte Mängel im Datenschutz, die wir bereits bei anderen Testgeräten feststellten. Dass die Unternehmen ihren Aufklärungspflichten nicht immer vollständig nachkommen, ist bekannt. Mit Erschrecken mussten wir feststellen, dass gerade in sensiblen Bereichen wie Gesundheit und Bewegungsprofile die Daten häufig an Dritte übermittelt werden. Der Nutzer ist aufgrund der mangelnden Transparenz nicht mehr Herr seiner Daten und hat keine Chance zu verfolgen, in wessen Hände seine Gesundheitsdaten gelangen“, erklärte Thomas Kranig, der Präsident des BayLDA.

Einige Mängel ließen sich problemlos dadurch beheben, dass die Fitnessdaten der Wearables lediglich auf das Smartphone weitergeleitet und lokal verarbeitet werden. Eine permanente Übermittlung aller Daten vom Smartphone an Server diverser Firmen ist aus Sicht der Datenschützer in der Regel mit Risiken verbunden, denen sich die Nutzer bewusst sein sollten.

„Würden die Hersteller dieser Empfehlung nachkommen, würden in den wenigsten Fällen Gesundheitsdaten in die Hände Dritter gelangen. Die heutigen Smartphones sind so leistungsstark, dass sich dies ohne Funktionseinschränkung technisch ganz einfach umsetzen ließe. Indem die Hersteller jedoch alle Daten von der App weiterleiten, signalisieren sie ein eigenes Interesse an den

 

 

 

Vom Bitcoin Boom profitieren auch Cyberkriminelle

(Bildquelle: DigitalShadows)

(Bildquelle: DigitalShadows)

Der Run auf Kryptowährungen wie Bitcoin, Monero, Zcash und Ethereum wirft auch für Cyberkriminelle reichlich Gewinn ab. Nach einem aktuellen Report von Digital Shadows steigt die Anzahl an Services und Tools, die es Hackern ermöglicht, den Boom um die digitalen Währung auf illegalem Weg auszunutzen.

Mit mehr als 1.442 im Netz verfügbaren Kryptowährungen und wöchentlich neuen „alternativen Münzen“ (Altcoins) wächst das potentielle Betätigungsfeld für Cyberkriminelle rasant. Dabei profitieren sie von fehlenden Kontrollmechanismen, Sicherheitsproblemen und der Anonymität im Netz. Zu den beliebtesten Betrugsmaschen zählen Krypto Jacking, Mining Fraud und Account-Übernahmen durch Phising oder Credential Stuffing.

Attacken auf Kryptowährungsbörsen

Auch direkte Attacken auf Kryptowährungsbörsen (ICOs, Initial Coin Offerings) nehmen zu. Die japanische Kryptowährungsbörse Coincheck gab erst kürzlich einen Diebstahl ihrer Kryptowährung NEM im Wert von knapp 429 Millionen Euro bekannt. Von den Angreifern fehlt bislang jede Spur, die Art des Angriffs ließ sich nicht nachverfolgen.

„Kryptowährungen sind der Goldrausch unserer Zeit, wobei sich die unregulierte und weitgehend unsichere Welt der digitalen Währungen mit dem Wilden Westen vergleichen lässt“, erklärt Rick Holland, VP Strategy, Digital Shadows, einem Experten für Cyberbedrohuungen. „Käufer und Händler von Kryptowährungen sollten sich der Risiken bewusst sein und die Taktiken, Techniken und Prozeduren (TTPs) kennen. Es gilt, in allen Phasen des Transaktionszyklus wachsam sein.“

(Bildquelle: DigitalShadows)

(Bildquelle: DigitalShadows)

Zu den gebräuchlichsten Angriffsmethoden auf Kryptowährungen zählen

Crypto Mining durch Crypto Jacking

Beim Crypto Jacking zapfen Cyberkriminelle heimlich über Internet-Browser, Browsererweiterungen und mobile Apps die Rechnerleistung ab, um Kryptowährungen zu schürfen. Digital Shadows entdeckte eine neue Software namens „Crypto Jacker“, die Coinhive, Authedmine und Crypto-Loot in einem WordPress-Plugin (cj-plugin) kombiniert (einschließlich SEO-Funktionalitäten). Seit November 2017 ermöglicht es die Software für nur 29 Dollar, beliebte Webseiten zu klonen, um sie für Spam-Kampagnen zu nutzen.

 Angriff auf Tauschbörsen

Ähnlich wie bei klassischen Bankkonten greifen Cyberkriminelle die Benutzerkonten von Umtausch-Services an. Dabei nutzen sie Credential Stuffing oder Phising, um an Zugangsdaten zu gelangen, die anschließend zum Verkauf angeboten werden. Im Januar 2018 identifzierte Digital Shadows allein auf einem kriminellen Forum im Dark Web sensible Daten von mehr als 100 Benutzerkunden.

 Falsche Initial Coin Offerings (ICOs) und Kryptowährungen

Neben Angriffe auf legitime Tauschbörsen und Händler, finden sich im Netz auch falsche Dienstleister, die fiktive Kryptowährungen anbieten, um an das Geld hoffnungsvoller Anleger zu gelangen. In einem Job-Portal boomt der Stellenmarkt für Freischaffende, die in der Lage sind, Webseiten bekannter Tauschbörsen zu klonen oder neue Kryptowährungen zu entwickeln.

Kursmanipulation von Kryptowährungen

Sogenannte “Pump-and-Dump”-Services nutzen Social Media-Kanäle und Foren, um den Preis weniger bekannter Kryptowährungen durch falsche oder irreführende Posts künstlich in die Höhe zu schrauben. Sobald ein Höchstpreis erreicht ist, werden die Kryptowährungen abgestoßen. Im beliebten Messenger Discord beobachtete Digital Shadows allein im Januar 2018 mehr als 20 Chat-Kanäle zu diesem Thema.

Europäischer Datenschutztag 2018: Diese Tipps schützen vor Datenmissbrauch im Netz

Dr. Carsten Föhlisch ist Bereichsleiter Recht sowie Prokurist von Trusted Shops  und seit vielen  Jahren im E-Commerce-Recht tätig.

Dr. Carsten Föhlisch ist Bereichsleiter Recht sowie Prokurist von Trusted Shops und seit vielen Jahren im E-Commerce-Recht tätig.

Der Europäische Datenschutztag wird jährlich am 28. Januar begangen. Das Ziel: Für den Umgang mit personenbezogenen Daten zu sensibilisieren. Wie akut das Thema ist, belegt eine aktuelle YouGov-Studie: Jeder Fünfte shoppt mit wenig Vertrauen im Netz und hat Angst vor Datenmissbrauch. Was tun gegen diesen Identitätsdiebstahl? Dazu fünf Tipps von Dr. Carsten Föhlisch, Verbraucherrechtsexperte des europäischen Online-Gütesiegels Trusted Shops.

Tipp 1: Manchmal ist weniger mehr

Dr. Carsten Föhlisch: Ob in sozialen Netzwerken oder auch beim Online-Shopping – Verbraucher sollten sparsam mit den eigenen Daten umgehen. Sie sollten niemals mehr preisgeben, als es unbedingt notwendig ist. Nur so können Verbraucher vermeiden, dass ihre Daten in falsche Hände gelangen. Das gilt auch für die E-Mail-Adresse. Online-Händler beispielsweise benötigen zwar immer eine E-Mail-Adresse, um eine Bestellbestätigung schicken zu können, aber besonders bei Foren oder Gewinnspielen sollten Verbraucher aufmerksam sein und auf Seriosität achten. Zudem sind Spam-Mails im Posteingang oftmals sehr ärgerlich. Um diese zu vermeiden, sollte die E-Mail-Adresse nicht zu leichtfertig angeben werden.

Tipp 2: Keine unverschlüsselten Daten übertragen

Dr. Carsten Föhlisch: Beim Online-Shopping sind die Zahlung per Kreditkarte oder Einzugsermächtigung gängige Verfahren. Verbraucher sollten Zahlungsdaten niemals unverschlüsselt übertragen. Denn sonst könnten die Daten leicht abgefangen und für andere Zwecke missbraucht werden.

Was viele Verbraucher nicht wissen: Beim Senden von unverschlüsselten Daten verstoßen viele Online-Käufer gegen die Bedingungen ihrer Bank. Um auf der sicheren Seite zu sein, ist es deshalb ratsam, dass Verbraucher vor dem Senden der Zahlungsdaten immer schauen, ob im Browserfenster ein Schloss-Symbol bzw. ein „https“ in der URL angezeigt wird. Das Symbol garantiert eine verschlüsselte Datenübertragung.

Tipp 3: Unseriöse Online-Shops erkennen

Dr. Carsten Föhlisch: Im Internet gibt es zahlreiche Online-Shops. Die meisten Shop-Betreiber sind ehrliche Händler. Doch immer häufiger nutzen Betrüger sogenannte Fake-Shops, um Verbraucher abzuzocken. Verbraucher sollten deshalb unbedingt auf eine vollständige Anbieterkennzeichnung sowie auf umfängliche Informationen zu Widerruf, Versandkosten und Zahlungsmethoden achten.

Bei unseriösen Shop-Betreibern sind diese oft fehlerhaft oder schwer zu finden. Zudem kann eine kurze Internetrecherche sinnvoll sein. Vielleicht gibt es Negativeinträge in Foren, die zu erhöhter Wachsamkeit mahnen. Lässt sich ein Online-Shop darüber hinaus von seinen Kunden direkt bewerten und blendet das Ergebnis auf seiner Website ein – etwa über das Kundenbewertungssystem –, kann dies zusätzlichen Aufschluss über die Qualität von Service und Angebot geben. Trusted Shops stellt die Unabhängigkeit und Echtheit der Bewertungen über eine mehrstufige Überprüfung sicher. Darüber hinaus sollten Verbraucher schauen, ob ein Shop mit einem Gütesiegel zertifiziert ist. So geraten die sensiblen Daten gar nicht erst in falsche Hände.

Tipp 4: Passwörter niemals auf öffentlichen PCs speichern

Dr. Carsten Föhlisch: Gespeicherte Passwörter erleichtern das Surfen im Internet, da das lästige Einloggen entfällt. Jedoch sollten Internet-Nutzer unbedingt darauf verzichten, wenn sie an einem öffentlichen Computer, zum Beispiel in einem Internetcafé, sitzen. Die Passwörter werden über sogenannte Cookies gespeichert, die auf dem Computer abgelegt werden.

Vergisst der Nutzer am Ende die Cookies zu löschen, wird der nächste Computernutzer automatisch mit dem Account angemeldet. Was viele nicht wissen: Einige Computerviren lesen die Cookie-Listen ohne Zustimmung des Nutzers aus. Grundsätzlich sollten Verbraucher es Betrügern schwer machen, das Passwort zu knacken.

Die verwendeten Passwörter sollten immer aus einer Kombination von Sonderzeichen, Buchstaben und Zahlen bestehen. Am besten verwendet man unterschiedliche Passwörter für verschiedene Anwendungen. Regelmäßiges Ändern des Passworts und Sicherheitsfragen, die nur vom Verbraucher selbst beantwortet werden können, schützen zusätzlich vor Datenmissbrauch.

Tipp 5: Zuerst die Allgemeinen Geschäftsbedingungen lesen, dann zustimmen

Dr. Carsten Föhlisch: Bei sozialen Netzwerken und Internet-Diensten müssen sich Nutzer häufig registrieren. Auch wenn es keine spannende Lektüre ist, ist es empfehlenswert, dass sich Nutzer trotzdem unbedingt die AGB und die Datenschutzerklärungen bei der Registrierung durchlesen. Denn nur so wissen Nutzer, was mit ihren Daten geschieht.

Beispiel facebook: Hier sollten Nutzer einiges beachten. Drückt ein Nutzer auf einer Internetseite einen „Gefällt mir“-Button und ist gleichzeitig bei facebook angemeldet, dann erhält das soziale Netzwerk die Information, dass der Nutzer die Website besucht hat. Die Information wird auch dann übertragen und kann dem Nutzerprofil zugeordnet werden, wenn der Nutzer den Button nicht gedrückt hat.

Watson, wir haben (k)ein Problem

Watson_IBMGroße Konzerne, Start-ups und Kooperationen investieren gerne in Künstliche Intelligenz (KI): 2016 flossen zwischen 26 und 39 Milliarden US-Dollar in die Forschung und Entwicklung kognitiver Systeme und Roboter, so eine Studie. In der jüngeren medialen Berichterstattung zur ‚KI‘ von IBM ist Watson aber ein wenig in Misskredit geraten.

Einige großen Projekte etwa mit Versicherungskonzernen erbrachten bisher nicht die gewünschten Ergebnisse. Ein oft geäußerter Vorwurf dabei lautet, dass durch die offensive Medienkampagne von IBM zu Watson Erwartungen geweckt wurden, die die Technologie nicht bzw. noch nicht erfüllen kann. „Dieser Vorwurf zeigt jedoch auch ein großes Missverständnis in der öffentlichen wie geschäftlichen Wahrnehmung, in der Watson immer wieder als die den Menschen verstehende ‚Maschine‘ personifiziert wird“, bemerkt Ursula Flade-Ruf, Geschäftsführerin von Management Informations Partner. Doch was ist denn ‚Watson‘ eigentlich genau?

 Reduktion auf Watson als einzelne Maschine

„Diese Reduktion auf Watson als einzelne Maschine hat in der Vergangenheit sicher für die ein oder andere Verwirrung gesorgt“, so Markus Ruf, Geschäftsführer und Big-Data-Experte bei mip GmbH. „Er ist aber weder ein einzelner Superrechner, noch eine irgendwie geartete individuelle KI. Vielmehr ist Watson eine Plattform verschiedenster Services und Verfahren, die auf derselben Technologie basieren. Es handelt sich bei Watson nicht um ein Produkt, sondern um viele Einzelprodukte. Auch sind diese meistens auf mehreren Rechnern installiert – von einer ‚Maschine‘ oder einem ‚Watson‘ kann also keine Rede sein.“

KIs im B2C und B2B – Vergleiche hinken

Zudem wird Watson gerne seinen KI-Brüdern und -Schwestern aus dem B2C-Bereich gegenübergestellt. „Ungerechterweise“, wie Flade-Ruf meint, „denn hier werden Äpfel mit Birnen verglichen. Die mit Watson verbundenen Services und Entwickler-Tools von IBM sind ausschließlich auf den B2B-Sektor ausgerichtet.“ Alexa, Siri, Cortana, Google Home und Co haben es hingegen mit den Endkunden im B2C erheblich einfacher, rasche Erfolge vorzuweisen, da sie jeden Tag von Millionen Menschen genutzt, mit Informationen gefüttert und dadurch stetig trainiert werden.

Dass diese Geräte schnell eine große Menge an Informationen zu Personen und ihren Vorlieben ansammeln und dann auch anwenden, ist leicht nachvollziehbar. Allerdings geschieht dies durch ein ständiges Mithören, was eigentlich jeden Nutzer aufhorchen und vorsichtiger werden lassen sollte. Wem die Daten am Ende gehören und wo sie genau gespeichert sind (was wichtig für die Datenschutzrichtlinien ist), ist meist nicht eindeutig geklärt oder steht gut versteckt im Kleingedruckten.

Daten bleiben Eigentum der Watson-Nutzer

„Solch ein Vorgehen unterscheidet sich erheblich vom projektbezogenen, individuellen Daten-Training mit Watson“, meint Flade-Ruf. „Hier hat IBM zudem eine Art Code of Conduct für Cloud Services in Verbindung mit KI-Daten verfasst, sodass die innerhalb eines Projektes gewonnenen Informationen immer Eigentum der jeweiligen Service-Nutzer bleiben – und bisher hält sich IBM auch daran.“

Damit lässt sich auch der Vorwurf einiger Unternehmen entkräften, dass man ja bei Watson nicht genau wisse, wem schließlich sowohl die eingespielten als auch die neu gewonnenen Daten gehören würden. Unterm Strich lassen sich die KIs durch die völlig verschiedenen Zielrichtungen der Hersteller und Einsatzgebiete nur schwer bis überhaupt nicht miteinander vergleichen.

Watson-Projekte benötigen einen längeren Atem – zeitlich und finanziell

Künstliche Intelligenz ist kein neues Phänomen. Schon seit Jahrzehnten taucht der Begriff in Verbindung mit Regressionsanalysen, Clustering oder Multivariable-Verfahren auf. Dem autonomen Lernen wird dabei eine besonders große gesellschaftliche sowie wirtschaftliche Bedeutung zugemessen, was unter anderem das nahezu exponentielle Wachstum von Fundraising-Projekten rund um Start-ups im Bereich Deep oder Machine Learning erklärt.

Nach den jüngsten Kritiken zu urteilen haben aber scheinbar viele Unternehmen den Aufwand, der mit einem Watson-Projekt auf ein Unternehmen zukommt, unterschätzt. „So hat ein Beispiel eines Kunden aus der Bekleidungsbranche gezeigt, wie viel Arbeit etwa ein Training von Watsons Visual Recognition kosten kann“, wirft Ruf ein. „Für die visuelle Unterscheidung von Kleidungsstücken wurden rund 30.000 Bilder benötigt, bis der Service autonom funktionierte.“

Auch in der Medizin oder bei Versicherungsfällen muss eine riesige Menge an Daten herangezogen werden, um eine verlässliche statistische Auswertung zu ermöglichen. „Die Intelligenz der Programme und Services wird natürlich stetig weiterentwickelt“, ergänzt Markus Ruf. „Die Wissensdatenbanken, die sich dahinter verbergen, müssen allerdings den Watson-Systemen in den einzelnen Projekten immer wieder neu beigebracht werden.“

Kooperationen entscheidend für Weiterentwicklung von KI

Um solche Mengen an Daten bereitstellen und die zur Verfügung stehenden KI-Services voll ausnutzen zu können, seien Kooperationen unerlässlich, so Flade-Ruf. „Viele Unternehmen sind auf bestimmte Bereiche wie etwa visuelle Wahrnehmung und Verarbeitung, Robotik, Sprachverarbeitung und -analyse oder Datenauswertung spezialisiert und müssen deshalb auch in komplexe Watson-Projekte miteinbezogen werden.“ Unter anderem arbeiten IBM, Apple, Amazon, die Google-Tochter Deep Mind, Facebook und Microsoft an gemeinsamen Projekten rund um das Thema Künstliche Intelligenz.

„IBM hat zudem die Plattform PowerAI installiert, auf der von verschiedenen Herstellern Frameworks zu Deep Learning und unterstützende Datenbanken angeboten werden“, erklärt Flade-Ruf. „Das Unternehmen präsentiert sich in diesem Zusammenhang auch sehr offen: Es gibt einige Open-Source-Projekte oder freie Services aus der Bluemix Cloud.“ Am Ende möchte IBM möglichst viele Experten unter seinem technologischen Dach vereinen, um die Watson-Funktionalitäten künftig noch erheblich zu erweitern.

Konkrete erfolgreiche Anwendungsbeispiele selten

Eine Schwierigkeit im Zusammenhang mit Watson-Projekten ist das Fehlen von allgemeingültigen weltweiten Anwendungsfällen, wie sie im B2C-Bereich mit Alexa, Siri oder Cortana vorhanden sind. „Watson-Projekte sind dagegen äußerst industrie- und unternehmensspezifisch“, erklärt Flade-Ruf. „Vieles passiert hier hinter verschlossenen Türen, da sich niemand zu früh von Mitkonkurrenten in die KI-Karten schauen lassen möchte.“

Ein großer Teil stammt dabei aus dem Bereich Internet of Things (IoT) im industriellen Sektor. Big Data in Form von Sensor- und Maschinendaten soll dort im Predictive-Maintenance-Umfeld und zur Qualitätssicherung eingesetzt werden. IBM kooperiert beispielsweise mit Unternehmen wie Schaeffler, Bosch, BMW, Citroen, Renault etc.

Ein anderer Bereich, in dem ein großes Potenzial gesehen wird, ist die Unterstützung von Call-Centern und -Services etwa im Öffentlichen Dienst oder Versicherungs- und Banking-Umfeld, aber auch im technischen Support. Hier sollen KI-gestützte Systeme automatisch Kunden identifizieren und Empfehlungen zum Umgang mit diesen an die Sachbearbeiter vorschlagen.

Die Nachfrage nach Künstlicher Intelligenz steigt auch in der Ausbildung. „So haben Experten von IBM und der mip GmbH einen halbtägigen Workshop zum Thema ‚Künstliche Intelligenz – Watson Services für Chat-Bots nutzen‘ an der Technische Hochschule Nürnberg abgehalten“, bemerkt Ruf. Die Studenten konnten im Verlauf der Veranstaltung die verschiedenen Cloud-Services von Watson ausprobieren und beispielsweise die Spracherkennung des Bots trainieren.

KI-gestützte Chatbots voll im Trend

Einen Schritt weiter gehen intelligente Chatbots, die eigenständig komplette Chat-Sessions mit Kunden oder Mitarbeitern bewältigen können, um etwa FAQs zu beantworten oder Bestellungen abzuwickeln. „Auf dem Watson Summit wurde ein Chatbot vorgestellt, der Siemens für das eigene Personal basierend auf den IBM Conversation Services und anderen Watson-Tools entwickelt wurde“, so Flade-Ruf. Mitarbeiter können mit diesem interagieren und erhalten automatisiert Antworten auf ihre Fragen.

Auch im juristischen Umfeld könnten eine Vielzahl an einfacheren Rechtsfällen über einen Watson-Service abgebildet werden. DoNotPay ist ein Beispiel für einen intelligenten Chatbot, der Nutzer in kleinen Rechtsfragen wie etwa Falschparken unterstützt.

Ein weiteres Feld umfasst das Thema Enterprise Search, in dem Watson-basierte Tools wie das Natural Language Processing zur Verarbeitung menschlicher Sprache und das Watson Knowledge Studio, welches ein branchenspezifisches Training ohne Programmierungskenntnisse ermöglicht, eingesetzt werden.

„Mit Enterprise-Search-Systemen lassen sich schnell große Mengen an Informationen durchsuchen und personenbezogen aufbereiten“, erklärt Ruf. Die Lösung lernt dabei, welche Informationen für den jeweiligen Nutzer besonders relevant sind und zeigt diese dann übersichtlich in einem Dashboard an.

Ist Watson mittelstandstauglich?

Neben all dem Interesse an der Künstlichen Intelligenz offenbart die McKinsey-Studie aber auch, dass sich kleine und mittelgroße Unternehmen in diesem Bereich noch schwer mit der Umsetzung von Projekten tun: So setzen gerade einmal neun Prozent bereits maschinelles Lernen im größeren Maßstab ein. Nur zwölf Prozent gaben an, dass sie das Experimentierstadium bereits verlassen hätten.

„Unser Rat ist, dass Unternehmen mit der Umsetzung von Watson-Projekten erst einmal klein anfangen sollten“, bemerkt Flade-Ruf. „Watson ist kein fertiges Produkt und vor dem Training sozusagen noch ‚dumm‘. Deshalb müssen Ziele und Trennschärfen im Vorfeld klar formuliert werden.“ Umso eindeutiger sich Themen definieren und Grenzen ziehen lassen, desto einfacher und schneller lässt sich auch zum Beispiel ein Chatbot aus den verschiedenen Watson-Komponenten zusammenstellen und mit einer spezifischen Wissensdatenbank trainieren.

„Zudem ist ein großes Team erforderlich, dass sich aus unterschiedlichen Qualitäten zusammensetzt, die die von üblichen IT-Projekten übersteigen“, so Flade-Ruf: „Man benötigt unter anderem Business-User sowie -Analysten, KI-Experten, Programmierer, Prozess-Spezialisten für die Einbindung der KI in die Systemlandschaft.“ Ein weiterer Punkt, der bei Watson-Projekten bedacht werden muss, ist die Ausrichtung aller Watson-Services auf die Cloud. „Das ist auch sinnvoll, da es zum Beispiel gerade im Bereich Sensorik meist um Maschinendaten aus Anlagen auf der ganzen Welt geht“, bestätigt Ruf. „Hier müssen sich die Kunden also in ihrer Unternehmensstrategie entscheiden, welchen Weg sie gehen wollen.“

Viele KI-Experimente, wenig Ertrag

Im Watson-Umfeld tut sich viel, doch fehlen vielerorts noch die Erträge. Flade-Ruf: „Leider erkennen wir gerade den Trend, dass Unternehmen Projekte in Eigenregie durchführen – und dabei oft scheitern, ohne die entsprechenden Schlüsse daraus zu ziehen.“ Dabei bieten der Markt oder auch Watson selbst viele Open-Source-Möglichkeiten an, um Wettbewerbsvorteile zu generieren oder neue Geschäftsmodelle aufzubauen.

Experimentieren ist dadurch also nahezu ohne große eigene finanzielle Aufwände möglich. „Das Scheitern solcher Ansätze, wie etwa im Start-up-Umfeld, ist ein immanenter Bestandteil solcher Experimente“, bemerkt Flade-Ruf. „Jedoch hat sich in Deutschland bisher keine ‚Fast-Fail-Kultur‘, also der schnelle Übergang von einem Fehlschlag zu einem neuen optimierten Versuch, entwickeln können.“ Dieser Trend fordert IT-Dienstleister heraus, da es immer schwieriger wird, die eigene Expertise in solche Projekte einzubringen. Viele Firmen befürchten scheinbar, dass KI-Know-how über externe Berater zur Konkurrenz wandern könnte. Ruf: „Auf der anderen Seite können Unternehmen von den Erfahrungen von Spezialisten wie uns spürbar profitieren, um beispielsweise Projekte schneller erfolgreich abschließen zu können.“

Vertrauensfrage: Wie viel Datensicherheit kann Gerätekontrolle bieten?

blitzeIn der zunehmend digitalisierten und vernetzten Wirtschaft sind flexible Arbeitsmodelle längst ein fester Bestandteil. Der zeitlich und örtlich unbegrenzte Zugriff auf Unternehmensdaten und -anwendungen vereinfacht Unternehmensprozesse und gibt den Mitarbeitern mehr Gestaltungsspielraum in der Organisation ihrer Arbeitsabläufe. Um dabei die Sicherheit von Unternehmensdaten zu gewährleisten, bestimmt seit Jahren das Konzept der „trusted devices“ – vertrauenswürdigen Geräte – die Sicherheitsstrategie von Unternehmen.

Organisationen weltweit, darunter Regierungsbehörden und Banken, operieren auf Basis dieses Ansatzes. Jedoch gerät dieser im Zeitalter fortschreitender Digitalisierung und Mobilität zunehmend an seine Grenzen.

Sichere Geräte = sichere Daten?

Einfach ausgedrückt gilt die Einstufung „vertrauenswürdig“ für Geräte, die den Unternehmen bekannt sind, die bestimmte Sicherheitsanforderungen erfüllen und über die die Unternehmens-IT ein gewisses Maß an Kontrolle hat. Typischerweise sind diese Geräte mit einem Software-Agenten ausgestattet, der den Datenverkehr an das Unternehmensnetzwerk weiterleitet, so dass grundlegende Sicherheitsüberprüfungen wie ein Zugangscode und ein Check des aktuellen Betriebssystems durchgeführt werden können.

Sobald diese Prüfungen erfolgt sind, erhält ein vertrauenswürdiges Gerät in der Regel uneingeschränkten Netzwerkzugriff, so dass der Benutzer alle Informationen abrufen kann, die er benötigt, um aus der Ferne arbeiten zu können. In der Regel bedeutet dies, dass ein VPN-Tunnel zum Firmennetzwerk geöffnet wird, der den Nutzern einen ungehinderten Dienstzugang ermöglicht.

Unter IT-Managern haben sich vor allem die Apple-Geräte den Ruf erworben, einfacher zu verwalten und auf Grund der abgeschlossenen Plattform sicherer zu sein. Zwar sind die heutigen Mobilplattformen meist viel sicherer als Legacy-Lösungen, doch alle – auch Apple – sind weiterhin anfällig für Datenverlust, beispielsweise durch gezielte Cyber-Angriffe oder direkt durch Verlust oder Diebstahl des Geräts.

Um angesichts derartiger Risiken die Datensicherheit gewährleisten zu können, setzen Unternehmen auf eine verstärkte Kontrolle der Mobilgeräte. Im Zuge dessen kommen Mobile Device Management (MDM)- oder Mobile Application Management (MAM)-Lösungen zum Einsatz. Diese installieren Agenten auf den Mobilgeräten und ermöglichen der IT-Abteilung die umfassende Kontrolle derselben. Alle Aktivitäten werden dann durch das Unternehmensnetzwerk geleitet, Kontrollfunktionen wie Kennwortschutz, Fernlöschung von Daten sowie Beschränkungen bei unsicheren Netzwerkverbindungen werden von der IT-Abteilung über eine zentrale Plattform ausgeübt. So ist diese in der Lage, die Unternehmensdaten im Blick zu behalten und notfalls schnell reagieren zu können.

Vertrauen ist gut – doch ist Kontrolle wirklich besser?

Autor: Mike Schuricht ist VP Product Management bei Bitglass, einem weltweit tätigem Anbieter einer Cloud-Access-Security-Broker-Lösung sowie von agentenloser Mobilsicherheit mit Sitz im Silicon Valley. Die Lösungen des Unternehmens ermöglichen durchgängige Datensicherheit, von der Cloud zu dem Gerät.

Autor: Mike Schuricht ist VP Product Management bei Bitglass, einem weltweit tätigem Anbieter einer Cloud-Access-Security-Broker-Lösung sowie von agentenloser Mobilsicherheit mit Sitz im Silicon Valley. Die Lösungen des Unternehmens ermöglichen durchgängige Datensicherheit, von der Cloud zu dem Gerät.

Was eine weitreichende Kontrolle über die Unternehmensdaten bietet, bringt langfristig jedoch auch Schwierigkeiten mit sich: Sowohl die Einrichtung als auch die Pflege von MDM/MAM-Software ist mit einigem logistischen Aufwand verbunden. Je nach Unternehmensgröße müssen IT-Teams die Software auf ein paar Dutzend bis hin zu mehreren tausend Geräten verwalten und sicherstellen, dass die Agenten regelmäßig aktualisiert werden und alles korrekt funktioniert.

Paradoxerweise führt die umfassende Kontrolle wiederum zu einem Vertrauensverlust – und zwar auf Seiten der Mitarbeiter. Durch die mobilen Agenten sind für das Unternehmen theoretisch sämtliche Aktivitäten der Mitarbeiter nachvollziehbar. Dies ist besonders heikel, wenn Mitarbeiter ihre privaten Geräte für die berufliche Nutzung zur Verfügung stellen. Private Bankgeschäfte, Aktivitäten in sozialen Netzwerken und jede Menge persönlicher Informationen werden neben Unternehmensdaten ebenfalls per Proxy über das Unternehmensnetzwerk übertragen.

Derartige Fälle werfen zudem auch Fragen des innerbetrieblichen Datenschutzes auf. Die meisten Mitarbeiter sind nicht glücklich darüber, dass die Unternehmens-IT Einblick in ihre Daten erhält. Eine von Bitglass durchgeführte Umfrage ergab, dass nur 44 Prozent der befragten Angestellten mit MDM- oder MAM-Software auf ihrem privaten Telefon einverstanden wären. In derselben Umfrage gaben mehr als zwei Drittel (67 Prozent) der Befragten an, dass sie grundsätzlich bereit wären, ihre privaten Mobilgeräte auch für die berufliche Nutzung bereitzustellen, sofern ihr Arbeitgeber die Möglichkeit hätte, Unternehmensdaten zu schützen, ohne die Fähigkeit zu besitzen, ihre persönlichen Daten einzusehen, zu ändern oder zu löschen.

Auf den Punkt gebracht bedeutet dies: Die Unternehmen erhöhen mit MDM-Lösungen die Kontrolle und sichern sich weitreichende Zugriffsrechte, um Geräte nach ihren Maßstäben „vertrauenswürdig“ zu machen. Dies erfolgt jedoch auf Kosten des Vertrauens der Mitarbeiter, und unter Umständen auch zu Lasten der Sicherheit, sofern sie die Kontrollmechanismen durch MDM umgehen sollten.

Vertrauenskrise? Auf ins Datenzeitalter

Es zeichnet sich ab, dass es für Unternehmen langfristig eine Herausforderung darstellen wird, Vertrauen, Gerätekontrolle und Datensicherheit optimal miteinander in Einklang zu bringen. Gleichzeitig gewinnt mit der fortschreitenden Digitalisierung die Rolle von Daten immer mehr an Bedeutung. Als Anzeichen dieses sich vollziehenden Wandels können nicht zuletzt die großen Datendiebstähle in jüngster Vergangenheit sowie eine verstärkt auf Datenschutz abzielende Gesetzgebung angesehen werden.

Dabei sei erwähnt, dass in der IT die Sicherung von Geräten zum Schutz der darauf befindlichen Daten lange Zeit der einzig sinnvolle Ansatz war. Jedoch wird zunehmend deutlich, dass vertrauenswürdige Geräte nur schwer mit dem Begriff “sicher” gleich gesetzt werden können. Kein Gerät ist vor Datenverlust gefeit. Für Unternehmen ist es daher an der Zeit, Daten in den Mittelpunkt ihrer IT-Sicherheitsstrategie zu rücken und ausgehend davon entsprechende Sicherheitsmaßnahmen zu ergreifen.

Maschinen, Menschen, Demagogen – Warum Kommunikation bei digitaler Transformation eine Schlüsselrolle einnimmt

DemagogenWasser ist nass, in Amsterdam fallen gelegentlich Fahrräder um und die Welt wird immer digitaler. Auf den ersten Blick lohnt es die Mühe nicht, der Artikelflut zur digitalen Transformation einen weiteren Strauß an Binsenweisheiten hinzuzufügen. Was technisch machbar ist, ist immer schon gemacht worden – vorausgesetzt, es bringt Gewinn – und die Digitalisierung macht hier keine Ausnahme. Sieht man sich die Gemengelage allerdings nicht wie üblich mit der Lupe, sondern aus dem Hubschrauber an, so wird das Thema wieder erheblich spannender.

Aus dieser Perspektive geht es nicht mehr um die Frage, ob die übernächste Generation von Smartphones bereits implantiert ist, wer für die Parkschäden eines autonom fahrenden Tesla haftet oder wie lange sich Kommunikationsagenturen noch mit dem Layout von gedruckten Broschüren herumschlagen dürfen. Hier geht es vielmehr um die Frage, ob beispielsweise Donald Trump ein Kollateralschäden der Digitalisierung ist, wie eine Gesellschaft aussehen kann, in der Arbeit nur noch für eine Minderheit zur Verfügung steht, und welchen neuen Verantwortungen die Kommunikationsbranche dabei entgegensieht, die bisher noch nicht im Fokus der Diskussion standen.

All he can do for money is drive

Übernimmt man den angelsächsischen Brauch, die Welt in eine Domäne blauer und eine Domäne weißer Kragen zweizuteilen, so schrumpft der Bedarf in der Blaumann-Abteilung schon seit langer Zeit dramatisch.

Bereits 1784 mechanisiert beispielsweise Edmund Cartwright den Webstuhl und stellt damit Heerscharen von Facharbeitern frei. Wenig später konnten auch die beiden armen Kerle entlassen werden, die noch an der Kurbel des Geräts schwitzten, denn diese Aufgabe übernahm eine Dampfmaschine. Nach mehr als zwei Jahrhunderten energischer Innovation spielt manuelle Arbeit in den Industrieländern mittlerweile kaum noch eine Rolle.

Überall dort, wo sich Automatisierung rechnet, ist sie umgesetzt. Was weiterhin besser von Menschen erledigt werden kann, ist in Schwellenländer ausgelagert, in denen die Löhne niedrig und die Arbeitstage lang sind. In der Heimat bleibt geringqualifizierten Arbeitssuchenden wenig mehr als die Option, Lastwagen zu fahren. Genau hieraus, bei den desperaten Verlierern des industriellen Wandels, rekrutiert sich schon heute ein großer Teil der Trump-Fans, Brexit-Befürworter und AfD-Wähler – auch wenn dies natürlich eine polemische Verkürzung ist.

Es kommt allerdings noch schlimmer. Mit dem Übergang von der Roboterisierung des Fließbandes zur intelligenten Digitalisierung ganzer Wertschöpfungsketten nimmt die Transformation weiter Tempo auf. Dass unsere Lastwagen auf dem Weg von A nach B schon sehr bald auf die Chauffeurdienste übergewichtiger Country-Fans verzichten können, ist dabei nur ein Randphänomen.

Viel dramatischer ist, dass eine beinahe menschenleere „Dark Factory“ schon in naher Zukunft ebenso gut in Baden-Württemberg wie in Burkina Faso stehen kann. Die Industrieländer werden wieder als Produktionsstandorte attraktiv. Gut ausgebildete Maschinensteuerer finden sich hier sogar besser. Unvermeidliche Konsequenz bilden Ströme von Flüchtlingen aus Asien und Afrika, deren Ausmaß die Bilder von 2015/16 um ein Vielfaches übertreffen wird.

„Alexa, den Jahresabschluss für 2020 bitte“

Bisher wird das triste Los des Prekariats von den Bewohnern der Teppichetagen noch aus gelassener Distanz betrachtet. Damit wird allerdings bald Schluss sein. Weitgehend unbemerkt kommt die Digitalisierung aus den Startlöchern, um auch in der Domäne der weißen Kragen gründlich aufzuräumen.

Neuronale Netzwerke sind inzwischen so leistungsfähig, dass sie bei einer Vielzahl von Aufgabenstellungen menschlicher Intelligenz nicht nur ebenbürtig, sondern sogar überlegen sind. Längst geht es nicht mehr um dumpfe Rechenleistung, wie etwa bei den Schachcomputern der Vergangenheit, sondern um echtes Lernen, mit dem selbst hochkomplexe, intuitive Aufgaben gemeistert werden.

Die Künstlichen Intelligenzen (KI) entwickeln dabei eine verblüffende, wenn nicht sogar beängstigende Selbstständigkeit. Um herauszufinden, dass wir Zweibeiner Gefallen an Katzenvideos auf YouTube finden, benötigt ein neuronales Netzwerk keine Unterstützung und bastelt sich die Algorithmen zum Erkennen der Tierchen gleich nebenbei mit. Dass so etwas auch nach hinten losgehen kann, lernte Microsoft im Jahr 2016, als sein autonomer Twitter-Chatbot „Tay“ binnen weniger Stunden zum Nazi mutierte und abgeschaltet werden musste.

Die Übernahme der Weltherrschaft durch den Computer steht noch nicht auf der Tagesordnung, selbst wenn kluge Leute wie Stephen Hawking und Elon Musk sich ernsthafte Sorgen in dieser Richtung machen. Doch was unterhalb dieser Schwelle abläuft, ist schon bemerkenswert genug. Mittlerweile gehören KI in Gestalt gehorsamer Assistentinnen fast schon zum Alltag, sei es bei der Navigation im Auto, bei der Suche nach dem passenden Restaurant oder der Thermostateinstellung im smarten Eigenheim.

Dass genau diese dienstbaren Geister derweil unsere Kreditanträge ablehnen und sich um unsere Jobs bewerben, wird gerne übersehen. Dabei liegt es auf der Hand, dass die Bewertung von Kreditrisiken als algorithmusbasierter Vorgang aus der Hand des Sachbearbeiters genommen und einem Computer übertragen wird.

Je schneller Entscheidungen getroffen werden müssen, je größer die zu durchforstenden Datenberge sind, umso unausweichlicher wird der Einsatz von KI, sei es beim Arbitragehandel an den internationalen Börsen oder der Beglückung potentieller Kunden durch individualisierte Werbung. Genau hier beginnt dann auch der Abbau ehemals felsenfest in menschlicher Hand befindlicher Arbeitsplätze.

Vom Versicherungsvertreter über den Bankangestellten bis zum Buchhalter wanken die Bastionen administrativer Jobs, und selbst Rechtsanwälten und Journalisten wird bereits heute die Feder von der KI aus der Hand genommen. Vielleicht ist ja sogar dieses Dossier schon von einer KI geschrieben, merken würde es beim aktuellen Stand der Technik kaum noch jemand. Kein Wunder, dass in einer Studie zu den Digitalisierungsrisiken Service- und Vertriebsmitarbeiter sowie Büroangestellte die größten Segmente auf der Verliererseite ausmachen.

Nach den Arbeitern geraten nun also auch die Angestellten ins Räderwerk der Digitalisierung. Damit aber wird Arbeit endgültig zur Mangelware in der sozialen Realität. Die entscheidende Frage in Literatur und Film lautet daher schon lange nicht mehr, wozu wir Maschinen benötigen, sondern wozu die Maschinen uns noch brauchen (so sie denn je ein Bewusstsein entwickeln …).

Politik jenseits der Arbeitsgesellschaft

Das Problem der digitalen Transformation trifft eine Welt, die ohnehin schon aus den Fugen geraten zu sein scheint. Es bleibt schleierhaft, wie die ökologischen Herausforderungen eines Planeten mit bald acht Milliarden Bewohnern bewältigt werden können. Zudem gelingt es den Staaten in einer zunehmend globalisierten Wirtschaft immer weniger, ihren Anteil der Wertschöpfung in Form von Steuern abzuschöpfen.

Ein Großteil der faktischen Macht hat sich von den demokratisch legitimierten Institutionen in die Hände einer kleinen Elite von Konzernen und Individuen verlagert, die von der Politik nur noch sehr partiell kontrolliert werden. Dieser Bündelung schwer greifbarer Macht entgegengesetzt entwickelt sich die wachsende Komplexität ökonomischer und sozialer Systeme in ausufernden Bürokratien, deren oberste Maxime die Selbsterhaltung ist. Auf beiden Ebenen regieren gleichermaßen die keynesianischen Götter „Geiz“, „Wucher“ und „Misstrauen“ – Eigennutz geht vor Gemeinwohl.

In einem solchen Kontext geht die Einkommensschere fast zwangsläufig immer weiter auf, Produktivitätsgewinne kommen nicht mehr beim Bürger an, sondern landen beim Shareholder oder versickern im Labyrinth bürokratischer Verteilungsnetzwerke. Wird dieses Phänomen durch die Verknappung von Arbeit noch verstärkt, sind die gesellschaftlichen Folgen unabsehbar. Schon jetzt wird die rapide Veränderung der politischen Landschaft entscheidend von dieser Dynamik getrieben.

Die Verlierer des gesellschaftlichen Umbaus befinden sich in Phase eins ihrer Trauerarbeit – „Verleugnung“ – und laufen Rattenfängern nach, welche ihnen die Paradiese der Vergangenheit zurückbringen wollen. Die bislang dominierenden Volksparteien, insbesondere die klassischen Arbeiterparteien, stehen mit ihren Kernpositionen dagegen auf verlorenem Posten. Punkten können sie nur noch, wenn sie sich über ihre extremen Flügel ebenfalls auf populistisches Gelände vorwagen.

Ob dabei nun das konservative Paradies der 1950er-Jahre versprochen wird, wie bei Trump, Farage und Gauland, oder das sozialdemokratische Paradies der 1970er, wie bei Sanders und Corbyn, ist dabei gleich trügerisch. Denn beides ist gleichermaßen romantisch rückwärtsgewandt und zeigt nur, dass Wünschen häufig stärker ist als Denken.

Wirkliche Lösungen setzten vielmehr ein radikales Umdenken in zentralen politischen und gesellschaftlichen Fragen voraus, das vermutlich quer zu allen traditionellen Links-/Rechts-Unterscheidungen verlaufen wird. Jenseits der Arbeitsgesellschaft muss der Begriff der „Arbeit“ völlig neu definiert werden und – vielleicht noch entscheidender – der Begriff der „Arbeitslosigkeit“ entstigmatisiert werden.

Wenn Arbeitssuchende zur Mehrheit werden, ist es keine Option mehr, sie als „Sozialschmarotzer“ zu diffamieren. Logische Konsequenz ist das bedingungslose Grundeinkommen, auch wenn dabei die Zahnbürstenzähler des Sozialamts ebenfalls in die Arbeitslosigkeit rutschen. Achtung, das meint natürlich keine Hauruckverfahren, sondern eine schrittweise Anpassung an sich absehbar verändernde Realitäten.

Parallel muss das Konzept der Steuern, sprich die Beteiligung des Staates an der Wertschöpfung, ebenfalls auf ein neues, für eine globalisierte und digitalisierte Welt taugliches Niveau gehoben werden. Hier mag eine Maschinensteuer den notwendigen Steuerzuwachs für das Grundeinkommen bringen. Es wäre nicht überraschend, wenn genau diese Vorschläge von populistischen Regierungen als erste verwirklicht werden, damit sie nach dem Scheitern ihrer Rückwärtsutopien tatsächlich etwas für ihre Klientel tun können. Ärgerlich nur, dass hier internationale Zusammenarbeit besonders wichtig ist, um nicht weltweiten Fluchtbewegungen von Geld und Produktion Vorschub zu leisten.

Erfolgsfaktor Kommunikation

Die Kommunikationsbranche ist bei der digitalen Transformation natürlich mit im Boot – vielleicht sogar in einer zentraleren Rolle, als ihr bisher bewusst ist. Zunächst einmal ist es eine triviale Notwendigkeit, mit den rasch aufeinanderfolgenden Phasen der Digitalisierung Schritt zu halten. Verkauft und überzeugt wird längst überwiegend online – und dort immer stärker mit dem Fokus auf mobilen Plattformen und Social Media.

Von Prof. Dr. Alexander Güttler, CEO der Unternehmens- und Kommunikationsberatung komm.passion

Von Prof. Dr. Alexander Güttler, CEO der Unternehmens- und Kommunikationsberatung komm.passion

Was auf dem Handy nicht stattfindet, findet oft gar nicht mehr statt. Wer hier noch nicht vollständig angekommen ist, hat reichlich Gelegenheit, sich in geeigneten Seminaren fit zu machen und seine Kapazitäten entsprechend umzubauen. Wichtiger als die Anpassung althergebrachter Strategien an neue Medien ist es allerdings, die neuen Chancen einer grundlegend veränderten Kommunikationslandschaft zu nutzen.

Big Data ermöglicht einen präzisen Blick auf Einstellungen und Verhalten der Zielgruppen und bahnt damit den Weg zu ebenso präzisen Kommunikationsmaßnahmen. Wie erfolgreich diese Strategie ist, zeigt der Siegeszug von Labour bei den letzten Wahlen in Großbritannien, bei denen differenzierte Mailings punktgenau auf die Sorgen und Nöte im jeweiligen Wahlbezirk abgestimmt waren.

Bei der nächsten Einstellungsrunde sollten Agenturen also eher auf ihre IT als auf ihre Personalabteilung hören und eine KI ganz oben auf die Liste setzen. Mit PAS (Pragmatic Analytic Services) kann man heute seine Fans im Internet in jeder Ausprägung kennenlernen und mit entsprechend differenzierten Themen bespielen. Hierzu muss keiner mehr nach Cambridge fahren.

Der digitale Wandel ist aber nicht nur eine „technische“ Herausforderung für professionelle Kommunikatoren – er ist auch eine ihrer wichtigsten inhaltlichen Aufgaben.

Veränderung – und hier vor allem der digital getriebene Change – wird zu einem Dauerthema. Mitarbeitern, die sich gerade ermattet vom letzten Umbauprojekt („Fit for Future 23/d“) zurücklehnen und den Status quo genießen wollen, muss nahegebracht werden, dass der Wandel nie mehr aufhört.

Entsprechend hoch ist der Unterstützungsbedarf bei der schlagkräftigen Kommunikation neuer Unternehmenspositionierung nach außen und der Begleitung von Umbauprozessen in der internen Kommunikation. Gleiches gilt für Kampagnen auf gesellschaftlicher Ebene. Veränderung muss immer bergauf durchgesetzt werden, denn der Mensch ist ein Gewohnheitstier.

Wenn die Inhalte dann auch noch komplex und potentiell bedrohlich sind, ist die Vermittlung eine Aufgabe für Profis. Viel zu oft sind bittere Pillen mit argumentativem Zuckerguss kaschiert oder noch banaler als „alternativlos“ durchgeprügelt worden. Die Quittung ist eine breite Rebellion gegen die Eliten und ihre Rhetorik. Unabhängig von ihrer inhaltlichen Qualität werden daher zukünftig nur noch Ansätze Erfolg haben, die von qualifizierten Kommunikatoren auf einen breitentauglichen Komplexitätsgrad reduziert werden. Und ja, das bedeutet sicher auch Verdichtung, Emotionalisierung und gute Dramaturgien. Vertrauen entsteht nicht rational.

Um ihre Zukunft muss sich die Kommunikationsbranche also keine Sorgen machen. Wer gute Lösungsvorschläge für unsere drängendsten Probleme hat, braucht eine noch bessere Agentur, um sie einer überforderten und widerstrebenden Gesellschaft schmackhaft zu machen. Erheblich mehr Anlass zum Grübeln bietet die Frage, wie weit die Branche der Versuchung nachgeben darf, sich als „Rent a Goebbels“ mit Kampagnen für dubioseste Auftraggeber eine goldene Nase zu verdienen.

Aktuelle Wahlkämpfe und Referenden zeigen, wie schnell eine politikmüde Bevölkerung auf verlockend schlichte Demagogie hereinfällt und wie erfolgreich Meinungssteuerung in der Grauzone von Social Media ist. Kommunikatoren sind zukünftig die Schlüsselfiguren des Wandels. Sie sollten also gründlich darüber nachdenken, ob sie sich vor jeden Karren spannen lassen oder ob sie sich aktiv für ein eigenes Zukunftsmodell demokratischer Gesellschaften einsetzen. Das fordert normative Diskussionen und eine immer wieder neue Ethikdiskussion – gerade in Zeiten, in denen verdeckt agierende Bots oder „Fake News“ nicht immer leicht zu dekuvrieren sind.

Ein wichtiger Treiber dieser Diskussion könnte sicher auch der Deutsche Rat für Public Relations (DRPR) sein. Gut und hilfreich, dass dieser sich in seiner Organisationsstruktur erst kürzlich stärker fokussiert und damit an Handlungsfähigkeit deutlich gewonnen hat. Diskurs kommt auf uns zu – in den Organisationen wie auf gesamtgesellschaftlicher und damit politischer Ebene. Und wie auch die aktuellen politischen Tangram-Spiele zeigen, eines ist Politik sicherlich nicht mehr: langweilig.

 

 

Vernetztes Kinderspielzeug: Risiken steigen, Gefahrenbewusstsein nicht


weihnachtsgeschenk

Bereits zum dritten Mal  veröffentlicht McAfee pünktlich zur Vorweihnachtszeit die Ergebnisse des „Most Hackable Holiday Gifts”-Reports. Wie im Vorjahr zeigt die Studie auf, welche als Geschenk beliebte Technikprodukte sich am leichtesten hacken lassen und gibt Einblick in Verbraucherumfragewerte rund um das Thema vernetzte Technikgeschenke und Cyber-Sicherheit.

Am gefährdetsten sind nach wie vor Laptop & Co., wobei es auch Drohnen und vernetztes Kinderspielzeug auf die Liste geschafft hat. Beunruhigend dabei ist, dass vernetzte Spielzeuge auf 90 Prozent der Weihnachtswunschlisten von Kindern stehen, die nötigen Sicherheitsmaßnahmen jedoch nicht so hoch auf der Prioritätenliste wären.

Sicherheitsrisiken bewusst machen

„Mehr denn je sind sich Verbraucher bewusst, dass vernetzte Geräte wie Laptops, Smartphones und Tablets einem hohen Sicherheitsrisiko ausgesetzt sind und entsprechende Sicherheitsmaßnahmen vorgenommen werden müssen, um die eigenen Daten erfolgreich zu schützen“, kommentiert Alexander Salvador, Director Retail EMEA bei McAfee. „Gleichzeitig besteht jedoch weiterhin eine Diskrepanz zwischen dem Bewusstsein der Verbraucher und der Bereitschaft, tatsächlich die erforderlichen Schritte vorzunehmen, um potenzielle Sicherheitsrisiken zu minimieren. Dieser Trend kann gravierende Folgen haben, besonders wenn es sich dabei um vernetztes Kinderspielzeug handelt.“

Hohe Gefahr bei digital vernetztem Kinderspielzeug

Vernetztes Kinderspielzeug hat es dieses Jahr auf Platz vier der Most Hackable Gifts geschafft – und gleichzeitig ganz weit oben auf die Wunschliste der Kinder. Ganze 89 Prozent aller in Deutschland befragten Eltern gaben an, dass ihr Kind sich schon mal ein „Connected Device” als Spielzeug gewünscht hat. In der Altersgruppe 31 – 40 gaben dementsprechend 20 Prozent aller Befragten an, dieses Jahr ein solches Gerät als Weihnachtsgeschenk kaufen zu wollen. Trotzdem wissen rund 35 Prozent der befragten Eltern nicht, was ein „Connected Device“ überhaupt ist.

Die meisten Kinder bekommen bereits schon im Alter von 7 – 9 ihr erstes digital vernetztes Technikgerät – ein Alter, in dem viele von ihnen noch zu jung sind, um verantwortlich mit den eigenen generierten Daten umzugehen. Knapp 70 Prozent aller Eltern informieren sich auch umfangreich über die Gefahren der gekauften Geräte und 75 Prozent klären Kinder im Gespräch darüber auf. Jedoch installieren lediglich 29 Prozent der Befragten entsprechende Security-Apps um sicherzustellen, dass das Spielzeug ausreichend geschützt ist.

Niedrige Bereitschaft trotz hohem Bewusstsein

Dieses Phänomen gibt es nicht nur bei Eltern: Insgesamt sind 72 Prozent aller deutschen Befragten der Überzeugung, dass Smartphones, Tablets und Laptops nur dann gefahrlos benutzt werden können, nachdem die erforderlichen Sicherheitsmaßnahmen durchgeführt wurden. Auch bei Smart-TV Geräten (47 Prozent aller Befragten) und vernetzten Heimgeräten wie z.B. Bluetooth-Lautsprechern (55 Prozent aller Befragten) erkennen Verbraucher größtenteils das Risiko, gehackt zu werden.

Trotz alledem ergibt sich aus der Studie, dass nur 51 Prozent aller Befragten die erforderlichen Sicherheitsmaßnahmen wirklich durchführen, bevor sie mit einem neuen Gerät online gehen. Hierbei gibt es zwischen den einzelnen Altersstufen überraschende Unterschiede. Während 61 Prozent aller Befragten der Altersgruppe 51 – 55 angeben die nötigen Sicherheitsapplikationen zu installieren, sind es nur 41 Prozent der Altersgruppe 21 – 30. Die ältere Generation, die nicht mit dem Internet groß geworden ist, ist also viel vorsichtiger als diejenigen, die ein Leben ohne das WorldWideWeb kaum noch kennen.

Die Top-5 „Most-Hackable-Gifts” 2017

  1. Laptops/Smartphones/Tablets

Wie letztes Jahr stehen auch 2017 wieder die klassischen Geräte an der Spitze der Liste. Besonders anfällig sind Laptop & Co. für Malware und Ransomware.

  1. Drohnen

Auf Platz zwei haben es dieses Jahr Drohnen geschafft. Diese können nicht nur während dem Fliegen gehackt werden, sondern können auch benutzt werden um persönliche Daten zu stehlen.

  1. Digitale Assistenten

Digitale Assistenten sind die Must-Have Geräte in 2017. Sie sind besonders anfällig für Cyber-Angriffe, da sie noch relativ neu auf dem Markt sind noch über keine ausgereifte Sicherheitsstruktur verfügen. Hacker wissen dies auszunutzen.

  1. Vernetzte Kinderspielzeuge

Wie wichtig Cyber-Sicherheit ist, ist oft noch nicht ganz bei den Herstellern vernetzter Kinderspielzeuge angekommen. Von daher ist es besonders ratsam hier selbstständig die erforderlichen Sicherheits-Maßnahmen durchzuführen.

  1. Vernetzte Haushaltsgeräte

Vernetzte Haushaltsgeräte sind zwar nicht das interessanteste Ziel von Hackern, aber sie speichern persönliche Details über das eigene Heim und stellen dadurch durchaus ein potenzielles Angriffsziel dar.

Über die Umfrage

Im Auftrag von McAfee befragte MSI-ACI im September und Oktober 2017 1.206 Erwachsene im Alter von 18 bis 55, knapp 400 davon in Deutschland. Zusätzlich wurde eine Umfrage spezifisch zum Thema Kinder und vernetzte Technikgeräte durchgeführt.

Digitale Ethik: Welche Moral braucht es in der Data Economy?

Verständnis-Ethik-260x300Xethix befasst sich seit 2010 mit dem Thema der digitalen Ethik. Nun ist dieses Thema auch in den Verbänden der Digitalindustrie angekommen: Stefan Mies, Manager Research and Innovation, artegic AG; Stv. Vorsitzender der Fokusgruppe E-Mail im BVDW, hat dazu einen Beitrag verfasst:

Ethik und Moral sind Begriffe, welche für die meisten Menschen synonym füreinander stehen.

In einer Diskussion über „Data Ethik“ muss dies hingegen stark differenziert werden. Ethik bedeutet das Nachdenken über die Moral. Moral hingegen vereinigt die Verhaltensregeln, Normen und Gesetze oder auch Vorschriften, auf die sich Gruppen in gewissen Kontexten eingelassen haben. Mit der zunehmenden Bedeutung der Informationstechnologien und insb. des Internet hat sich eine Moral im Umgang mit Daten entwickelt. Jeder Kulturkreis hat dabei für sich seine eigene Moral im Umgang mit Daten entwickelt.

Dies zeigt sich z.B. beim Thema Zustimmung zur Datennutzung. Wo in Europa ein explizites Opt-In bei vielen Formen der personenbezogenen Datenerfassung notwendig ist, reicht im amerikanischen raum oftmals ein Opt-Out.

Andere Länder, andere Moral

Schlagzeilen wie „Peking will gläserne Unternehmen“  klingen für Europäer abschreckend, sind aber in China wenig hinterfragter Alltag. Datenschutz hat innerhalb des politischen Systems in China andere moralische Grundzüge angenommen als in westlichen Ländern. Der Gedanke, dass Daten überhaupt ein schützenswertes Gut sein können, ist dort kaum bekannt.

Doch nicht nur in China wird mit Datenschutz anders verfahren: „Per Dekret hat US-Präsident Donald Trump am Mittwoch die Behörden in den USA aufgefordert, den Datenschutz für Ausländer aufzuheben“. Auch in den USA hat sich eine andere Moral im Umgang mit Daten entwickelt, welche ihre Ursache vielmehr in der Weltweiten Unsicherheiten hat. Nicht nur ist der Datenschutz dort generell „lockerer“ als in Europa, es wird auch stark zwischen In- und Ausland unterschieden. Datenschutz für US-Bürger ja, für alle anderen nein.

Moral manifestiert sich in Datenschutzgrundverordnung

Direkt vor unserer Haustür findet wohl im nächsten Jahr der größte Wandel in der Data Moral statt: Die Anforderungen der europäischen Datenschutzgrundverordnung müssen bis zum 25. Mai 2018 umgesetzt werden. Vorschriften und Verordnungen sind nichts anderes als manifestierte, rechtlich bindende Moral.

27 Mitgliedsstaaten auf ein gemeinsames Vorgehen, d.h. auch auf eine gemeinsame Moral, zu verpflichten, war eine Mammut Aufgabe. Diese Aufgabe wurde nach jahrelangem Ringen abgeschlossen. Doch eine gemeinsame Moral erleichtert nicht nur den Umgang mit Daten innerhalb von Europa, es stärkt den europäischen Wirtschaftsraum auch im globalen Wettbewerb.

Dass neben Moral auch Daten Ethik eine zentralere Rolle innerhalb Europas spielt, erkennt man anhand der Bemühungen der Europäischen Kommission. Am 10. Januar 2017 bekannte sich die Europäische Kommission zum Aufbau einer Data Economy mit drei wesentlichen Zielen:

  • ◦access to and transfer of non-personal machine-generated data,
  • ◦data liability, and
  • ◦portability of non-personal data, interoperability and standards.

Als wesentliche Erfolgsmerkmale sieht die EU dafür folgende Aspekte:

  • ◦support „lighthouse“ data initiatives capable of improving competitiveness, quality of public services and citizen’s life
  • ◦develop enabling technologies, underlying infrastructures and skills, particularly to the benefit of SMEs
  • ◦extensively share, use and develop its public data resources and research data infrastructures
  • ◦focus public R&I on technological, legal and other bottlenecks
  • ◦make sure that the relevant legal framework and the policies are data-friendly,
  • ◦accelerate the digitalisation of public administration and services to increase their efficiency,
  • ◦use public procurement to bring the results of data technologies to the market.

(Quelle: EU)

Diese Formulierungen zeigen, dass Daten Ethik nicht eine leere Worthülle ist, sondern vielmehr, dass sich auf allen Ebenen intensiv über die Moral im Umgang mit Daten und deren Folgen ausgetauscht wird.

Positionierung im globalen Wettbewerb

Offen bleibt allerdings die Frage, wie sich die Europäische Union global bei Datenschutzfragen positioniert. Wie geht man um mit Staaten und Wirtschaftsräumen, deren Moralvorstellungen zum Datenschutz sich kulturell anders entwickelt haben? Wie stimmt man sich ab und ermöglicht ein reibungsloses Funktionieren einer Data Economy, die längst nicht mehr an Grenzen halt macht?

Bei dieser Frage sollte es darum gehen, mit welchen Moralvorstellungen im Rücken sowohl wirtschaftliche Interessen europäischer Unternehmen vertreten werden als auch Fairness gegenüber Konsumenten in anderen Ländern und Kulturkreisen gewahrt werden kann. Eine richtige oder falsche Moral kann es nicht geben, da der Umgang mit Daten in jeder Gesellschaft aus anderen Rahmenbedingungen erwachsen ist.

Für die Europäische Union und die dort tätigen Akteure gibt es noch viel zu tun, insb. viele Fragen zu beantworten: Ist es ethisch vertretbar unsere Sicht im Umgang mit Daten anderen Kulturkreisen aufzulegen? Welche Fragen müssen noch gestellt werden, um Moral im Sinne der Gesellschaft mit allen beteiligten, also Konsumenten, Unternehmen und der Politik, zu formen? Oder ist der Aufruf zur Diskussion über Data Ethik nicht mehr als die Angst einzelner, sich dem komplexeren Wettbewerb und der Globalisierung nicht mehr gewachsen zu sehen?

Moral im Unternehmen

An dieser Stelle sollte noch einmal abschließend angemerkt werden, dass Moral im Umgang mit Daten nichts ist, was rein auf Ebene politischer Institutionen verhandelt wird. Unternehmen müssen sich an rechtliche Vorgaben halten. Doch das heißt nicht, dass sie darüber hinaus nicht auch eigene Moralvorstellungen formen können. Nachhaltigkeit, Transparenz und der faire Einbezug von Kunden können für Unternehmen auch unabhängig von einem rechtlichen Muss ein echter Benefit im Wettbewerb sein.

Umfrage: Bundesbürger stehen positiv zur Künstliche Intelligenz

robots-v4rSelbstfahrende Autos, genauere medizinische Diagnosen oder Unterstützung bei der Aufklärung von Verbrechen – Künstliche Intelligenz wird schon heute in vielen Lebensbereichen eingesetzt und gilt als Schlüsseltechnologie der kommenden Jahre. Zwei Drittel (69 Prozent) der Bundesbürger sind der Meinung, dass Künstliche Intelligenz (KI) entscheidend ist, damit deutsche Unternehmen künftig weltweit erfolgreich sind.

KI-Forschung sollte mehr gefördert werden

Jeder Zweite (49 Prozent) wünscht sich, dass die Politik die KI-Forschung hierzulande massiv fördert und rund jeder Dritte (30 Prozent) ist sogar der Meinung, die Politik müsse Künstliche Intelligenz zu einem Top-Thema machen. Das ist das Ergebnis einer repräsentativen Bevölkerungsumfrage unter 1.006 Bundesbürgern ab 14 Jahren im Auftrag des Digitalverbands Bitkom. „Bereits in wenigen Jahren werden viele Produkte und Dienstleistungen mit Maschinenintelligenz ausgestattet oder sogar von ihr geprägt sein“, sagt Bitkom-Präsident Achim Berg. „Wir müssen alles tun, um das Potenzial von KI für die digitale Gesellschaft bestmöglich zu nutzen.“

Bundesbürger sehen in allen Lebensbereichen große Chancen beim Einsatz von Künstlicher Intelligenz

Achim Berg, Vizepräsident Bitkom und Mitglied des Vorstandes bei Bertelsmann

Achim Berg, Vizepräsident Bitkom und Mitglied des Vorstandes bei Bertelsmann.

8 von 10 (83 Prozent) sind sicher, dass KI die Verkehrssteuerung verbessern und so Staus reduzieren kann. Fast ebenso viele (81 Prozent) glauben, dass dank KI in der Industrie körperlich belastende Tätigkeiten auf Maschinen übertragen werden können. Jeweils zwei Drittel sagen, dass Verwaltungstätigkeiten durch KI beschleunigt werden (68 Prozent), in der Forschung die Innovationskraft steigt (67 Prozent) und der Kundenservice Anfragen zuverlässiger bearbeiten kann (64 Prozent).

Ebenfalls eine Mehrheit geht davon aus, dass die Polizei durch den Einsatz von KI Verbrechen schneller aufklären kann (54 Prozent) und im Gesundheitswesen mit KI-Hilfe bessere Diagnosen gestellt werden (57 Prozent). „Es geht nicht darum, dass ein KI-System den Polizisten oder den Arzt ersetzt. Es geht darum, dass intelligente Systeme ihm zuarbeiten“, sagt Berg. „So kann die Software zum Beispiel eine Vielzahl von Daten über einen erkrankten Patienten verarbeiten und diese in kurzer Zeit mit einer Vielzahl zurückliegender Diagnosen und den jüngsten Forschungsergebnissen abgleichen. Auf dieser Basis kann sie dem behandelnden Arzt eine individuell auf den einzelnen Patienten abgestimmte Therapie vorschlagen.“

KI wird keine völlig neuen Dinge erschaffen

Nur an einer Stelle sind die Befragten mehrheitlich skeptisch. Gerade einmal jeder Fünfte (21 Prozent) glaubt, dass KI in Kunst und Kultur völlig neue Dinge schaffen kann. Berg: „Analytisch sieht man bei KI offenkundig keine Grenzen, echte Kreativität wird den Systemen aber nicht zugetraut.“

Darüber hinaus zeigt die Umfrage auch, dass viele Bundesbürger oft ohne es zu wissen Geräte oder Dienste nutzen, die auf KI basieren. 19 Prozent der Befragten sind sich sicher, dass sie entsprechende Anwendungen bereits verwendet haben, 31 Prozent glauben es zumindest. Tatsächlich aber gehören bereits 73 Prozent zu den Nutzern etwa von Online-Übersetzung, Sprachassistenten oder individuellen, nicht werblichen Empfehlungen von Online-Plattformen.

Bei aller Offenheit gegenüber Künstlicher Intelligenz gibt es auch zahlreiche Bedenken. So befürchten gut drei Viertel (78 Prozent), dass der Einsatz von KI Machtmissbrauch und Manipulation Tür und Tor öffnet. Jeweils rund zwei Drittel sorgen sich, dass KI die Vorurteile der Programmierer abbildet (67 Prozent) und faktenbasierte Entscheidungen nur vorgaukelt (64 Prozent).

Rund jeder Zweite hat Angst, dass KI den Menschen entmündigt (50 Prozent) oder sich die intelligenten Maschinen sogar irgendwann gegen den Menschen richten (54 Prozent). „Wir erleben immer bessere KI-Systeme, die jeweils für eine bestimmte Aufgabe trainiert sind und diese zum Teil auch besser als wir Menschen erledigen. Eine Maschine, die besonders gut Krankheits-Diagnosen stellt, kann aber eben nur das und wird weder meine Reisen buchen noch meine Wohnung putzen“, sagt Berg. „Wir müssen besser und breiter darüber aufklären, was künstliche Intelligenz kann, und was sie aber auch nicht kann.“

Nur eine kleine Minderheit von gerade einmal 4 Prozent wünscht sich, dass die Politik den Einsatz von KI verbietet. Allerdings sind auch nur 3 Prozent dafür, dass sich die Politik gänzlich raushält. Die große Mehrheit von 88 Prozent wünscht sich, dass die Politik Regeln vorgibt. Knapp 6 von 10 Bundesbürgern (57 Prozent) sind zudem der Meinung, dass die Politik den Ängsten der Bevölkerung beim Thema KI entgegenwirken soll. „Was wir dringend brauchen ist eine bundesweite Strategie zu Entwicklung und Einsatz von Künstlicher Intelligenz. Wenn wir die nächsten Jahre darauf verwenden, alleine das Für und Wider der Technologie zu debattieren, werden wir international abgehängt“, so Berg.

Nach Ansicht des Bitkom muss die Bundesregierung die Ausgaben für KI-Forschung deutlich erhöhen und in der laufenden Legislaturperiode mindestens 4 Milliarden Euro bereitstellen. Zusätzlich sollten im Minimum zehn Masterstudiengänge und 40 Professuren für KI eingerichtet werden, um dem drohenden Fachkräftemangel bei dieser Zukunftstechnologie entgegenzutreten.

„Für KI sollte ein strategischer Prozess der Potenzial- und Risikobeurteilung aufgesetzt werden, um wirtschafts-und standortpolitische Chancen und notwendige politische Weichenstellungen zu untersuchen und Handlungsoptionen zu bewerten“, sagt Berg.

Bitkom empfiehlt zudem, dass Deutschland sich auf europäischer Ebene engagiert, um den Datenschutz mit Blick auf KI weiterzuentwickeln. Dabei bietet sich eine „regulierte Ko-Regulierung“ an, um Datenschutzvorgaben bei KI-Anwendungen umzusetzen. Unternehmen entwickeln anhand von Best Practices Verhaltensregeln, die die EU-Kommission oder Aufsichtsbehörden prüfen und als rechtskonform anerkennen. Berg: „KI hat eine sehr grundsätzliche Bedeutung für die Entwicklung der digitalen Gesellschaft. Wir brauchen Eckpunkte einer digitalen Ethik, die wir in einer Partnerschaft von Gesellschaft, Wirtschaft und Politik entwickeln sollten.“

Bitkom hat zusammen mit dem Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) einen umfangreichen Reader zur wirtschaftlichen Bedeutung und gesellschaftlichen Herausforderungen von KI veröffentlicht. Auf mehr als 200 Seiten wird gezeigt, in welchen Unternehmensbereichen heute schon KI-Anwendungen eingesetzt werden und welche Rolle der Mensch auch beim automatisierten Entscheiden noch spielt. Dabei widmet sich ein eigenes Kapitel ethischen Fragen, aber auch rechtliche und regulatorische Fragen sowie die Diskussion über Algorithmen als Wirtschaftsgut werden behandelt.

Der Reader steht zum kostenlosen Download bereit unter: www.bitkom.org/Bitkom/Publikationen/Entscheidungsunterstuetzung-mit-Kuenstlicher-Intelligenz.html.