Category Archives: Topstory

Jeder spricht davon, wenige kennen sie: Was ist eigentlich Künstliche Intelligenz?

Künstliche IntelligenzKünstliche Intelligenz (KI) ist ein heißes Thema in der Wirtschaft. Immer mehr Unternehmen haben die Technologie für sich entdeckt und prüfen die Möglichkeit der Anwendung von KI in ihren Betrieben. Neben Robotic Process Automation, Big Data und der Blockchain-Technologie gilt vor allem die Künstliche Intelligenz als wegweisende Zukunftstechnologie. Kaum eine Digitalstrategie kommt heutzutage ohne Künstliche Intelligenz aus. Dennoch bleiben etliche Führungskräfte skeptisch, ob KI das halten kann, was sie verspricht.

Was ist Künstliche Intelligenz?

Künstliche Intelligenz ist ein Zweig der Informatik, der darauf abzielt, intelligente Maschinen zu schaffen. Im Vordergrund steht die Simulation menschlicher Intelligenzprozesse durch Maschinen, insbesondere Computersysteme.

Zu diesen Prozessen gehören der Erwerb von Informationen und Regeln für die Verwendung der Informationen, das Verwenden von Regeln, um ungefähre oder endgültige Schlussfolgerungen zu ziehen und die Selbstkorrektur. Allgemein referenziert der Begriff Künstliche Intelligenz auf die Imitation menschlichen Entscheidungsverhaltens durch einfache Algorithmen.

In der Theorie reden wir von Künstlicher Intelligenz, wenn ein Computer auf eine einfache Art anspruchsvolle Probleme löst, für deren Lösung eigentlich die Intelligenz eines Menschen benötigt wird. Man unterscheidet dabei zwischen schwacher und starker KI. Bei der schwachen KI handelt es sich um ein System, das für eine bestimmte Aufgabe entwickelt und trainiert wurde. Virtuelle persönliche Assistenten wie Apples Siri sind eine Form von schwacher KI.

Die starke KI, auch als künstliche allgemeine Intelligenz bekannt, besitzt verallgemeinerte menschliche kognitive Fähigkeiten. Sie soll das menschliche Verhalten mechanisieren. Sie kann bei ungewohnten Aufgaben eine Lösung finden, ohne dass ein menschliches Eingreifen erforderlich ist. Sie soll dazu beitragen, den Menschen beim Denkprozess zu unterstützen.

Wann ist eine Maschine intelligent?

Ob eine Maschine in der Lage ist, so wie ein Mensch zu denken, lässt sich mit dem Turing-Test als akzeptiertes Messwerkzeug feststellen. Der Test geht auf den englischen Mathematiker Alan Turing zurück, der in den 1940er und 1950er Jahren ein Pionier auf dem Gebiet der Künstlichen Intelligenz war und diesen Test erfunden hat.

Danach wird einem Computer Künstliche Intelligenz bescheinigt,  wenn er unter bestimmten Bedingungen menschliche Antworten so nachahmen kann, dass ein Mensch nicht fehlerfrei bestimmen kann, ob die Antworten auf die gestellten Fragen von einem Computer oder einem anderen Menschen gegeben wurden.

Wie funktioniert Künstliche Intelligenz in der Praxis?

Die Einsatzfelder Künstlicher Intelligenz sind sehr vielfältig. KI wird eingesetzt, um Cyberangriffe abzuwehren, als Assistent in der medizinischen Diagnostik und um die Idee vom autonomen Fahren zu realisieren.  Vor allem in der Medizin wird KI bereits erfolgreich verwendet. Intelligente Maschinen führen bereits heute zahlreiche Operationsschritte durch, und das präziser als ein menschlicher Chirurg.

KI-basierte Systeme wandeln die Computertomografien in dreidimensionale Bilder um, wodurch Ärzten die Möglichkeit eröffnet wird, sich ein spezifisches Bild von jeder Körperpartie zu machen. Immer mehr Expertensysteme, die in spezialisierten Einsatzgebieten genutzt werden, greifen auf Künstliche Intelligenz zurück.

Chatbots funktionieren als textbasierte Dialogsysteme gerade im Kundenservice über KI-basierte Spracherkennungstechnologien. Digitale Assistenten wie der Google Assistent werden immer besser, weil sie mit jeder neuen Anfrage automatisch dazulernen. Große, komplexe oder schwach strukturierte Massendaten können ohne den Einsatz von KI kaum produktiv genutzt werden.

Intelligente Algorithmen helfen, Muster in den immens großen Datenmengen zu erkennen und in übersichtliche Kategorien einzuteilen. KI erlaubt Automatisierungen im Kundenservice und in kaufmännischen Prozessen. Durch ihre kognitiven Fähigkeiten lernen die Systeme mit jedem Kundenkontakt und jedem Geschäftsvorfall hinzu und können so immer präziser auf Anforderungen reagieren.

Computer mit Künstlicher Intelligenz haben das Potenzial, auf der Basis ihres Erfahrungsschatzes Zukunftsprognosen abzugeben. Intelligente Algorithmen können anhand des früheren Kaufverhaltens vorhersagen, wann ein Kunde ein bestimmtes Produkt erwerben will.

KI ist in eine Vielzahl verschiedener Technologietypen eingebunden.

Automatisierung

So können beispielsweise mit Robotic Process Automation (RPA) repetitive Aufgaben mit hohem Volumen automatisch ausführt werden, die normalerweise von Menschen erledigt werden. RPA unterscheidet sich von der IT-Automatisierung darin, dass es sich an sich ändernde Umstände anpassen kann.

Maschinelles Lernen

Maschinelles Lernen gilt als Kerntechnologie der Künstlichen Intelligenz. Dabei handelt es sich vereinfacht ausgedrückt um die Automatisierung der prädiktiven Analytik. Je mehr Beispiel- bzw. Trainingsdaten das Lernverfahren erhält, desto mehr kann es sein Modell verbessern.

Lernalgorithmen extrahieren aus den zur Verfügung gestellten Daten statistische Regelmäßigkeiten und entwickeln daraus Modelle, die auf neue, zuvor noch nicht gesehene Daten reagieren können, indem sie sie in Kategorien einordnen, Vorhersagen oder Vorschläge generieren.

Man unterscheidet drei Arten von Algorithmen für maschinelles Lernen

  • Betreutes Lernen: Datensätze werden beschriftet, damit Muster erkannt und zur Beschriftung neuer Datensätze verwendet werden können.
  • Unbeaufsichtigtes Lernen: Datensätze sind nicht beschriftet und werden nach Ähnlichkeiten oder Unterschieden sortiert.
  • Verstärkungslernen: Datensätze sind nicht beschriftet, aber nach dem Ausführen einer oder mehrerer Aktionen erhält das KI-System eine Rückmeldung.

Machine Vision

Diese Technologie erfasst und analysiert visuelle Informationen mithilfe einer Kamera, Analog-Digital-Wandlung und digitaler Signalverarbeitung. Das maschinelle Sehen kann so programmiert werden, dass es beispielsweise durch Wände hindurchsieht. Die Anwendungsfelder reichen von der Unterschriftenidentifikation über die Klassifizierung von Produktteilen bis zur medizinischen Bildanalyse.

Natural Language Processing (NLP)

Bei NLP geht es um die Verarbeitung von menschlicher Sprache durch ein Computerprogramm. Eines der bekanntesten Anwendungsbeispiele ist die Spam-Erkennung, bei der die Betreffzeile und der Text einer E-Mail geprüft werden und entschieden wird, ob es sich um Junk handelt. NLP wird hauptsächlich eingesetzt für Textübersetzungen, Stimmungsanalysen und Spracherkennung.

Robotik

Sie beschäftigt sich mit der Konstruktion und Herstellung von Robotern.  Sie werden nicht nur in der Produktion oder von der NASA verwendet, um große Objekte im Weltraum zu bewegen. Mithilfe von maschinellem Lernen können Roboter auch in sozialen Umgebungen interagieren.

Selbstfahrende Autos: Durch die Kombination von Computer Vision und Bilderkennung können Fahrzeuge automatisiert, ohne den Einfluss eines menschlichen Fahrers, fahren, eine Spur halten, Hindernissen ausweichen und einparken.

Fazit

KI durchdringt in ungeahnter Geschwindigkeit unseren Alltag in Form digitaler Assistenten, kooperativer Roboter, autonomer Fahrzeuge und Drohnen. Big Data und die amerikanischen Internetkonzerne treiben die Entwicklung Künstlicher Intelligenz voran, unterstützt von immer leistungsfähigeren Hard- und Softwareplattformen.

Sie sind das Instrumentarium, das Machine Learning benötigt, um große Datenmengen verarbeiten zu können, komplexe Zusammenhänge zu erkennen und daraus zu lernen, ohne explizite Programmierung. Es wird nicht mehr lange dauern, bis die ersten smarten, vorausschauenden Systeme sich selbst überwachen, Prognosen liefern und eigenständig Maßnahmen vorschlagen oder durchführen. Die Forschung befindet sich noch in den Anfängen, so dass die technologische Optimierung momentan mit einem enormen Mehrwert für die Nutzer und Unternehmen einhergeht.

Autor: Milad Safar ist Managing Partner der Weissenberg Group, die er 2013 zusammen mit Marcel Graichen gegründet hat. Seit Beginn seiner Berater-Tätigkeit entwickelte er für namhafte Konzerne Lösungen zur Optimierung von Prozessen durch den Einsatz von IT-Systemen. Das Kerngeschäft von Weissenberg Intelligence bilden die  Anwendungsmöglichkeiten, die sich für Unternehmen durch den Einsatz von Robotic Process Automation und Künstlicher Intelligenz ergeben.  Im Zentrum steht die Automatisierung standardisierter, regelbasierter Prozesse durch Software-Roboter, um die vorhandenen Ressourcen effizienter einzusetzen und damit für die Unternehmen letztendlich einen wirtschaftlichen Mehrwert zu schaffen.

Vernetztes Fahren – Smart Car: Europa darf nicht falsch abbiegen

Smart Car (Bildquelle: Bitkom)

Smart Car (Bildquelle: Bitkom)

Beim autonomen Fahren läuft Europa Gefahr, im Innovationswettbewerb hinter Asien und den USA zurückzufallen. Davor warnt der Digitalverband Bitkom. Hintergrund ist ein Streit darüber, wie vernetzte Fahrzeuge untereinander und mit der Infrastruktur in der Straße und am Straßenrand kommunizieren sollen: per WLAN oder über das Mobilfunknetz. Im Europäischen Rat wird darüber voraussichtlich am 14. Juni eine Vorentscheidung fallen.

Es zeichnet sich ab, dass für die Vernetzung von Autos und Infrastruktur EU-weit der WLAN-Standard genutzt werden soll, während Mobilfunktechnologien wie 5G nicht berücksichtigt werden. Dem steht die Entscheidung Chinas entgegen, beim vernetzten Fahren perspektivisch auf 5G zu setzen. Die USA streben einen technologieneutralen Wettbewerb an. „Europa darf beim autonomen Fahren nicht falsch abbiegen.

Wenn andere Länder auf den Mobilfunk von morgen setzen, können wir keinen europäischen Sonderweg einschlagen“, sagt Bitkom-Präsident Achim Berg. „Speziell die neue 5G-Mobilfunktechnologie bietet beim autonomen Fahren entscheidende Vorteile, wie die verlässliche Kommunikation auch über größere Distanzen und besseren Schutz von schwächeren Verkehrsteilnehmern wie Radfahrern und Fußgängern. Der Mobilfunkstandard könnte zudem schnell eingesetzt werden, denn schon heute sind Millionen Autos mit SIM-Karten ausgerüstet.“

 5G bietet viele Vorteile fürs autonome Fahren

Der künftige Funkstandard soll in dem delegierten Rechtsakt zum Thema „Cooperative Intelligent Transport Systems“ (C-ITS) geregelt werden, den die Europäische Kommission erarbeitet hat und der vom Europäischen Rat in diesem Sommer verabschiedet werden soll. Der aktuelle Entwurf sieht vor, dass die Kommunikation für vernetztes Fahren ausschließlich über den WLAN-basierenden Standard IEEE 802.11p laufen soll.

Andere verfügbare Technologien wie C-V2X, unter die auch 5G fällt, werden ausgeschlossen. Während der WLAN-Standard auf Kommunikation mit kurzen Reichweiten begrenzt ist, ermöglicht 5G eine verlässliche Langstreckenkommunikation. Davon würden auch andere Verkehrsteilnehmer wie Fahrradfahrer, Fußgänger und Nutzer von E-Scootern oder auch Rollstühlen profitieren, deren individuelle Mobilfunksignale für das vernetzte Fahren berücksichtigt werden könnten. Zudem ist bereits seit April 2018 jedes Neufahrzeug in der EU mit einer elektronischen SIM-Karte ausgestattet, um bei Unfällen Rettungskräfte zu alarmieren („eCall“). Die WLAN-Schnittstelle müsste dagegen bei allen Fahrzeugen nachgerüstet werden.

 EU-Rechtsakt muss überarbeitet und für Mobilfunk geöffnet werden

Der Europäische Rat entscheidet mit qualifizierter Mehrheit. Erforderlich ist die Zustimmung von 55 Prozent der Mitgliedsstaaten, die zudem 65 Prozent der EU-Bevölkerung repräsentieren müssen. Deutschland kommt im Europäischen Rat in diesem Fall die entscheidende Rolle zu. Berg: „Deutschland sollte sich im Europäischen Rat dafür einsetzen, den Rechtsakt zu überarbeiten, eine technologieneutrale Fassung vorzulegen und so den Einsatz von Mobilfunk beim autonomen Fahren zu ermöglichen.“

Digital-Stadt Darmstadt: Beirat stellt ethische Leitlinien zur Digitalisierung vor

Digitalstadt DarmstadtDie Facharbeitsgruppe Ethik des Ethik- und Technologiebeirats der Digitalstadt Darmstadt hat ethische Leitlinien erarbeitet, die Darmstadt Orientierung bei den städtischen Digitalisierungsaktivitäten geben sollen. Die Wissenschaftsstadt Darmstadt wird damit die erste deutsche Stadt sein, die von Fachexperten einen konkreten ethischen Gestaltungsrahmen für ihre Digitalisierungsaktivitäten erhält. Vertreter des Ethik- und Technologiebeirates und der Facharbeitsgruppe Ethik haben den Zwischenstand der ethischen Leitlinien für die Digitalstadt Darmstadt im Fraunhofer-Institut für Sichere Informationstechnologie SIT der Öffentlichkeit vorgestellt.

Gemeinwohlverpflichtung im Digitalbereich

Die Präambel und die neun Leitlinien betonen beispielsweise die Gemeinwohlverpflichtung, die demokratische Kontrolle sowie Transparenz und den diskriminierungsfreien Zugang zu Dienstleistungen der Digitalstadt Darmstadt. Automatisierte Verwaltungsentscheidungen sind offenzulegen, eine Abhängigkeit von Firmen oder Produkten zu vermeiden und personenbezogene Daten dürfen gemäß den Leitlinien nicht verkauft werden.

„Eine Schlüsselrolle bei der Digitalisierung Darmstadts nimmt die städtische Datenplattform ein. An ihrem Beispiel wurde die Wichtigkeit der Datensouveränität herausgearbeitet, die dann konsequenterweise Eingang in das Dokument fand“, erklärte Prof. Dr. Michael Waidner, Vorsitzender des Ethik- und Technologiebeirats.

Prof. Dr. Arnd Steinmetz, unter dessen Vorsitz die Facharbeitsgruppe Ethik die Leitlinien erstellte, betonte: „Die ethischen Leitlinien sind langfristig angelegt, ihr Horizont reicht weit über die aktuellen Projekte der Digitalstadt Darmstadt GmbH hinaus.“

Smart Cities und Smart Regions

Die Facharbeitsgruppe Technologie blickt mit ihrem selbst gesetzten und ersten Themenfeld „Mobilität“ ebenfalls langfristig in die Zukunft. Ihr Leiter, Prof. Dr. Ralf Steinmetz, erläuterte: „Wir treten an, aufzuzeigen, wie Technik nachhaltig gestaltet werden kann. Mobilitätslösungen, die mittels klug geplanter und durchgeführter Digitalisierung zukunftsfähig und -offen werden, sind ein Kernthema für alle Smart Cities und Smart Regions.“

Im nächsten Schritt wird der Entwurf der Leitlinien dem gesamten Ethik- und Technologiebeirat zur weiteren Bearbeitung vorgelegt.

Hintergrund: Digitalstadt Darmstadt GmbH

Seit Juni 2017 trägt die Wissenschaftsstadt Darmstadt den Titel „Digitale Stadt“, den sie als Wettbewerbs-Sieger vom IT-Branchenverband Bitkom in Zusammenarbeit mit dem Deutschen Städte- und Gemeindebund verliehen bekommen hat. Seitdem arbeiten unzählige Akteure aus Wissenschaft, Politik und Wirtschaft in 14 Bereichen (Verwaltung, Mobilität, Handel & Tourismus, Bildung, Gesellschaft, Umwelt, Energie, Sicherheit & Katastrophenschutz, Gesundheit, Datenplattform, IT-Infrastruktur, Cybersicherheit, Kultur und Industrie 4.0) an dem Gesamtprojekt „Digitalstadt Darmstadt“.

Ziel des Projekts ist es, dass mit Hilfe neuester Smart-City-Technologie in Darmstadt ein urbanes digitales Ökosystem mit greifbarem Nutzen für die Bürgerinnen und Bürger Wirklichkeit wird. Am 15. August 2018 konstituierte sich der Ethik- und Technologiebeirat der Digitalstadt Darmstadt. Er begleitet die Digitalisierungsaktivitäten Darmstadts und gibt Empfehlungen. Der Beirat setzt sich interdisziplinär mit Expertinnen und Experten aus den Bereichen Informatik, Philosophie, Ethik, Pädagogik, Soziologie – Industriesoziologie, Stadt- und Raumsoziologie, mit Architektur und Stadtplanung sowie dem Bereich Umwelt und Nachhaltigkeit zusammen.

Zusätzlich wird jeweils ein Vertreter aus den in der Stadtverordnetenversammlung der Wissenschaftsstadt Darmstadt vertretenen Fraktionen je Wahlperiode in den Beirat entsendet. Vorsitzender des Rates ist Prof. Dr. Michael Waidner als Chief Digital Officer (CDO) der Wissenschaftsstadt Darmstadt.

Vertrauter Feind: Wie Unternehmen mit Insiderbedrohungen umgehen

Bildquelle: Fotolia_146248266_M

Bildquelle: Fotolia_146248266_M

IT-Sicherheitsbedrohungen durch Insider rücken immer mehr in das Bewusstsein von Unternehmen. Wie sie das Risiko wahrnehmen, inwieweit sie schon von Insiderattacken betroffen waren und welche Sicherheitsmaßnahmen sie anwenden, erklärten 437 IT-Verantwortliche in einer Umfrage von Bitglass und der Information Security Community.

Die Sicherheit von Daten nimmt im Zeitalter der Digitalisierung einen immer höheren Stellenwert ein. Durch die starke Vernetzung im Rahmen von Cloudanwendungen und dem Zugriff von einer Vielzahl an Mobilgeräten stellen mittlerweile nicht nur externe Hacker ein Risiko für die Datensicherheit dar.

Auch Insider, also Unternehmensangehörige mit weit reichenden Nutzerrechten, gelten im Zuge dessen mittlerweile als ein Faktor, der in der IT-Sicherheitsstrategie berücksichtigt werden muss. Ob lediglich aus Unachtsamkeit oder tatsächlich aus böswilliger Absicht: Hat eine Insiderhandlung einen Datenverlust zur Folge, handelt es sich nach gesetzlichen Datenschutzvorgaben um einen massiven Sicherheitsverstoß. Dementsprechend sollte das Risiko, das von Insidern ausgeht, nicht unterschätzt werden.

Eine deutliche Mehrheit von 73 Prozent der IT-Security-Verantwortlichen ist gegenwärtig der Ansicht, dass Insiderangriffe im vergangenen Jahr deutlich zugenommen haben. Diese Einschätzung fußt auf stabilen Tatsachen: 59 Prozent gaben an, im vergangenen Jahr mindestens einen Insiderangriff erlebt zu haben. Im Jahr 2017, bei der letzten Befragung, waren lediglich 33 Prozent von einem derartigen Angriff betroffen.

Cloudservices und Mobilgeräte erschweren die Sicherung

Schwierigkeiten, Insiderattacken ausfindig zu machen, sehen 56 Prozent der Befragten durch die Verlagerung auf Cloudservices. Auf die Frage, welche Faktoren dies besonders erschweren, nannten die Teilnehmer folgende am häufigsten:

  • Insider verfügen über gültige Anmeldedaten und legitime Zugriffsrechte
  • Verstärkte Nutzung von verschiedenen Apps
  • Mangelnde Kontrolle über Daten außerhalb des eigenen Netzwerks

Zu entsprechend verstärkten Sicherheitsmaßnahmen in der Nutzung von Cloudanwendungen hat dies jedoch nur bei einem kleinen Anteil der Befragten geführt: Nur 40 Prozent erklärten, anormales Nutzerverhalten in SaaS-, IaaS- und PaaS-Diensten überhaupt zu überwachen. Weitere 19 Prozent sind sich nicht sicher, ob ihnen dies auch in ausreichendem Maße gelingt.

Ein ähnliches Bild ergibt sich für die Sicherung des Zugriffs auf Unternehmensanwendungen über private Mobilgeräte: 27 Prozent der Teilnehmer gehen lediglich davon aus, manche Insiderbedrohungen auch beim Zugriff über private Geräte erkennen zu können. Nur 12 Prozent der Befragten sind sich sicher, typische Verhaltensanomalien von Insidern unter allen gegebenen Umständen erkennen zu können.

32 Prozent hingegen gelingt dies ausschließlich durch die Installation agentenbasierter Lösungen, beispielsweise im Rahmen von BYOD-Richtlinien, weiteren sieben Prozent wiederum nur, sofern der Mobilzugriff on-premises erfolgt. Lediglich vier Prozent sehen von privaten Geräten ein derart hohes Risiko, dass sie den Zugriff darüber vollständig unterbinden.

Entdeckung von Insiderattacken: Wenige Minuten versus mehrere Monate

Auch bei Insiderangriffen ist Zeit entscheidend: Je länger es dauert, einen Insiderangriff zu entdecken und einzudämmen, umso höher ist das Risiko für einen Datenverlust. Entsprechend individuell verschiedener Erfahrungswerte und Sicherheitsniveaus, variiert die Einschätzung der Befragten darüber, wie lange es dauern würde, einen Insiderangriff zu entdecken, äußerst breit: 22 Prozent sehen sich in der Lage, einen derartigen Angriff binnen weniger Stunden ausfindig machen zu können, 19 Prozent im Lauf eines Tages und 15 Prozent sogar innerhalb von Minuten. 17 Prozent sehen eine Woche als realistischen Zeitrahmen an und weitere 13 Prozent gehen von etwa einer Woche aus. Die verbliebenen 14 Prozent nehmen an – wenn überhaupt – für das Entdecken eines Insiderangriffs mindestens drei Monate zu benötigen.

Sicherheitsmaßnahmen: Konventionell weitgehend ausgeschöpft, technologisch verbesserungswürdig

Die von den Unternehmen geschätzte Reaktionszeit spiegelt auch die Ausgereiftheit ihrer Sicherheitsmaßnahmen wider. Wie die Ergebnisse der Umfrage nahelegen, nutzt die Mehrheit der Befragten dieselben Maßnahmen – zumindest diejenigen konventioneller Art. Die Hälfte der Teilnehmer sorgt nach eigenen Angaben für eine Sensibilisierung der Mitarbeiter. Regelmäßige Schulungen sorgen dafür, dass Unternehmensangehörige ein Bewusstsein für die Bedeutung von Datensicherheit und potentielle Risiken entwickeln.

Auf diese Weise kann vor allem Datenverlusten, die durch Unachtsamkeit oder unsachgemäße Nutzung von Anwendungen entstehen, vorgebeugt werden. Weiterhin setzen etwa 40 Prozent in der Gestaltung ihrer Strukturen und Prozesse die Ratschläge der zuständigen Behörden zur Informationssicherheit um. 35 Prozent unterziehen ihre Mitarbeiter sogar einem Backgroundcheck, um das Gefahrenpotential durch Insider gering zu halten.

Auf Seite der technologischen Maßnahmen hingegen zeigen sich deutlich weniger Gemeinsamkeiten zwischen den einzelnen Unternehmen. Einfache Sicherheitsmaßnahmen, die insbesondere in Cloud-Umgebungen für besseren Schutz sorgen, wie eine Überwachung der Benutzeraktivitäten und eine Zwei-Faktor-Authentifizierung, werden lediglich von 31 beziehungsweise 33 Prozent der befragten Unternehmen eingesetzt.

Welche Technologien hingegen sie als hilfreich erachten, darüber herrscht unter der Hälfte der Befragten wiederum nahezu Einigkeit: Funktionen wie Data Loss Prevention (52 Prozent), Datenverschlüsselung (50 Prozent), Identity und Access Management (50 Prozent) und User Behaviour Anomaly Detection (48 Prozent) wurden als die bedeutendsten im Kampf gegen Insiderbedrohungen genannt.

Insider: Ein vertrauter Feind?

Zusammenfassend lässt sich festhalten, dass Unternehmen sich auf der einen Seite der Gefahr für die Datensicherheit, die von Insidern ausgeht, durchaus bewusst sind. Andererseits spiegelt sich dieses Bewusstsein derzeit nur bei wenigen in geeigneten Sicherheitsmaßnahmen wider.

Dies deutet darauf hin, dass Unternehmen Schwierigkeiten damit haben, das „Feindbild“ Insider genau zu definieren und entsprechend in ihre IT-Sicherheitsstrategie einzubauen. Maßnahmen, die ein notwendiges Maß an Misstrauen gegenüber Unternehmensmitarbeitern erkennen ließen, waren bislang hauptsächlich in regulierten Branchen vorherrschend.

Mit dem florierenden Markt für Daten im digitalen Zeitalter hat dies nun auch die breite Masse an Unternehmen erreicht, bei denen es in der IT-Security lange Zeit vornehmlich darum ging, Bedrohungen von außen abzuwehren. Insider hingegen stellen eine äußerst diffuse Bedrohung dar, da Datendiebstähle nicht zwangsläufig durch böse Absichten motiviert sein müssen. Auch Unachtsamkeiten, die einen Datenverlust zur Folge haben, können in den immer weiter vernetzten IT-Architekturen gravierende Konsequenzen nach sich ziehen.

Zudem können Nutzeraccounts oder Mobilgeräte von Unternehmensangehörigen ohne deren Kenntnis von Dritten für böswillige Zwecke missbraucht werden. Damit ergibt sich ein überaus diffuses Bedrohungsbild, das zunächst die Ermittlung potentieller Angriffsszenarien erfordert, um geeignete Sicherheitsmaßnahmen zu ableiten zu können.

Wie sich zeigt, stellen die Veränderungen in der IT-Umgebung – insbesondere durch die Cloud- und Mobilgerätenutzung – Unternehmen vor neue Herausforderungen. Die Tatsache, dass es offenbar noch nicht gelingt, lückenlosen Schutz für Daten über sämtliche Ebenen hinweg zu gewährleisten, mag auch darin begründet sein, dass IT-Security-Strategien nicht ausgehend von der Datensicherheit geplant werden. In diesem Sinne lassen die Ergebnisse der Studie auch folgende Schlussfolgerung zu: Ein Großteil der Unternehmen hat den erforderlichen Wandel hin zu einer datenzentrierten IT-Sicherheitsstrategie noch nicht vollständig vollzogen.

Autor: Von Michael Scheffler, Regional Director CEEU, Bitglass

Mehr Infos: Der „Insider Threat Report 2019″ von Bitglass mit allen Ergebnissen der Umfrage kann unter folgendem Link heruntergeladen werden.

Zukunftstrends 2019: Die Rückkehr des Analogen

Matthias Horx gründete eine der inzwischen wohl einflussreichsten futuristischen Denkfabriken im deutschsprachigen Raum: das Zukunftsinstitut.

Matthias Horx gründete eine der inzwischen wohl einflussreichsten futuristischen Denkfabriken im deutschsprachigen Raum: das Zukunftsinstitut.

Die Internetkultur wird 2019 tiefer in eine existentielle Krise geraten. Der quasi-religiöse Hype um die Durch-Digitalisierung unseres Lebens weicht zunehmender Skepsis. Widerstand gegen die Macht der Algorithmen – ein Trend im kommenden Jahr? Der Zukunftsforscher Matthias Horx im Gespräch mit dem „Deutschlandfunk“. … mehr

 

 

Krypto-Jacking: Wie man illegales Mining von Krypto-Währungen im Unternehmen erkennt und verhindert.

bitcoinKrypto-Währungen haben sich von einem Phänomen hin zu einer nicht nur von Kriminellen gehandelten Ressource entwickelt. Für das Mining wird weltweit bereits die Mehrheit aller Rechenleistung aufgewendet. Und da die Währungen einen monetären Wert bieten, werden sie nicht nur legal durch Crypto-Mining, sondern auch illegal durch Crypto-Jacking errechnet. Unternehmen können sowohl von außen als auch von innen Ziel von illegalem Crypto-Jacking werden. Mit diesen Tipps können Unternehmen erkennen, ob ihre Infrastruktur illegal zum Mining von Krypto-Währungen genutzt wird.

Die Hälfte aller Infrastrukturen weltweit werden für Crypto-Mining genutzt

Krypto-Währungen, wie Bitcoin und Monero, werden durch den Einsatz von Rechenleistung zur Lösung komplexer mathematischer Probleme erzeugt. Wenn ein Problem gelöst ist, wird eine neue Währungseinheit erstellt. Der Prozess wird als Mining bezeichnet und die in den Umlauf gebrachten Einheiten der Krypto-Währungen werden weltweit gehandelt. Eher im Verborgenen bleiben die Hunderttausenden auf den Abbau von Krypto-Währungen im großen Umfang spezialisierten Computer und Server. Diese sind an Orten auf der ganzen Welt verteilt, in der Regel dort, wo die Energie entweder kostengünstig oder kostenlos ist, wie etwa in Island.

Ebenfalls im Verborgenen ist die Größe der weltweit bereits für Krypto-Mining eingesetzten Infrastruktur. Tatsächlich stellt das Bitcoin-Mining schon heute die Mehrheit des gesamten weltweiten Netzwerks dar. Für das professionelle Krypto-Mining im großen Stil werden sehr leistungsstarke Rechner mit hohem Strombedarf genutzt, beispielsweise ASIC-Miner. Mit riesigen Rechenzentren, bestückt mit solch hochgezüchteten Mining-Rechnern, lassen sich große Erträge erzielen.

Der Hersteller für Bitcoin-Mining-Hardware Bitmain betreibt selbst einen der weltweit größten Mining-Parks und fuhr damit im vergangenen Jahr einen Gewinn zwischen drei und vier Milliarden US-Dollar ein. Das Krypto-Mining kann sich jedoch auch in kleinerem Umfang lohnen. Mit der richtigen Software kann praktisch jeder schon mit einem einzigen Laptop Krypto-Währungen schürfen.

So wird aus Krypto-Mining Krypto-Jacking oder Shadow-Mining

Eine der größten Herausforderungen im Zusammenhang mit dem Crypto-Mining ist die enorme Energiemenge, die es verbraucht. Experten schätzen, dass der aktuelle globale Stromverbrauch für die Server, auf denen Bitcoin-Software läuft, mindestens 2,55 Gigawatt beträgt, was einem Stromverbrauch von 22 Terawattstunden (TWh) pro Jahr entspricht – das entspricht dem jährlichen Stromverbrauch von Irland.

Infolge des massiven Energieverbrauchs von Mining-Rechnern suchen Kriminelle nach Möglichkeiten, Krypto-Währungen abzubauen, ohne selbst die Kosten dafür tragen zu müssen. Und wenn Krypto-Mining illegal und ohne Genehmigung durchgeführt wird, wird es zum Verbrechen, das sogenannte Krypto-Jacking. Krypto-Jacking ist zu einem ernsthaften globalen Problem geworden, das prinzipiell jede Organisation treffen kann.

Eine Organisation, die von Krypto-Jacking betroffen ist, bleibt nicht nur auf den Stromkosten sitzen, sondern muss auch für IT-Ausfallzeiten, Hardware-Ausfall und Produktivitätsverluste aufkommen. Dabei kann die Gefahr sowohl von Innen als auch von außen kommen.

Crypto-Jacking ist eine externe Bedrohung, die auftritt, wenn ein Hacker eine Nutzerkontokompromittiert, um heimlich Krypto-Währungen über die IT-Ressourcen einer Organisation zu „minen“. Shadow Mining – eine Form der Shadow IT – tritt auf, wenn ein böswilliger Insider die Computerressourcen seiner Organisation gefährdet, um illegal Krypto-Währungen rechnen zu lassen. Innerhalb eines Unternehmens werden generell vier mögliche Gefahrenquellen für Crypto-Jacking unterschieden.

 Shadow-Mining

Um erfolgreich zu sein und unentdeckt zu bleiben, ist Shadow Mining darauf angewiesen, dass Sicherheitssysteme bewusst so konfiguriert werden, dass sie fehlerhaft funktionieren. Dies macht ein Unternehmen weniger sicher, führt Software ein, die zusätzliche Ressourcen verbraucht, erhöht die Angriffsfläche und macht betroffene Computer weniger zuverlässig. Man unterscheidet zwischen dem bösartigen und dem rationalisierenden Insider:

Der bösartige Insider – Dies kann jemand sein, der Zugang zu sehr leistungsfähigen Computersystemen hat und sich am Abend anmeldet, um Krypto-Währungen zu schürfen.

Der rationalisierende Insider – Hier lädt ein Einzelner kleine, krypto-unterstützte Software herunter, die er im Leerlauf seines Rechners ausführt. Dieser Miner rationalisiert, dass es in Ordnung ist, seinen Rechner zu benutzen, um Geld zu generieren, wenn er nicht in Gebrauch ist.

 Crypto-Jacking

Beim Crypto-Jacking kommt die Gefahr von Aussen. Entweder direkt von einem böswilligen Aussenstehenden, oder indirekt über einen von Aussen kompromittierten Insider:

Der kompromittierte Insider – Dies kann auftreten, wenn jemand unwissentlich zum Opfer von Kyberangriffen wie Phishing, Clickbait oder Drive-by wird. Oder ein Mitarbeiter lädt versehentlich kostenlose Software herunter, die unentdeckt Krypto-Mining am Backend durchführt. Auch gibt es Video-Streaming-Websites und File-Sharing-Netzwerke, die Computer von Benutzern aus der Ferne steuern und für Crypto-Mining missbrauchen können.

Der böswillig Außenstehende – Ähnlich wie bei einem DDoS-Angriff, bei dem eine Server- oder Dienstschwachstelle genutzt wird, kann ein Hacker eine gesamte Infrastruktur kapern, um einen Krypto-Mining-Betrieb zu entwickeln. Da nicht viel Datenverkehr erzeugt wird und von Servern in Rechenzentren eine relativ hohe Belastung erwartet wird, können diese Aktionen über einen längeren Zeitraum unbemerkt bleiben.

 So erkennt man, dass im Unternehmen unerlaubtes Crypto-Mining stattfindet

Man weiß, dass Krypto-Mining eine enorme Energiemenge verbrauchen kann. Krypto-Jacking anhand des Stromverbrauchs zu erkennen, kann jedoch schwierig sein, weil der Stromverbrauch von vielen Variablen abhängt. Nicht alle Computer verbrauchen die gleiche Menge an Strom, abhängig von der Anzahl der CPUs und davon, ob sie GPUs verwenden.

Es hängt auch davon ab, wie oft und intensiv sie genutzt werden. Rechnet man die Kühlkosten hinzu, ist es eine komplizierte Gleichung. Das Beste, was Unternehmen tun können, ist, nach Anomalien in ihren Rechnungen zu suchen, und wenn diese bemerkt werden, nach verdächtigen Aktivitäten zu suchen.

Besser als der Stromverbrauch eignen sich Abweichungen des Nutzungsmusters, da Krypto-Mining signifikant von der normalen Nutzung eines Rechners oder Servers abweicht. Man muss also nach einer plötzlichen Änderung der Kapazität oder Nutzung sowie nach einer anormalen ausführbaren Datei suchen. Oder nach dem plötzlich nächtlichen Auftreten einer seltsamen ausführbaren Datei in einer Umgebung, die normalerweise nur EXCHANGE.EXE oder NTDS.EXE ausführt. Oder einen Rechner, der normalerweise nur tagsüber in Betrieb ist, aber plötzlich rund um die Uhr läuft.

 Geheimwaffe gegen Krypto-Jacking: Entity Analytics

In einer Produktionsumgebung gibt es bestimmte Benchmarks, die die IT durchführt, um sicherzustellen, dass der ordnungsgemäße Service aufrechterhalten wird. Abweichungen von diesen Benchmarks können ein Indikator für Missbrauch sein. Die komplette Infrastruktur jedoch manuell nach Abweichungen zu durchforsten ist natürlich zu kompliziert, mühsam und zeitaufwändig, nicht nur bei sehr großen und komplexen Infrastrukturen.

Eine einfachere Möglichkeit, solche unregelmäßigen Verhaltensweisen zu erkennen, besteht darin, das normale Verhalten jedes einzelnen Hosts anhand von laufenden Prozessen, Verbindungen nach Außen und genutzter Kapazität und Auslastung zu modellieren. Moderne Sicherheitslösungen, die die relativ neue Technologie Entity Analytics nutzen, sind hierbei besonders wirksam. Sie können die Erkennung von auffälligen Verhalten von Rechnern automatisieren und Alarm schlagen, wenn ein Server plötzlich von seinem bisherigen Verhalten abweicht.

 Fazit

Unternehmen, die sich effektiv vor Krypto-Jacking schützen wollen, müssen verstehen, von wem grundlegend Gefahren ausgehen können. Um Krypto-Jacking effektiv verhindern zu können, hilft die Nutzung moderner Sicherheitslösungen, die Entity Analytics nutzen, um Rechner und Server zu entlarven, die zum illegalen Mining benutzt werden.

Autor: Barry Shteiman, VP, Research and Innovation bei Exabeam. Exabeam bietet Lösungen für Security Intelligence und Management, die Unternehmen dabei helfen, ihre wertvollsten Informationen zu schützen. 

Barrierefreie Software: Worauf Unternehmen und Behörden achten sollten

 

Barrierefreie Software soll es allen Mitarbeitern ermöglichen, die gleiche Arbeit erledigen zu können. Sie soll eventuelle Einschränkungen, welcher Art auch immer, kompensieren. (Bildquelle: iStock Photo, ID 869371124)

Barrierefreie Software soll es allen Mitarbeitern ermöglichen, die gleiche Arbeit erledigen zu können. Sie soll eventuelle Einschränkungen, welcher Art auch immer, kompensieren. (Bildquelle: iStock Photo, ID 869371124)

In Behörden und staatlichen Institutionen ist barrierefreie Software von Gesetzes wegen vorgeschrieben. Aber auch in der Privatwirtschaft wird Barrierefreiheit zunehmend wichtiger. Harald Griober von IP Dynamics erläutert, was barrierefreie Software können muss und worauf Sie in Barrierefrei-Projekten achten sollten.

„Barrierefrei“: Dieser Begriff kommt ursprünglich aus dem Bauwesen. Einem Benutzer sollen keine Barrieren in den Weg gelegt werden, welcher Art auch immer. An vielen Stellen im öffentlichen Raum begegnen uns Maßnahmen zur Barrierefreiheit. Rampen erleichtern Rollstuhlfahrern das Überwinden von Höhenunterschieden, Tonsignale an Ampeln „übersetzen“ Blinden und Sehbehinderten das Signal zum Überqueren der Straße.

Was bedeutet barrierefrei in puncto Software?

Analog dazu soll es barrierefreie Software jedem Mitarbeiter eines Unternehmens oder einer Behörde ermöglichen, dieselbe Arbeit machen zu können, etwa in einem Callcenter Anrufe entgegennehmen und Geschäftsvorfälle lösen. Dabei spielt es zunächst keine Rolle, um welche Barriere es sich handelt. Typische Barrieren entstehen durch körperliche Einschränkungen aufgrund einer Behinderung, etwa den fehlenden Seh- oder Hörsinn oder motorische Einschränkungen.

Damit ist nicht mit wenigen Worten oder Sätzen zu definieren, was eine barrierefreie Software können muss. Wann ermöglicht es eine Software allen Mitarbeitern, die gleiche Arbeit machen zu können? Wie kann die jeweilige Einschränkung durch die Software kompensiert werden?

Normen wie die ISO 9241 für die „Ergonomie der Mensch-System-Interaktion“, die „Web Content Accessibility Guidelines (WCAG)“ des World Wide Web Consortiums und die „Barrierefreie Informationstechnik Verordnung (BITV 2.0)“ geben Kriterien an die Hand, wie barrierefreie Software sein sollte.

Darunter finden sich zum Beispiel folgende Kriterien

  • Trennung von Text und Layout, damit beispielsweise Text von Screenreadern ausgelesen und auf eine Braille-Zeile ausgegeben werden kann. Ein Braille-Zeile ist eine Art Tastatur, die Text in Blindenschrift widergibt.
  • Für jeden Nicht-Text-Inhalt Alternativen in Textform anbieten. Am bekanntesten sind wohl Alt-Tags für Bilder auf Webseiten.
  • Logischer, hierarchischer Aufbau der Software, d.h. Inhalte sind so aufzubereiten, dass sie ohne Informationsverlust in welcher Art auch immer ausgelesen werden können.
  • Vorsichtiger Umgang mit Farbe: Sie darf nicht das einzige Mittel sein, um Informationen zu übermitteln oder eine Reaktion zu veranlassen, etwa die Farbe Rot bei Buttons und Warnhinweisen.
  • Tabulator-Steuerung: Alle Funktionen sollen über eine Tastatur gesteuert werden können. Gerade in der Bewegung eingeschränkte Menschen tun sich schwer mit der Maus.
  • Offenheit in Bezug auf Betriebssysteme und Endgeräte, um etwa Screenreader, Vorlesehilfen und andere assistive Technologien anbinden zu können.
  • Offenheit in Bezug auf die Skalierung und Darstellung, um z.B. Vergrößerungen, Invertierungen oder besonders kontrastreiche Darstellungen zu ermöglichen

Open from Scratch

Diese Kriterien erscheinen logisch, definieren sie doch moderne Software-Architekturen mit einem „sauberen“, universalen Code. Gute Software-Applikationen sollen alle Funktionen für alle zur Verfügung stellen. Die Praxis sieht aber anders aus. Häufig ist der Code nicht barrierefrei. Screenreader, die beispielsweise eine Oberfläche über Sprache ausgeben, erhalten keinen Zugang zu den Informationen oder noch schlimmer: Informationen werden fehler- oder lückenhaft ausgelesen.

Das ist zum Beispiel bei Web-Browsern der Fall, die in Thin-Client-Architekturen häufig als Benutzeroberfläche für Applikationen verwendet werden. So lässt sich zum Beispiel die Baumnavigation mit den gängigen Web-Browsern gut visuell darstellen, sie kann aber mithilfe eines Screenreaders manchmal nicht fehlerfrei ausgelesen werden. Genau das darf bei barrierefreien Anwendungsszenarien nicht passieren. Ein Blinder muss sich auf das verlassen, was er hört.

Achten Sie bei der Anschaffung von Software auf einen hohen Barrierefreiheitsgrad. Wie so häufig steckt hier der Teufel im Detail, soll heißen: in der Code-Ebene.

Essenzielle Funktionen versus Nice-to-have

Auch in puncto Benutzeroberfläche machen sich die Hersteller nicht immer Gedanken, ob Funktionen in ihrer Software für eingeschränkte Menschen gut oder überhaupt bedienbar sind. Moderne Software ist, analog zum Trend im Netz, sehr visuell. Applikationen arbeiten mit Bildern wie Tortengrafiken oder Kartenausschnitten, farblichen Elementen wie Ausgrauungen oder Rot-Grün-Gegensätzen, schwebenden Menüs, animierten Elementen wie Blink-Effekten oder Timern, Drag and Drop oder Overlays.

All diese Elemente sind häufig nicht, wie Tabellen, logisch, sequenziell oder hierarchisch angeordnet. Assistive Technologien wie Screenreader können mit solchen Benutzeroberflächen nur schwierig umgehen.

Bei Business-Software gilt daher: Weniger ist mehr. Zugunsten der Nutzerfreundlichkeit sollte mit bunten Bedienelementen sparsam umgegangen werden. Eine einfach zu erschließende, klar strukturierte Benutzeroberfläche, auch wenn sie anfangs langweilig erscheint, ist mit hoher Wahrscheinlichkeit barrierefrei – und letzten Endes auch für andere Nutzer ohne Einschränkungen meist effektiver zu bedienen.

Grundlage schaffen

In vielen unserer Projekte für barrierefreie Software-Anwendungen stoßen wir auf nur sehr wenige Vorgaben im Anforderungskatalog. Das ist einerseits der häufig noch fehlenden Erfahrung mit Barrierefrei-Implementierungen geschuldet, andererseits fehlt es an Wissen in der technologischen Tiefe. Die Fragen lauten: Was muss umgesetzt werden? Was kann umgesetzt werden? Und wie?

Nehmen wir das Beispiel eines Callcenters: Der Prozess ‚Anruf – Annahme – Bearbeitung – Auflegen – Nachbearbeitung‘ soll für blinde Mitarbeiter und Mitarbeiter mit motorischen Einschränkungen barrierefrei gestaltet werden.

Für die blinden Nutzer muss die komplette Mausbedienung in Shortcuts, Tabulatorsteuerung und Ein- und Ausgabe auf die Braille-Tastatur übertragen werden. Eine Alternative zur Maussteuerung hilft auch motorisch eingeschränkten Anwendern, weil sie mit Tabulatoren und Shortcuts oft schneller sind als mit der Maus. Für eingeschränkt Sehende braucht es außerdem Möglichkeiten zur extremen Vergrößerung und starke Kontraste. Ausgrauungen oder farbliche Elemente wie Buttons und Unterlegungen müssen ausgeschaltet werden.

Dann gilt es zu überlegen, wie der Prozess und Teilprozesse abgebildet werden. Wie soll beispielsweise der Blinde über einen ankommenden Anruf benachrichtigt werden und wie nimmt er ihn an? Wie dokumentieren motorisch eingeschränkte Nutzer, die nur sehr langsam oder eingeschränkt tippen können, Geschäftsvorfälle? Wie werden zusätzliche Dokumente wie Gesprächsleitfäden zugänglich gemacht?

Zum Schluss müssen die „übersetzten“ Funktionen in Skillsets, Anwenderprofile, die bestimmte Fähigkeiten und Fachwissen voraussetzen, hinterlegt werden.

Ein ziemlich komplexer Prozess also. Deshalb gilt es gleich zu Anfang, Grundlage zu schaffen. Ein klarer und detailliert formulierter Anforderungskatalog spart am Ende viele Iterationen und Testzyklen.

Interdisziplinäre Teams

Gemischte Teams aus IT-Leuten, Entwicklern, Fachverantwortlichen und Anwendern haben sich bei der Entwicklung von Business-Applikationen bewährt. Auch in Barrierefrei-Projekten kann es sehr sinnvoll sein, die eigentlichen Nutzer, eingeschränkt und nicht, in den Entwicklungsprozess einzubeziehen. Gerade behinderte Benutzer wissen sehr gut, wie man Herausforderungen im Alltag löst und können bei der „Übersetzung“ von Funktionen und Teilprozessen sicher viele nützliche Ideen einbringen. Auch in der Testphase sollten Sie die User konsequent einbeziehen.

Erfahrene Partner

Scheuen Sie sich nicht davor, Experten hinzuzuziehen, wenn Sie nicht über detaillierte technologische Kenntnisse oder Erfahrung mit barrierefreier Software verfügen. Ein guter Partner bringt neben Erfahrung viel Einfühlungsvermögen, Ideen und technologisches Können ins Projekt ein. Das haben bisher nur wenige. Außerdem vermittelt Ihnen ein seriöser Partner Kontakt zu den Verantwortlichen in Referenzprojekten. Sprechen Sie mit den Kollegen und lernen Sie von ihren Herausforderungen. Denn selbst, wenn alle Voraussetzungen gut sind, dauert es viele Tests und Iterationen, bis eine barrierefreie Bedienung steht.

Autor: Harald Griober ist zuständig für die Qualitätssicherung bei dem Hamburger Systemhaus IP Dynamics. Aktuell begleitet Harald Griober eine große deutsche Behörde dabei, ihr Skype for Business-basiertes Contact-Center für blinde und sehbehinderte Nutzer barrierefrei zu gestalten. IP Dynamics ist spezialisiert auf Telefonie-, Unified-Communications- und Contact-Center-Lösungen bei großen Unternehmen und Behörden. 

Bürgerbarometer: Deutsche wünschen sich „Digitalpakt Gesundheit“

20257_181122_soprasteria-infographie-def_deu_800px„Das komplexe Gesundheitssystem in Deutschland mit rund 2.000 Krankenhäusern, 118 gesetzlichen Krankenkassen, zirka 20.000 Apotheken, mehr als 200.000 Haus- und Fachärzten sowie Therapeuten und die 82 Millionen potenziellen Patienten digital optimal zu verbinden, ist keine leichte Aufgabe“, sagt Ronald de Jonge, Leiter Management Consulting Public Sector von Sopra Steria Consulting.

Dazu gehören immer auch wichtige gesetzliche Voraussetzungen wie das vom Bundestag verabschiedete Terminservice- und Versorgungsgesetz (TSVG) sowie ein spezielles Digitalisierungsgesetz, in dem beispielsweise Zugriffsrechte der Patienten zu regeln sind. Eine weitere Aufgabe ist, die vielen IT-Infrastrukturen aufeinander abzustimmen und Abläufe zu vereinfachen. „Dazu kommt, dass Krankenhäuser als kritische Infrastrukturen besondere IT-Sicherheitsvorkehrungen treffen müssen. Mit Abschluss dieser Arbeiten ist es absehbar, dass sich der Online-Leistungskatalog im Gesundheitssektor schnell füllen wird“, sagt Ronald de Jonge von Sopra Steria Consulting.

Die drängendste Digitalbaustelle der Verwaltung ist für die Bürgerinnen und Bürger das Bildungswesen. 41 Prozent wünschen sich eine bessere digitale Ausstattung in Schulen und Hochschulen sowie mehr Online-Angebote für einen einfachen Dialog mit Schul- und Wissenschaftseinrichtungen.

Der Durchbruch beim Digitalpakt zwischen Bund und Ländern und eine Grundgesetzänderung für eine vereinfachte finanzielle Förderung durch den Bund kommen den Erwartungen der Bevölkerung entgegen. Der Pakt ebnet den Weg für eine verbesserte digitale Ausstattung an Schulen, beispielsweise Multimediatafeln, Tablets und schnelles Internet.

Die Bürgerinnen und Bürger wünschen sich damit für die konkreten Bildungs- und Gesundheitseinrichtungen in der Breite mehr digitale Inhalte, Infrastruktur und Kompetenzen. Direkt nach konkreten Lebenslagen gefragt verschieben sich allerdings die Prioritäten. Hier wünschen sich 57 Prozent der Befragten vorrangig das digitalisierte Einwohnermeldeamt, mit beispielsweise einfachem Online-Service beim Erneuern von Ausweisdokumenten und bei Umzügen.

37 Prozent der Menschen in Deutschland sind für noch mehr Vereinfachungen im Austausch mit den Finanzämtern. 32 Prozent wollen zügig mehr Online-Hilfe bei der Jobsuche. Internet-Service im Umgang mit Schul- und Hochschulbehörden ist auch wichtig, hat aber keine Priorität. Sechs Prozent der Befragten sind dafür, dass digitale Unterstützung bei der Schulanmeldung Vorrang auf der digitalen Agenda des Bundes haben sollte.

Insgesamt wollen mehr als 80 Prozent der Bürgerinnen und Bürger mehr behördliche Leistungen online nutzen. Bund, Länder und Kommunen schaffen mit dem Portalverbund derzeit die Voraussetzungen, um die digitalen Möglichkeiten auszuschöpfen. Zudem geht es darum, Angebote und Leistungen stärker nach Lebenslagen zu bündeln und die aktuelle organisatorische Trennung nach Zuständigkeiten aufzubrechen.

Über die Studie

Sopra Steria veröffentlicht zum vierten Mal in Folge in Zusammenarbeit mit IPSOS eine Umfrage zur digitalen Transformation des öffentlichen Sektors. Die Umfrage wurde von IPSOS im Auftrag von Sopra Steria im Zeitraum 25. September und bis 3. Oktober 2018 durchgeführt. 5.001 Personen aus Deutschland, Frankreich, Großbritannien, Norwegen und erstmals Spanien wurden nach Geschlecht, Alter, Beruf, Stadt und Region ausgewählt und online befragt.

Links: Zur Studie

 

EU-Ethikleitlinien für KI: Gesellschaftlichen Diskurs zur Verantwortung Künstlicher Intelligenz vorantreiben

Oliver Süme ist Vorstandsvorsitzender von eco – Verband der Internetwirtschaft e.V.

Oliver Süme ist Vorstandsvorsitzender von eco – Verband der Internetwirtschaft e.V.

Zu den am 8.4.2019 von der EU-Kommission vorgestellten neuen Leitlinien für den ethischen Einsatz von Künstlicher Intelligenz, sagt eco-Vorstandvorsitzender Oliver Süme: „Wir begrüßen die Botschaft, die heute von der EU mit den neuen Ethik-Leitlinien für das Zukunftsthema KI gesendet wurde: Vertrauenswürdige KI-Anwendungen sollen so entwickelt und eingesetzt werden, dass sie menschliche Autonomie respektieren, dennoch sicher, fair und nachvollziehbar funktionieren.

Digitalunternehmen treiben mit ihren Entwicklungen, Produkten und Diensten den digitalen Wandel an und sind mitverantwortlich für die Beantwortung der damit entstehenden gesellschaftlichen Fragen. Wir nehmen diese Fragestellungen als Verband der Internetwirtschaft sehr ernst und sind der Überzeugung, dass ethische Normen, Handlungsleitlinien und damit Rahmenbedingungen für die Entwicklung und den Einsatz digitaler Technologien im engen Schulterschluss zwischen Unternehmen, Politik und Zivilgesellschaft entwickelt werden müssen. eco will den gesellschaftlichen Diskurs zur Verantwortung Künstlicher Intelligenz effektiv vorantreiben!“

Akzeptanz der Künstlichen Intelligenz muss mit Transparenz gefördert werden

Der bewusste Umgang mit Daten, die Beziehung von Mensch und Technologie, die gesamtgesellschaftliche Verantwortung Künstlicher Intelligenz sowie die strategische Förderung der Zukunftstechnologie sind die größten Herausforderungen innerhalb der ethischen Debatte: „Der Schlüssel lautet Transparenz. Bei Systemen der Künstlichen Intelligenz stellt sich immer die Frage nach Transparenz der eingesetzten Technologien, Algorithmen und ihrer Entscheidungen. Nur ein transparenter Umgang mit Künstlicher Intelligenz kann das Vertrauen der Menschen in ein autonom arbeitendes und entscheidendes System stärken“, so Süme.

Um die verschiedenen Diskussionen zu begleiten und in den Kontext der aktuellen technologischen Entwicklungen zu setzen, hat eco – Verband der Internetwirtschaft e.V. Leitlinien zum Umgang mit KI formuliert.

Mit dem „Kompendium Digitale Ethik“ leistet eco außerdem einen wichtigen Beitrag, um den gesamtgesellschaftlichen Diskurs zum Thema digitale Ethik voranzutreiben. In dem Kompendium finden sich aktuelle Expertenmeinungen und Fachbeiträge zu verschiedenen Fragen im Zusammenhang mit digitaler Ethik, beispielsweise in den Fokusthemen Staat & Rahmenbedingungen, Arbeit, IT Sicherheit oder Bildung.

Internetunternehmen übernehmen Verantwortung: Selbstregulierung funktioniert

Der Verband der Internetwirtschaft betont zudem, dass zahlreiche Unternehmen bereits Verantwortung für ethische Herausforderungen im Zusammenhang mit der digitalen Transformation übernehmen und beispielsweise im Rahmen von Selbstverpflichtungsinitiativen erfolgreich zur Einhaltung ethischer Normen beitragen. Ein prominentes Beispiel ist hier die eco Beschwerdestelle zur Bekämpfung unerwünschter und illegaler Internetinhalte.

Cyberkriminelle und ihre psychologischen Tricks: Die häufigsten Social Engineering-Angriffe

WP_001268Social Engineering gilt heute als eine der größten Sicherheitsbedrohungen für Unternehmen. Im Gegensatz zu traditionellen Hacking-Angriffen können Social Engineering-Angriffe auch nicht-technischer Natur sein und müssen nicht zwingend eine Kompromittierung oder das Ausnutzen von Software- oder System-Schwachstellen beinhalten. Im Erfolgsfall ermöglichen viele Social-Engineering-Angriffe einen legitimen, autorisierten Zugriff auf vertrauliche Informationen.

Die Social Engineering-Strategie von Cyberkriminellen fußt auf starker zwischenmenschlicher Interaktion und besteht meist darin, das Opfer dazu zu verleiten, Standard-Sicherheitspraktiken zu missachten. Und so hängt der Erfolg von Social-Engineering von der Fähigkeit des Angreifers ab, sein Opfer so weit zu manipulieren, dass es bestimmte Aktionen ausführt oder vertrauliche Informationen preisgibt. Da Social-Engineering-Angriffe immer zahlreicher und raffinierter werden, sollten Organisationen jeder Größe eine intensive Schulung ihrer Mitarbeiter als erste Verteidigungslinie für die Unternehmenssicherheit betrachten.

 Die Strategie der Cyberkriminellen: Trickbetrüger des digitalen Zeitalters

Social Engineering-Angreifer sind letztlich eine moderne Spielart der klassischen Trickbetrüger. Häufig verlassen sich diese Kriminellen auf die natürliche Hilfsbereitschaft von Menschen: Zum Beispiel rufen sie bei ihrem Opfer an und geben ein dringendes Problem vor, das einen sofortigen Netzwerkzugang erfordert.

Social Engineering-Angreifer nutzen gezielt bestimmte menschliche Schwächen wie Unsicherheit, Eitelkeit oder Gier aus und verwenden Informationen, die sie aus Lauschangriffen oder dem Ausspionieren sozialer Medien gewonnen haben. Dadurch versuchen sie, das Vertrauen autorisierter Benutzer zu gewinnen, damit ihre Opfer sensible Daten preisgeben, mit Malware infizierte E-Mail-Anhänge öffnen, oder sie deren Zugangsdaten für Computernetzwerke oder Datenspeicher stehlen können. Auch durch den Aufbau eines Schreckensszenarios wie einem angeblichen Sicherheitsvorfall können sie ihre Zielperson dazu bewegen, beispielsweise als Antiviren-Software getarnte Malware zu installieren und auszuführen.

 Häufige Social Engineering-Methoden im Überblick

Technologielösungen wie E-Mail-Filter, Firewalls und Netzwerk- oder Daten-Überwachungs-Tools helfen zwar, Social Engineering-Attacken abzuschwächen, doch eine gut geschulte Belegschaft, die in der Lage ist, Social Engineering zu erkennen, ist letztlich die beste Verteidigung gegen diese Art Angriffe. Unternehmen sollten ihre Mitarbeiter deshalb umfassend über die gängigen Arten von Social-Engineering aufklären.

Im Folgenden daher ein Überblick zu verschiedenen Angriffstechniken, deren Übergänge teilweise fließend sind und von Kriminellen auch in Kombination eingesetzt werden.

 Pretexting: Geschicktes Vortäuschen falscher Tatsachen

Beim Pretexting schützt ein Angreifer geschickt falsche Tatsachen vor, um ein Opfer dazu zu bringen, ihm Zugang zu sensiblen Daten oder geschützten Systemen zu gewähren. Beispielsweise gibt ein Krimineller vor, Bankdaten zu benötigen, um die Identität des Empfängers zu bestätigen. Oder er tarnt sich als Mitarbeiter der IT-Abteilung, um sein Opfer dazu zu verleiten, Login-Daten preiszugeben oder einen Computerzugang zu gewähren.

 Baiting: Der physische Köder

Angreifer führen Köderangriffe durch, indem sie ein mit Malware infiziertes Gerät wie ein USB-Flash-Laufwerk, an einem bestimmten Ort im Unternehmen zurücklassen, an dem es wahrscheinlich gefunden wird. Wenn ein Mitarbeiter den Datenträger mit seinem Computer verbindet, um beispielsweise zu sehen, was sich darauf befindet, wird der Rechner heimlich mit Malware infiziert. Einmal installiert, erlaubt die Malware dem Angreifer, in das System des Opfers einzudringen.

 Tailgating: Den Angreifer im Rücken

Der Begriff Tailgating (Tailgate = Heckklappe) erinnert an Krimiszenen, bei denen der Protagonist bei der Autofahrt einen Verfolger im Rückspiegel entdeckt, der ihm quasi an der Heckklappe klebt. Tailgating ist eine weitere physische Social Engineering-Technik, um an wertvolle, vertrauliche Informationen zu gelangen: Ein Beispiel wäre ein Unbefugter, der autorisierten Personen an einen ansonsten gesicherten Ort folgt, indem er vorgibt, seine Zugangskarte vergessen zu haben. Auch kann der Angreifer sein Opfer darum bitten, ihm kurz dessen Telefon oder Laptop auszuleihen, um eine einfache Aufgabe zu erledigen, und stattdessen Malware auf dem Gerät installiert oder sensible Daten stiehlt.

 Quid pro quo-Angriff: Das Locken mit einer Gegenleistung

Bei einem Quid pro quo (lat.: „dies für das“) -Angriff locken Cyberkriminelle ihre Opfer mit einer Gegenleistung oder Entschädigung, um sensible Informationen zu ergaunern. Beispielsweise erzählen Angreifer am Telefon, eine offizielle Umfrage durchzuführen, und bieten für die Teilnahme Geschenke an. Hier gilt als Faustregel: Wenn etwas zu gut klingt, um wahr zu sein, ist gesundes Misstrauen geboten.

 Phishing: Von gefälschten Geschäftsemails bis zum vermeintlichen Spendenaufruf

Bei einem Phishing-Angriff tarnen Cyberkriminelle sich als vertrauenswürde Quelle und nehmen eine betrügerische Kommunikation mit ihrem Opfer auf, um es dazu zu verleiten, Malware zu installieren oder persönliche, finanzielle oder geschäftliche Informationen herauszugeben. E-Mail ist der beliebteste Vektor für Phishing-Angriffe, aber Phishing kann auch Chat-Anwendungen, Social Media, Telefonanrufe (auch Vishing oder Voice Phishing genannt) oder gefälschte Websites verwenden. Einige besonders perfide Phishing-Angriffe täuschen gezielt wohltätige Zwecke vor dem Hintergrund aktueller Naturkatastrophen oder anderen tragischen Vorfällen vor. So nutzen sie den guten Willen ihrer Opfer aus, um durch einen Spendenaufruf an persönliche Daten oder Zahlungsinformationen gelangen.

 Watering-Hole-Attacke

Bei einer Watering-Hole-Attacke (Auflauern am Wasserloch) wählt der Angreifer sorgfältig eine bestimmte Website aus, von der er weiß, dass seine Opfer diese häufig besuchen, und infiziert die Homepage mit Malware. Zielpersonen sind meist Mitarbeiter von großen Unternehmen oder Regierungsstellen. Ein Beispiel wäre die Webseite eines lokalen Restaurants, in denen Mitarbeiter ihre Pause verbringen, beispielweise regelmäßig das Tages- oder Wochenangebot abrufen oder den Lieferservice in Anspruch nehmen.

 Spear-Phishing: Gezieltes Ausspähen und Angreifen eines Opfers

Spear-Phishing ist eine sehr gezielte Art von Phishing-Angriff, die sich auf eine bestimmte Person oder Organisation konzentriert. Spear Phishing-Angriffe verwenden persönliche Informationen, die spezifisch auf das Opfer zugeschnitten sind, um Vertrauen zu gewinnen und besonders legitim zu erscheinen. Oftmals werden diese Informationen aus den Social Media-Accounts der Opfer oder anderen Online-Aktivitäten entnommen. Durch die Personalisierung ihrer Phishing-Taktiken haben Spear-Phisher höhere Erfolgsquoten, wenn es darum geht, ihre Opfer dazu zu bringen, Zugang zu Systemen gewähren oder sensible Informationen wie Finanzdaten oder Geschäftsgeheimnisse preiszugeben.

Social Engineering ist eine anhaltende Bedrohung für viele Organisationen. Mitarbeiterschulungen sind deshalb die erste und wichtigste Maßnahme, um zu verhindern, dass Unternehmen Opfer von Angreifern werden, die immer ausgefeiltere Methoden einsetzen, um Zugang zu sensiblen Daten zu erhalten. Durch Sensibilisierung der Mitarbeiter in Kombination mit entsprechenden Security- und Datensicherheitstechnologien kann dieses Risiko erheblich minimiert werden.

Christoph M. Kumpa, Director DACH & EE bei Digital Guardian

Christoph M. Kumpa, Director DACH & EE bei Digital Guardian

Autor: Christoph M. Kumpa ist Director DACH & EE bei Digital Guardian. Digital Guardian bietet eine bedrohungserkennende Datensicherungsplattform, die speziell entwickelt wurde, um Datendiebstahl sowohl durch interne als auch durch externe Angriffe zu verhindern. Die Digital Guardian-Plattform kann für das gesamte Unternehmensnetzwerk, traditionelle und mobile Endgeräte sowie Cloudanwendungen eingesetzt werden. U

Studie zu Human Machine Interfaces: Zukunftsweisende Konzepte

swirl-optical-illusion-300x203Technologie wird zunehmend zum Werkzeug für die Erweiterung der menschlichen Sinne und Fähigkeiten. Dafür bedarf es intelligenter und immersiver Schnittstellen. Verdrängen Sprach-, Gesten- und Gedankensteuerung schon bald Tastatur und Touchscreen?

Die Studie von Reply, die mit der Trendplattform SONAR realisiert wurde, beleuchtet zukunftsweisende Konzepte für Schnittstellen zwischen Mensch und Computer – kurz Human Machine Interfaces –, die sich von Visionen zu realen Wegweisern für die Kommunikation zwischen Mensch und Maschine entwickeln. Für Unternehmen liegt in einer stärker personalisierten und emotionalen Kundeninteraktion sowie in neuen Möglichkeiten zur Visualisierung sowie Analyse von Informationen großes Potenzial.

Voice Assistance

20 Millionen Menschen weltweit nutzen Voice Assistants bereits täglich für die Informationssuche, Einkäufe oder das Abspielen von Musik. Auch im Unternehmensumfeld ermöglichen sie einen ganz neuen Umgang mit Technologie und automatisieren unzählige Aufgaben. Die smarten Assistenten erledigen ganze Aufgaben und protokollieren oder telefonieren ohne menschliches Zutun.

Dies erhöht die Arbeitsproduktivität und lässt Mitarbeitern mehr Zeit für anspruchsvolle Tätigkeiten. Trends sind Voice Interfaces, mit denen sich eine große Vielfalt an unterschiedlichen Geräten per Spracheingabe steuern lässt. Smarte Software-Agenten können so in Zukunft immer mehr Dienstleistungen ausführen. Darüber hinaus sind elektronische In-Ear-Geräte – sogenannte Hearables – von der drahtlosen Datenübertragung bis hin zu Kommunikationsdiensten vielseitig einsetzbar.

Extended Reality (XR)

Die unter XR zusammengefassten Technologien ermöglichen ein barrierefreies Zusammenspiel von Mensch und Maschine und eliminieren geographische Distanzen. Sie revolutionieren die Interaktion mit anderen Menschen und der Umwelt: Augmented, Virtual und Mixed Reality unterstützen die Entscheidungsfindung bei Verbrauchern und können zu Kostensenkungen sowie zu mehr Effizienz und einer produktiveren Umgebung führen.

Weitere aufkommende Trends sind Gestensteuerung und 3D-Displays, die ein virtuelles dreidimensionales Bild eines Objekts erzeugen und interaktive Möglichkeiten bieten. Auch Smart Glasses, die dem Träger zusätzliche Informationen zum Gesehenen einblenden, zählen zu den XR-Trends.

Full Immersion

Full-Immersion-Technologien erlauben den unmittelbaren Informationsaustausch zwischen Mensch und Maschine. Fortschritte in vollständig immersiven Technologien und Neurowissenschaften zeigen, dass eine Welt entsteht, in der Menschen vollständig mit Computern verbunden sind. Wissenschaftliche Forschungen in der Medizin weisen den Weg in eine Zukunft, in der das menschliche Gehirn Computer mit bloßen Gedanken steuern und Ideen über Headsets oder Hirnimplantate austauschen kann.

Bereits heute arbeiten Unternehmen an den neural gesteuerten Interfaces. Sie bieten direkte Kommunikationswege zwischen einem vernetzten Gehirn und externen Geräten. Als weitere Stufe dieser Entwicklung zielen Trendtechnologien im Bereich Augmented Body darauf ab, den menschlichen Körper und seine Leistungsfähigkeit durch Mittel wie Implantate oder elektronische Tattoos zu verstärken.

Der Trendreport identifiziert darüber hinaus vier Visionen, die bald Wirklichkeit werden könnten

  • Gedankenübertragung: Ideen, Gefühle und Erinnerungen können unmittelbar mit anderen Menschen geteilt werden.
  • Human Enhancement: Durch die direkte Verbindung des Gehirns mit Computern, KI-gesteuerten Assistenten und dem Internet kann Know-how in das Gehirn heruntergeladen oder mit superintelligenten KI-Systemen erweitert werden.
  • Neural Healthcare: Immersive Technologien ermöglichen die Genesung von heute noch unheilbaren Krankheiten wie Parkinson oder Lähmungen.
  • Virtuelle Kopien: Durch die Verbindung mit Computern lassen sich Gedanken, Erinnerungen und Gefühle eines Menschen als Daten speichern und ermöglichen eines Tages vielleicht sogar eine vollständige virtuelle Kopie des Gehirns.

„Die Kommunikation zwischen Mensch und Maschine ist eines der spannendsten Themen unserer Zeit. Technologien an der Schnittstelle zwischen uns und intelligenten Systemen ermöglichen schon in naher Zukunft einen Paradigmenwechsel in allen Lebensbereichen. Die dadurch entstehenden neuen Produkte und Dienstleistungen bieten völlig neue Lösungen zum Erzählen von Geschichten und Visualisieren von Informationen. Die drei von SONAR identifizierten Trends und die vier Visionen geben Unternehmen eine Orientierungshilfe auf ihrem Weg der digitalen Transformation“, sagt Filippo Rizzante, CTO bei Reply.

Der Human Machine Interfaces-Report ist Teil einer Serie zu Themen wie KI, die Retail Revolution und Consumer-IoT. Um die vollständige Studie zu lesen, klicken Sie bitte hier.

Sextortion: Cybererpressung mit „kompromittierenden“ Videos

HerzCyberkriminelle haben betrügerische Sextortion-E-Mails bisher als große Spam-Kampagnen verteilt, jetzt erweitern die Angreifer ihre Taktik: Eine Analyse durch Sicherheitsforscher von Barracuda Networks ergab, dass einer von zehn Spear-Phishing-Attacken ein Sextortion-Angriff war. Damit ist es doppelt so wahrscheinlich, dass Mitarbeiter durch einen gezielten Sextortion-Angriff ins Visier genommen werden als durch Business Email-Compromise (BEC).

Sextortion: Vorgehensweise der Angreifer

Bei einem Sextortion-Angriff geben Cyberkriminelle vor, im Besitz eines kompromittierenden Videos zu sein, das angeblich auf dem Computer des Opfers aufgezeichnet wurde, und drohen, es mit allen Kontakten des Opfers zu teilen – es sei denn, die Zielperson bezahlt. Typerweise werden Bitcoins verlangt und die Wallet-Details in der Erpressungsnachricht mitgeschickt. Sextortion-Angreifer nutzen bei der Kommunikation E-Mail-Adressen und gegebenenfalls Passwörter, die bei Datenlecks gestohlen wurden. Oftmals fälschen Angreifer auch die E-Mail-Adresse durch Spoofing und geben vor, Zugang zum Konto zu haben.

Sextortion-E-Mails werden in der Regel als Teil größerer Spam-Kampagnen an Tausende von Zielpersonen gesendet, sodass die meisten durch Spam-Filtern entdeckt werden. Doch Kriminelle nutzen mittlerweile auch Social-Engineering, um traditionelle E-Mail-Sicherheitsgateways zu umgehen. Sextortion-E-Mails, die in Posteingänge gelangen, stammen meist von angesehenen Absendern und IPs.

Hacker verwenden hierfür bereits kompromittierte Office 365- oder Gmail-Konten. Zudem enthalten Sextortion-E-Mails in der Regel keine bösartigen Links oder Anhänge, die von herkömmlichen Gateways erkannt werden. Angreifer haben auch begonnen, den Inhalt der E-Mails zu variieren und zu personalisieren, was es für Spamfilter schwierig macht, sie zu stoppen. Sextortion-Scams werden zudem aufgrund ihres vermeintlich peinlichen Inhalts von Opfern oft nicht gemeldet. IT-Teams sind sich dieser Angriffe deshalb häufig nicht bewusst.

Gängige Sextortion Betreffzeilen

Sexting5E Es zeigte sich, dass die Mehrheit der Betreffzeilen in den untersuchten Sextortion-E-Mails eine Form von Sicherheitswarnung enthält. Mehr als ein Drittel fordert eine Passwortänderung. Angreifer geben zudem oft die E-Mail-Adresse oder das Passwort des Opfers in der Betreffzeile an, damit die Zielperson die E-Mail öffnet. Im Folgenden einige Beispiele:

  • name@emailaddress.com wurde angegriffen. Ändern Sie Ihre Zugangsdaten.
  • Ihr Konto wurde gehackt, Sie müssen es wieder freischalten.
  • Ihr Konto wird von einer anderen Person genutzt.
  • Ändern Sie umgehend Ihr Passwort. Ihr Konto wurde gehackt.

Gelegentlich sind Angreifer auch direkter und verwenden bedrohliche Betreffzeilen:

  • Du bist mein Opfer.
  • Hör mir besser zu.
  • Du hast nicht viel Zeit.
  • Das ist meine letzte Warnung name@emailadresse.com

 Branchen, die am stärksten von Sextortion betroffen sind

Laut der Untersuchung ist der Bildungsbereich am häufigsten von Sextortion-Angriffen betroffen, gefolgt von Regierungsstellen und Unternehmen im Bereich Business Services. Der starke Fokus auf den Bildungsbereich ist ein kalkulierter Zug der Angreifer. Bildungseinrichtungen haben in der Regel eine große und junge Benutzerbasis. Diese verfügt meist über weniger Sicherheitsbewusstsein und weiß oft nicht, wo sie sich im Fall eines solchen Angriffs Hilfe suchen kann. Aufgrund mangelnder Erfahrung mit dieser Art Bedrohung besteht ein größeres Risiko, dass junge Menschen Opfer von Sextortion werden.

 Vier Möglichkeiten zum Schutz vor Sextortion

KI-basierter Schutz: Angreifer personalisieren mittlerweile ihre Sextortion-E-Mails, um E-Mail-Gateways und Spam-Filter zu umgehen. Daher ist eine gute Sicherheitslösung gegen Spear-Phishing ein Muss. Entsprechende KI-basierte Technologien analysieren und erlernen das spezifische Kommunikationsverhalten innerhalb eines Unternehmens und verfügen über integrierte Komponenten, die diese Art Angriffe erkennen.

Schutz vor Account-Übernahme: Viele Sextortion-Angriffe stammen von kompromittierten Accounts. KI-basierte Technologien können erkennen, wenn Konten gefährdet sind und greifen in Echtzeit ein, indem sie Benutzer benachrichtigen und bösartige E-Mails entfernen, die von gehackten Konten versendet werden.

Proaktive Untersuchungen: Bei Sextortion sind Mitarbeiter möglicherweise weniger als sonst bereit, den Angriff zu melden. IT-Teams sollten deshalb regelmäßig Untersuchungen von zugestellten E-Mails durchführen, um Nachrichten mit Bitten um Passwortänderungen, Sicherheitswarnungen und anderen verdächtigen Inhalten zu entdecken. Viele Sextortion-E-Mails stammen aus Ländern außerhalb Westeuropas oder Nordamerikas. Spezielle Technologien bietet interaktive Berichte über die geografische Herkunft und helfen, bösartige Nachrichten, die in Posteingängen gefunden werden, automatisch zu entfernen.

Sicherheitsschulungen: Organisationen sollten als Teil ihrer Sicherheitsschulungen Benutzer zudem umfassend über Sextortion aufklären, insbesondere wenn sie über eine große, vielfältige und junge Benutzerbasis wie im Bildungsbereich verfügen. So können Nutzer Sextortion-Angriffe erkennen und sich sicher fühlen, sie auch zu melden. Mit Phishing-Simulationstrainings können die Effektivität der Schulungen getestet und diejenigen Benutzer identifiziert werden, die am anfälligsten für Erpressungsangriffe sind.

Durch einen mehrschichtigen Ansatz aus Technologien, Best Practices und umfangreicher Aufklärung kann so das Risiko durch Sextortion-Angriffe deutlich reduziert werden.

Autor: Klaus Gheri ist VP Network Secirity bei Barracuda. Das Unternehmen  ist bestrebt, die Welt zu einem sichereren Ort zu machen und überzeugt davon, dass jedes Unternehmen Zugang zu Cloud-fähigen, unternehmensweiten Sicherheitslösungen haben sollte, die einfach zu erwerben, zu implementieren und zu nutzen sind. Barracuda schützt E-Mails, Netzwerke, Daten und Anwendungen mit innovativen Lösungen, die im Zuge der Customer Journey wachsen und sich anpassen.

 

Unterschied zwischen Künstlicher Intelligenz und Maschinellem Lernen

Die Schlagworte KI und Maschinelles Lernen sind heute in aller Munde. Sie werden von jedem verwen01-korona-1det und oft fälschlicherweise auch als synonyme genutzt. Aus diesem Grund sind die Unterschiede zwischen den zwei Begriffen nur 19 Prozent der Marketer tatsächlich bewusst. Laut einer Studie von Everstring und Heinz Marketing geben sogar 37 Prozent sofort an, den Unterschied nicht zu kennen. Alexander Handcock, Senior Director bei Selligent Marketing Cloud, einem Softwareanbieter für Omnichannel-Marketing-Lösungen, erklärt diesen doch so wichtigen Unterschied.

Künstliche Intelligenz (KI) und ihre Anwendung

Der Begriff Künstliche Intelligenz (KI) bezieht sich auf Maschinen und Anlagen, die Aufgaben ausführen können, die für die menschliche Intelligenz charakteristisch sind. Während diese Definition weit gefasst erscheinen mag, bezieht sich KI für Unternehmen typischerweise auf Mechanismen, die Umweltfaktoren wahrnehmen und autonom Maßnahmen ergreifen, die die Chancen maximieren, vordefinierte Ziele erfolgreich zu erreichen – ohne menschliches Zutun.

Konkret ausgedrückt, betrachten Sie die KI als Oberbegriff für alles, was damit zu tun hat, dass Maschinen Aufgaben so erfüllen, wie sie normalerweise das menschliche Gehirn erfüllen würde.

Es gibt aber immer noch viel, was unter diese Idee fällt.

Marketingspezialisten können sich KI als computerbasierte Tools vorstellen, die Engagement Marketing-Plattformen und Marketing-Automatisierungssoftware mit menschenähnlichen Fähigkeiten verbessern, wie z.B.:

  • Schlussfolgerung
  • Planung
  • Lernen
  • Entscheidungsfindung
  • Optimierung

Wo man Maschinelles Lernen findet

Beim Maschinellen Lernen hingegen geht es mehr um die Mechanik – die mathematischen Modelle und Algorithmen –, wie ein Computersystem lernt. Es geht darum, wie riesige Mengen von Daten aus verschiedenen Quellen genutzt werden können, damit eine Maschine diese Daten anwenden kann, um aus Erfahrungen zu lernen.

Vor dem Maschinellen Lernen brachten Programmierer Computern bei, Daten zu nutzen, indem sie komplexe Kommandostrings erstellten. Heutzutage, würde die alte Lehrmethode das Schreiben von buchstäblich Millionen von Codezeilen erfordern, um die gleichen flexiblen und komplexen Aufgaben zu erfüllen, die durch Maschinelles Lernen freigesetzt werden. Alle neuen und unbekannten Probleme würden einen Programmierer erfordern, der neuen Code schreiben müsste, um sie zu lösen.

Damit ist Maschinelles Lernen genau das, was KI fließender macht und den Kurs basierend auf den verfügbaren Daten anpasst. Als Marketer werden Sie oft hören können, wie Begriffe verwendet werden, die im Grunde genommen Teilmengen des maschinellen Lernens sind:

  • Deep Learning
  • Deep neural networks
  • Innovation insights learning
  • Adversarial learning

Marketingspezialisten können die KI-Technologie nutzen, um aus den Daten zu lernen, die sie über ihre Kunden gesammelt haben. Diese in universellen Kundenprofilen gespeicherte Intelligenz kann dann angewendet werden, um auf der Grundlage von Verhaltensdaten das Lieblingsprodukt, die Lieblingsfarbe, den Lieblingsgeschmack und andere Vorlieben eines Verbrauchers zu ermitteln – und dann personalisierte Angebote für jeden Kunden zu erstellen. Es kann die customer journey „on the go“ aufbauen und die KI-Marketing-Automatisierung auf der Grundlage von Echtzeitverhalten anpassen, um ein Gefühl der Aktualität und des Situationsbewusstseins zu schaffen, das Kunden schätzen.

Es mag paradox klingen, aber die Einbeziehung von Maschinellem Lernen und Künstlicher Intelligenz lässt Marketing letztendlich als menschlicher und einfühlsamer erscheinen. Außerdem hilft es, die Relevanz für große Kundensegmente zu erhöhen, indem beobachtet werden kann, wie sich Geschmack und Präferenzen entwickeln, während sich die KI-Marketinginitiativen unabhängig voneinander anpassen lassen, um eine maximale Wirkung zu erzielen.

 

Alexander Handcock, Senior Director bei Selligent Marketing Cloud

Alexander Handcock, Senior Director bei Selligent Marketing Cloud

Autor: Alexander Handcock begann seine Karriere als Content-Marketing-Experte für das Auswärtige Amt und wechselte dann zu einer Kreativagentur, die Multichannel-Kampagnen für globale Marken wie Microsoft, Allianz und AMD entwickelte. Nach einem kurzen Aufenthalt als Leiter für Marketing und PR beim deutschen Telco-Tech-Start-Up tyntec, kam Alexander vor fünf Jahren zu Selligent Marketing Cloud. 

Interview mit Harald Summa: „Oft sind es ganz frische Köpfe, die Geschichte schreiben“

Harald A. Summa, eco Geschäftsführer.

Harald A. Summa, eco Geschäftsführer.

xethix: Herr Summa, auf dem eco://kongress haben Sie gesagt, bei der Digitalisierung werde im Moment vor allem über Technik geredet, wichtig sei es aber, über die Folgen nachzudenken. Wer ist Ihrer Meinung nach dafür verantwortlich, den Prozess der Folgenabschätzung zu initiieren und zu moderieren?

Harald Summa: Digitalisierung ist kein isoliertes sondern ein globales Phänomen. Eigentlich bräuchten wir für globale Aufgaben auch globale Verantwortlichkeiten. Wie wir alle wissen, sind wir davon im Jahr 2019 aber noch ein Stück entfernt. Pessimisten könnten darum behaupten: Niemand ist verantwortlich. Ich hingegen sehe das genau andersrum. Meiner Meinung nach steht bei diesem Thema jeder von uns in der Verantwortung.

Bundespräsident Walter Steinmeier hat über den gesellschaftlichen Wandel gesagt: „Demokratie ist nicht, Demokratie wird ständig.“ Und Demokratie bedeutet, dass jeder Einzelne viele Möglichkeiten hat, sich in politische Prozesse und Entscheidungen einzubringen. Mitsprechen können über soziale Medien heute alle. Das heißt zwar noch lange nicht, dass auch jeder gehört wird, aber der Pool möglicher Moderatoren speist sich nicht nur aus Personen, die ein Amt verliehen bekommen haben oder einer Institution angehören. Das ist das Aufregende an Auf- und Umbruchszeiten: Oft sind es ganz frische Köpfe, die Geschichte schreiben.

xethix: Welche Rolle fällt hier der Politik zu?

Harald Summa:Politiker sein, ist heutzutage schwierig. Einerseits gilt noch immer die alte Klage, dass Politiker immer schon auf den nächsten Wahltermin schielen und weitreichende Entscheidungen darum besonders vorsichtig angehen. Andererseits ist die technische Entwicklung immer schneller getaktet.

Gesetze wirken oft schon beim Inkrafttreten gestrig. Damit wirkt Politik oft gleichzeitig kurzsichtig und langsam. Wie Politik dennoch eine wichtige Rolle spielen kann, hat Ministerpräsident Volker Bouffier in Hessens „Rat für Digitalethik“, dem ich angehöre, treffend formuliert: Es gehe darum, „die Leitplanken zwischen Freiheit auf der einen, und Verantwortung auf der anderen Seite zu definieren.“ Wenn der Politik das gelingt, ist schon viel geschafft.

xethix: Halten Sie die Vereinbarung weltweit einheitlicher Standards für realistisch?

Harald Summa: In dem Maße, wie ich auch die Vereinbarung weltweit einheitlicher Steckdosen für realistisch halte, also nein. Aber das sollte uns nicht abschrecken, denn Menschen haben überall ähnliche Bedürfnisse. Sie wollen ihre Geräte mit Strom versorgen. Sie wollen, dass die Technik ihnen dient, nicht umgekehrt. Niemand erwartet, dass ein in Deutschland gekaufter Stecker in jede Steckdose dieser Welt passt.

Aber es gibt Adapter. Ähnlich kann ich mir die Entwicklung von Ethik und Technik vorstellen: Ich werde nie erwarten, dass mein heimischer, ethischer Standard immer und überall gilt. Etwas Anpassung wird immer nötig sein. Aber auf das Grundprinzip „Technik dient Mensch“ sollten wir uns schon einigen wollen. Auch wenn wir, um im Bild zu bleiben, wahrscheinlich nicht immer und überall eine Steckdose finden werden und auch mit Stromausfällen zu rechnen ist.

xethix: Wie lassen sich ethische Standards mit den Interessen einzelner Unternehmen vereinbaren und wodurch werden sie für die Unternehmen relevant?

Harald Summa: Unternehmen haben zwei Interessen. Sie wollen, erstens, Geld verdienen und das, zweitens, legal. Wenn wir ethische Standards mit den Interessen von Unternehmen vereinbaren wollen, haben wir also zwei Stellschrauben. Da Regulierung durch Gesetze eher ein reaktives und noch dazu langsames und oft nicht effektives Werkzeug ist, bleibt die Selbstregulierung durch den Markt. Ich bin sehr optimistisch, dass sich ethisches Handeln durchsetzt, denn das wichtigste ethische Prinzip – „Technik dient Mensch“ – liegt ja im ureigensten Interesse der Internetwirtschaft und seiner Kunden. Damit ist das für Unternehmen höchst relevant.

Denn Kunden, die mit den ethischen Standards nicht zufrieden sind, können ihr Geld, ihre Aufmerksamkeit und ihre Daten im Netz sehr einfach an anderer Stelle investieren. Oder sich, siehe Ihre erste Frage, als souveräner Kopf darum verdient machen, dass unsere digitale Zukunft eine gute Zukunft wird.

Ich freue mich über jeden einzelnen, der dabei mitmacht. Denn wie ich schon auf unserem Kongress sagte: Im ersten Schritt benötigen wir einen gesellschaftlichen Diskurs darüber, welche Folgen die Digitalisierung hat. Das ist die Voraussetzung, damit wir die Digitalisierung gestalten und nicht die Digitalisierung uns. Hierzu hat der echo Verband ganz aktuell als Debattenbeitrag der Internetwirtschaft ein Ethik Kompendium der Digitalisierung veröffentlicht. Es steht auf unserer Website kostenlos zum Download bereit.

https://www.eco.de/wp-content/uploads/dlm_uploads/2019/01/eco_Kompendium_Digitale_Ethik_DinA5_FINAL.pdf

Millionen von Account-Daten stehen im Darknet zum Verkauf: Weitreichende Folgen sind zu befürchten

DarknetWie gestern bekannt wurde, steht eine enorm große Datenbank mit E-Mailadressen sowie Passwörtern auf der Webseite Dream Market zum Verkauf. Hierbei handelt es sich um eine Schwarzmarkt-Seite, die sich nicht im öffentlich zugänglichen Internet befindet. Insgesamt wurden hier Daten von rund 620 Millionen Accounts kompromittiert. Ersten Informationen der britischen News-Seite The Register zufolge sind die Quellen der Anmeldeinformationen 16 verschiedene Websites und sie waren zwischen den Jahren 2016 und 2018 entwendet worden.

Der Vorfall reiht sich ein in eine Welle von verheerenden Datensicherheitsvorfällen, die alleine in diesem Jahr bereits wieder die Schlagzeilen bestimmt haben. Diese Tatsache verwundert nicht, schließlich ist Cyberkriminalität ein florierender Wirtschaftszweig. Der Brancheverband BITKOM schätzt die Schäden für die deutsche Wirtschaft alleine in den letzten 2 Jahren auf rund 43 Milliarden Euro. Die Zusammenhänge der einzelnen Vorfälle sind bisweilen für Außenstehende nicht klar. Datenpannen – wie aktuell der Diebstahl von Abermillionen personenbezogener Informationen – sind dabei nur der Anfang. Die gestohlenen Daten werden oftmals, wie im aktuellen Fall, an Kriminelle im Darknet verkauft.

Die Folgen sind verheerend: Diese können zum einen beispielsweise automatisiert Konten bei Onlinehändlern eröffnen, um mittels gefälschter Identitäten Ware im realen Leben zu erwerben. Doch noch fataler ist die Tatsache, dass die Käufer zum anderen ebenso automatisierte Konten bei Public Cloud Anbietern eröffnen und die Infrastruktur dieser Anbieter für Cyberangriffe missbrauchen können – Beispielsweise für Distributed-Denial-of-Service (DDoS)-Angriffe. So stieg etwa 2018 die Anzahl der DDoS-Angriffe, die alleine über Public Cloud-Dienste generiert wurden, um 35% Prozent gegenüber dem Vorjahr. Nur allzu oft stehen hinter diesen Attacken also gestohlene Datensätze und unbeteiligte Personen, die letztendlich selbst Opfer einer Straftat (nämlich Datendiebstahl) wurden und somit ins Fadenkreuz von Ermittlungen geraten.

Autor: Marc Wilczek, Geschäftsführer und COO von Link11. Link11 ist ein europäischer IT-Security-Provider mit Hauptsitz in Frankfurt am Main und Standorten in Europa, den USA und Asien.