Category Archives: Topstory

Barrierefreie Software: Worauf Unternehmen und Behörden achten sollten

 

Barrierefreie Software soll es allen Mitarbeitern ermöglichen, die gleiche Arbeit erledigen zu können. Sie soll eventuelle Einschränkungen, welcher Art auch immer, kompensieren. (Bildquelle: iStock Photo, ID 869371124)

Barrierefreie Software soll es allen Mitarbeitern ermöglichen, die gleiche Arbeit erledigen zu können. Sie soll eventuelle Einschränkungen, welcher Art auch immer, kompensieren. (Bildquelle: iStock Photo, ID 869371124)

In Behörden und staatlichen Institutionen ist barrierefreie Software von Gesetzes wegen vorgeschrieben. Aber auch in der Privatwirtschaft wird Barrierefreiheit zunehmend wichtiger. Harald Griober von IP Dynamics erläutert, was barrierefreie Software können muss und worauf Sie in Barrierefrei-Projekten achten sollten.

„Barrierefrei“: Dieser Begriff kommt ursprünglich aus dem Bauwesen. Einem Benutzer sollen keine Barrieren in den Weg gelegt werden, welcher Art auch immer. An vielen Stellen im öffentlichen Raum begegnen uns Maßnahmen zur Barrierefreiheit. Rampen erleichtern Rollstuhlfahrern das Überwinden von Höhenunterschieden, Tonsignale an Ampeln „übersetzen“ Blinden und Sehbehinderten das Signal zum Überqueren der Straße.

Was bedeutet barrierefrei in puncto Software?

Analog dazu soll es barrierefreie Software jedem Mitarbeiter eines Unternehmens oder einer Behörde ermöglichen, dieselbe Arbeit machen zu können, etwa in einem Callcenter Anrufe entgegennehmen und Geschäftsvorfälle lösen. Dabei spielt es zunächst keine Rolle, um welche Barriere es sich handelt. Typische Barrieren entstehen durch körperliche Einschränkungen aufgrund einer Behinderung, etwa den fehlenden Seh- oder Hörsinn oder motorische Einschränkungen.

Damit ist nicht mit wenigen Worten oder Sätzen zu definieren, was eine barrierefreie Software können muss. Wann ermöglicht es eine Software allen Mitarbeitern, die gleiche Arbeit machen zu können? Wie kann die jeweilige Einschränkung durch die Software kompensiert werden?

Normen wie die ISO 9241 für die „Ergonomie der Mensch-System-Interaktion“, die „Web Content Accessibility Guidelines (WCAG)“ des World Wide Web Consortiums und die „Barrierefreie Informationstechnik Verordnung (BITV 2.0)“ geben Kriterien an die Hand, wie barrierefreie Software sein sollte.

Darunter finden sich zum Beispiel folgende Kriterien

  • Trennung von Text und Layout, damit beispielsweise Text von Screenreadern ausgelesen und auf eine Braille-Zeile ausgegeben werden kann. Ein Braille-Zeile ist eine Art Tastatur, die Text in Blindenschrift widergibt.
  • Für jeden Nicht-Text-Inhalt Alternativen in Textform anbieten. Am bekanntesten sind wohl Alt-Tags für Bilder auf Webseiten.
  • Logischer, hierarchischer Aufbau der Software, d.h. Inhalte sind so aufzubereiten, dass sie ohne Informationsverlust in welcher Art auch immer ausgelesen werden können.
  • Vorsichtiger Umgang mit Farbe: Sie darf nicht das einzige Mittel sein, um Informationen zu übermitteln oder eine Reaktion zu veranlassen, etwa die Farbe Rot bei Buttons und Warnhinweisen.
  • Tabulator-Steuerung: Alle Funktionen sollen über eine Tastatur gesteuert werden können. Gerade in der Bewegung eingeschränkte Menschen tun sich schwer mit der Maus.
  • Offenheit in Bezug auf Betriebssysteme und Endgeräte, um etwa Screenreader, Vorlesehilfen und andere assistive Technologien anbinden zu können.
  • Offenheit in Bezug auf die Skalierung und Darstellung, um z.B. Vergrößerungen, Invertierungen oder besonders kontrastreiche Darstellungen zu ermöglichen

Open from Scratch

Diese Kriterien erscheinen logisch, definieren sie doch moderne Software-Architekturen mit einem „sauberen“, universalen Code. Gute Software-Applikationen sollen alle Funktionen für alle zur Verfügung stellen. Die Praxis sieht aber anders aus. Häufig ist der Code nicht barrierefrei. Screenreader, die beispielsweise eine Oberfläche über Sprache ausgeben, erhalten keinen Zugang zu den Informationen oder noch schlimmer: Informationen werden fehler- oder lückenhaft ausgelesen.

Das ist zum Beispiel bei Web-Browsern der Fall, die in Thin-Client-Architekturen häufig als Benutzeroberfläche für Applikationen verwendet werden. So lässt sich zum Beispiel die Baumnavigation mit den gängigen Web-Browsern gut visuell darstellen, sie kann aber mithilfe eines Screenreaders manchmal nicht fehlerfrei ausgelesen werden. Genau das darf bei barrierefreien Anwendungsszenarien nicht passieren. Ein Blinder muss sich auf das verlassen, was er hört.

Achten Sie bei der Anschaffung von Software auf einen hohen Barrierefreiheitsgrad. Wie so häufig steckt hier der Teufel im Detail, soll heißen: in der Code-Ebene.

Essenzielle Funktionen versus Nice-to-have

Auch in puncto Benutzeroberfläche machen sich die Hersteller nicht immer Gedanken, ob Funktionen in ihrer Software für eingeschränkte Menschen gut oder überhaupt bedienbar sind. Moderne Software ist, analog zum Trend im Netz, sehr visuell. Applikationen arbeiten mit Bildern wie Tortengrafiken oder Kartenausschnitten, farblichen Elementen wie Ausgrauungen oder Rot-Grün-Gegensätzen, schwebenden Menüs, animierten Elementen wie Blink-Effekten oder Timern, Drag and Drop oder Overlays.

All diese Elemente sind häufig nicht, wie Tabellen, logisch, sequenziell oder hierarchisch angeordnet. Assistive Technologien wie Screenreader können mit solchen Benutzeroberflächen nur schwierig umgehen.

Bei Business-Software gilt daher: Weniger ist mehr. Zugunsten der Nutzerfreundlichkeit sollte mit bunten Bedienelementen sparsam umgegangen werden. Eine einfach zu erschließende, klar strukturierte Benutzeroberfläche, auch wenn sie anfangs langweilig erscheint, ist mit hoher Wahrscheinlichkeit barrierefrei – und letzten Endes auch für andere Nutzer ohne Einschränkungen meist effektiver zu bedienen.

Grundlage schaffen

In vielen unserer Projekte für barrierefreie Software-Anwendungen stoßen wir auf nur sehr wenige Vorgaben im Anforderungskatalog. Das ist einerseits der häufig noch fehlenden Erfahrung mit Barrierefrei-Implementierungen geschuldet, andererseits fehlt es an Wissen in der technologischen Tiefe. Die Fragen lauten: Was muss umgesetzt werden? Was kann umgesetzt werden? Und wie?

Nehmen wir das Beispiel eines Callcenters: Der Prozess ‚Anruf – Annahme – Bearbeitung – Auflegen – Nachbearbeitung‘ soll für blinde Mitarbeiter und Mitarbeiter mit motorischen Einschränkungen barrierefrei gestaltet werden.

Für die blinden Nutzer muss die komplette Mausbedienung in Shortcuts, Tabulatorsteuerung und Ein- und Ausgabe auf die Braille-Tastatur übertragen werden. Eine Alternative zur Maussteuerung hilft auch motorisch eingeschränkten Anwendern, weil sie mit Tabulatoren und Shortcuts oft schneller sind als mit der Maus. Für eingeschränkt Sehende braucht es außerdem Möglichkeiten zur extremen Vergrößerung und starke Kontraste. Ausgrauungen oder farbliche Elemente wie Buttons und Unterlegungen müssen ausgeschaltet werden.

Dann gilt es zu überlegen, wie der Prozess und Teilprozesse abgebildet werden. Wie soll beispielsweise der Blinde über einen ankommenden Anruf benachrichtigt werden und wie nimmt er ihn an? Wie dokumentieren motorisch eingeschränkte Nutzer, die nur sehr langsam oder eingeschränkt tippen können, Geschäftsvorfälle? Wie werden zusätzliche Dokumente wie Gesprächsleitfäden zugänglich gemacht?

Zum Schluss müssen die „übersetzten“ Funktionen in Skillsets, Anwenderprofile, die bestimmte Fähigkeiten und Fachwissen voraussetzen, hinterlegt werden.

Ein ziemlich komplexer Prozess also. Deshalb gilt es gleich zu Anfang, Grundlage zu schaffen. Ein klarer und detailliert formulierter Anforderungskatalog spart am Ende viele Iterationen und Testzyklen.

Interdisziplinäre Teams

Gemischte Teams aus IT-Leuten, Entwicklern, Fachverantwortlichen und Anwendern haben sich bei der Entwicklung von Business-Applikationen bewährt. Auch in Barrierefrei-Projekten kann es sehr sinnvoll sein, die eigentlichen Nutzer, eingeschränkt und nicht, in den Entwicklungsprozess einzubeziehen. Gerade behinderte Benutzer wissen sehr gut, wie man Herausforderungen im Alltag löst und können bei der „Übersetzung“ von Funktionen und Teilprozessen sicher viele nützliche Ideen einbringen. Auch in der Testphase sollten Sie die User konsequent einbeziehen.

Erfahrene Partner

Scheuen Sie sich nicht davor, Experten hinzuzuziehen, wenn Sie nicht über detaillierte technologische Kenntnisse oder Erfahrung mit barrierefreier Software verfügen. Ein guter Partner bringt neben Erfahrung viel Einfühlungsvermögen, Ideen und technologisches Können ins Projekt ein. Das haben bisher nur wenige. Außerdem vermittelt Ihnen ein seriöser Partner Kontakt zu den Verantwortlichen in Referenzprojekten. Sprechen Sie mit den Kollegen und lernen Sie von ihren Herausforderungen. Denn selbst, wenn alle Voraussetzungen gut sind, dauert es viele Tests und Iterationen, bis eine barrierefreie Bedienung steht.

Autor: Harald Griober ist zuständig für die Qualitätssicherung bei dem Hamburger Systemhaus IP Dynamics. Aktuell begleitet Harald Griober eine große deutsche Behörde dabei, ihr Skype for Business-basiertes Contact-Center für blinde und sehbehinderte Nutzer barrierefrei zu gestalten. IP Dynamics ist spezialisiert auf Telefonie-, Unified-Communications- und Contact-Center-Lösungen bei großen Unternehmen und Behörden. 

Bürgerbarometer: Deutsche wünschen sich „Digitalpakt Gesundheit“

20257_181122_soprasteria-infographie-def_deu_800px„Das komplexe Gesundheitssystem in Deutschland mit rund 2.000 Krankenhäusern, 118 gesetzlichen Krankenkassen, zirka 20.000 Apotheken, mehr als 200.000 Haus- und Fachärzten sowie Therapeuten und die 82 Millionen potenziellen Patienten digital optimal zu verbinden, ist keine leichte Aufgabe“, sagt Ronald de Jonge, Leiter Management Consulting Public Sector von Sopra Steria Consulting.

Dazu gehören immer auch wichtige gesetzliche Voraussetzungen wie das vom Bundestag verabschiedete Terminservice- und Versorgungsgesetz (TSVG) sowie ein spezielles Digitalisierungsgesetz, in dem beispielsweise Zugriffsrechte der Patienten zu regeln sind. Eine weitere Aufgabe ist, die vielen IT-Infrastrukturen aufeinander abzustimmen und Abläufe zu vereinfachen. „Dazu kommt, dass Krankenhäuser als kritische Infrastrukturen besondere IT-Sicherheitsvorkehrungen treffen müssen. Mit Abschluss dieser Arbeiten ist es absehbar, dass sich der Online-Leistungskatalog im Gesundheitssektor schnell füllen wird“, sagt Ronald de Jonge von Sopra Steria Consulting.

Die drängendste Digitalbaustelle der Verwaltung ist für die Bürgerinnen und Bürger das Bildungswesen. 41 Prozent wünschen sich eine bessere digitale Ausstattung in Schulen und Hochschulen sowie mehr Online-Angebote für einen einfachen Dialog mit Schul- und Wissenschaftseinrichtungen.

Der Durchbruch beim Digitalpakt zwischen Bund und Ländern und eine Grundgesetzänderung für eine vereinfachte finanzielle Förderung durch den Bund kommen den Erwartungen der Bevölkerung entgegen. Der Pakt ebnet den Weg für eine verbesserte digitale Ausstattung an Schulen, beispielsweise Multimediatafeln, Tablets und schnelles Internet.

Die Bürgerinnen und Bürger wünschen sich damit für die konkreten Bildungs- und Gesundheitseinrichtungen in der Breite mehr digitale Inhalte, Infrastruktur und Kompetenzen. Direkt nach konkreten Lebenslagen gefragt verschieben sich allerdings die Prioritäten. Hier wünschen sich 57 Prozent der Befragten vorrangig das digitalisierte Einwohnermeldeamt, mit beispielsweise einfachem Online-Service beim Erneuern von Ausweisdokumenten und bei Umzügen.

37 Prozent der Menschen in Deutschland sind für noch mehr Vereinfachungen im Austausch mit den Finanzämtern. 32 Prozent wollen zügig mehr Online-Hilfe bei der Jobsuche. Internet-Service im Umgang mit Schul- und Hochschulbehörden ist auch wichtig, hat aber keine Priorität. Sechs Prozent der Befragten sind dafür, dass digitale Unterstützung bei der Schulanmeldung Vorrang auf der digitalen Agenda des Bundes haben sollte.

Insgesamt wollen mehr als 80 Prozent der Bürgerinnen und Bürger mehr behördliche Leistungen online nutzen. Bund, Länder und Kommunen schaffen mit dem Portalverbund derzeit die Voraussetzungen, um die digitalen Möglichkeiten auszuschöpfen. Zudem geht es darum, Angebote und Leistungen stärker nach Lebenslagen zu bündeln und die aktuelle organisatorische Trennung nach Zuständigkeiten aufzubrechen.

Über die Studie

Sopra Steria veröffentlicht zum vierten Mal in Folge in Zusammenarbeit mit IPSOS eine Umfrage zur digitalen Transformation des öffentlichen Sektors. Die Umfrage wurde von IPSOS im Auftrag von Sopra Steria im Zeitraum 25. September und bis 3. Oktober 2018 durchgeführt. 5.001 Personen aus Deutschland, Frankreich, Großbritannien, Norwegen und erstmals Spanien wurden nach Geschlecht, Alter, Beruf, Stadt und Region ausgewählt und online befragt.

Links: Zur Studie

 

EU-Ethikleitlinien für KI: Gesellschaftlichen Diskurs zur Verantwortung Künstlicher Intelligenz vorantreiben

Oliver Süme ist Vorstandsvorsitzender von eco – Verband der Internetwirtschaft e.V.

Oliver Süme ist Vorstandsvorsitzender von eco – Verband der Internetwirtschaft e.V.

Zu den am 8.4.2019 von der EU-Kommission vorgestellten neuen Leitlinien für den ethischen Einsatz von Künstlicher Intelligenz, sagt eco-Vorstandvorsitzender Oliver Süme: „Wir begrüßen die Botschaft, die heute von der EU mit den neuen Ethik-Leitlinien für das Zukunftsthema KI gesendet wurde: Vertrauenswürdige KI-Anwendungen sollen so entwickelt und eingesetzt werden, dass sie menschliche Autonomie respektieren, dennoch sicher, fair und nachvollziehbar funktionieren.

Digitalunternehmen treiben mit ihren Entwicklungen, Produkten und Diensten den digitalen Wandel an und sind mitverantwortlich für die Beantwortung der damit entstehenden gesellschaftlichen Fragen. Wir nehmen diese Fragestellungen als Verband der Internetwirtschaft sehr ernst und sind der Überzeugung, dass ethische Normen, Handlungsleitlinien und damit Rahmenbedingungen für die Entwicklung und den Einsatz digitaler Technologien im engen Schulterschluss zwischen Unternehmen, Politik und Zivilgesellschaft entwickelt werden müssen. eco will den gesellschaftlichen Diskurs zur Verantwortung Künstlicher Intelligenz effektiv vorantreiben!“

Akzeptanz der Künstlichen Intelligenz muss mit Transparenz gefördert werden

Der bewusste Umgang mit Daten, die Beziehung von Mensch und Technologie, die gesamtgesellschaftliche Verantwortung Künstlicher Intelligenz sowie die strategische Förderung der Zukunftstechnologie sind die größten Herausforderungen innerhalb der ethischen Debatte: „Der Schlüssel lautet Transparenz. Bei Systemen der Künstlichen Intelligenz stellt sich immer die Frage nach Transparenz der eingesetzten Technologien, Algorithmen und ihrer Entscheidungen. Nur ein transparenter Umgang mit Künstlicher Intelligenz kann das Vertrauen der Menschen in ein autonom arbeitendes und entscheidendes System stärken“, so Süme.

Um die verschiedenen Diskussionen zu begleiten und in den Kontext der aktuellen technologischen Entwicklungen zu setzen, hat eco – Verband der Internetwirtschaft e.V. Leitlinien zum Umgang mit KI formuliert.

Mit dem „Kompendium Digitale Ethik“ leistet eco außerdem einen wichtigen Beitrag, um den gesamtgesellschaftlichen Diskurs zum Thema digitale Ethik voranzutreiben. In dem Kompendium finden sich aktuelle Expertenmeinungen und Fachbeiträge zu verschiedenen Fragen im Zusammenhang mit digitaler Ethik, beispielsweise in den Fokusthemen Staat & Rahmenbedingungen, Arbeit, IT Sicherheit oder Bildung.

Internetunternehmen übernehmen Verantwortung: Selbstregulierung funktioniert

Der Verband der Internetwirtschaft betont zudem, dass zahlreiche Unternehmen bereits Verantwortung für ethische Herausforderungen im Zusammenhang mit der digitalen Transformation übernehmen und beispielsweise im Rahmen von Selbstverpflichtungsinitiativen erfolgreich zur Einhaltung ethischer Normen beitragen. Ein prominentes Beispiel ist hier die eco Beschwerdestelle zur Bekämpfung unerwünschter und illegaler Internetinhalte.

Cyberkriminelle und ihre psychologischen Tricks: Die häufigsten Social Engineering-Angriffe

WP_001268Social Engineering gilt heute als eine der größten Sicherheitsbedrohungen für Unternehmen. Im Gegensatz zu traditionellen Hacking-Angriffen können Social Engineering-Angriffe auch nicht-technischer Natur sein und müssen nicht zwingend eine Kompromittierung oder das Ausnutzen von Software- oder System-Schwachstellen beinhalten. Im Erfolgsfall ermöglichen viele Social-Engineering-Angriffe einen legitimen, autorisierten Zugriff auf vertrauliche Informationen.

Die Social Engineering-Strategie von Cyberkriminellen fußt auf starker zwischenmenschlicher Interaktion und besteht meist darin, das Opfer dazu zu verleiten, Standard-Sicherheitspraktiken zu missachten. Und so hängt der Erfolg von Social-Engineering von der Fähigkeit des Angreifers ab, sein Opfer so weit zu manipulieren, dass es bestimmte Aktionen ausführt oder vertrauliche Informationen preisgibt. Da Social-Engineering-Angriffe immer zahlreicher und raffinierter werden, sollten Organisationen jeder Größe eine intensive Schulung ihrer Mitarbeiter als erste Verteidigungslinie für die Unternehmenssicherheit betrachten.

 Die Strategie der Cyberkriminellen: Trickbetrüger des digitalen Zeitalters

Social Engineering-Angreifer sind letztlich eine moderne Spielart der klassischen Trickbetrüger. Häufig verlassen sich diese Kriminellen auf die natürliche Hilfsbereitschaft von Menschen: Zum Beispiel rufen sie bei ihrem Opfer an und geben ein dringendes Problem vor, das einen sofortigen Netzwerkzugang erfordert.

Social Engineering-Angreifer nutzen gezielt bestimmte menschliche Schwächen wie Unsicherheit, Eitelkeit oder Gier aus und verwenden Informationen, die sie aus Lauschangriffen oder dem Ausspionieren sozialer Medien gewonnen haben. Dadurch versuchen sie, das Vertrauen autorisierter Benutzer zu gewinnen, damit ihre Opfer sensible Daten preisgeben, mit Malware infizierte E-Mail-Anhänge öffnen, oder sie deren Zugangsdaten für Computernetzwerke oder Datenspeicher stehlen können. Auch durch den Aufbau eines Schreckensszenarios wie einem angeblichen Sicherheitsvorfall können sie ihre Zielperson dazu bewegen, beispielsweise als Antiviren-Software getarnte Malware zu installieren und auszuführen.

 Häufige Social Engineering-Methoden im Überblick

Technologielösungen wie E-Mail-Filter, Firewalls und Netzwerk- oder Daten-Überwachungs-Tools helfen zwar, Social Engineering-Attacken abzuschwächen, doch eine gut geschulte Belegschaft, die in der Lage ist, Social Engineering zu erkennen, ist letztlich die beste Verteidigung gegen diese Art Angriffe. Unternehmen sollten ihre Mitarbeiter deshalb umfassend über die gängigen Arten von Social-Engineering aufklären.

Im Folgenden daher ein Überblick zu verschiedenen Angriffstechniken, deren Übergänge teilweise fließend sind und von Kriminellen auch in Kombination eingesetzt werden.

 Pretexting: Geschicktes Vortäuschen falscher Tatsachen

Beim Pretexting schützt ein Angreifer geschickt falsche Tatsachen vor, um ein Opfer dazu zu bringen, ihm Zugang zu sensiblen Daten oder geschützten Systemen zu gewähren. Beispielsweise gibt ein Krimineller vor, Bankdaten zu benötigen, um die Identität des Empfängers zu bestätigen. Oder er tarnt sich als Mitarbeiter der IT-Abteilung, um sein Opfer dazu zu verleiten, Login-Daten preiszugeben oder einen Computerzugang zu gewähren.

 Baiting: Der physische Köder

Angreifer führen Köderangriffe durch, indem sie ein mit Malware infiziertes Gerät wie ein USB-Flash-Laufwerk, an einem bestimmten Ort im Unternehmen zurücklassen, an dem es wahrscheinlich gefunden wird. Wenn ein Mitarbeiter den Datenträger mit seinem Computer verbindet, um beispielsweise zu sehen, was sich darauf befindet, wird der Rechner heimlich mit Malware infiziert. Einmal installiert, erlaubt die Malware dem Angreifer, in das System des Opfers einzudringen.

 Tailgating: Den Angreifer im Rücken

Der Begriff Tailgating (Tailgate = Heckklappe) erinnert an Krimiszenen, bei denen der Protagonist bei der Autofahrt einen Verfolger im Rückspiegel entdeckt, der ihm quasi an der Heckklappe klebt. Tailgating ist eine weitere physische Social Engineering-Technik, um an wertvolle, vertrauliche Informationen zu gelangen: Ein Beispiel wäre ein Unbefugter, der autorisierten Personen an einen ansonsten gesicherten Ort folgt, indem er vorgibt, seine Zugangskarte vergessen zu haben. Auch kann der Angreifer sein Opfer darum bitten, ihm kurz dessen Telefon oder Laptop auszuleihen, um eine einfache Aufgabe zu erledigen, und stattdessen Malware auf dem Gerät installiert oder sensible Daten stiehlt.

 Quid pro quo-Angriff: Das Locken mit einer Gegenleistung

Bei einem Quid pro quo (lat.: „dies für das“) -Angriff locken Cyberkriminelle ihre Opfer mit einer Gegenleistung oder Entschädigung, um sensible Informationen zu ergaunern. Beispielsweise erzählen Angreifer am Telefon, eine offizielle Umfrage durchzuführen, und bieten für die Teilnahme Geschenke an. Hier gilt als Faustregel: Wenn etwas zu gut klingt, um wahr zu sein, ist gesundes Misstrauen geboten.

 Phishing: Von gefälschten Geschäftsemails bis zum vermeintlichen Spendenaufruf

Bei einem Phishing-Angriff tarnen Cyberkriminelle sich als vertrauenswürde Quelle und nehmen eine betrügerische Kommunikation mit ihrem Opfer auf, um es dazu zu verleiten, Malware zu installieren oder persönliche, finanzielle oder geschäftliche Informationen herauszugeben. E-Mail ist der beliebteste Vektor für Phishing-Angriffe, aber Phishing kann auch Chat-Anwendungen, Social Media, Telefonanrufe (auch Vishing oder Voice Phishing genannt) oder gefälschte Websites verwenden. Einige besonders perfide Phishing-Angriffe täuschen gezielt wohltätige Zwecke vor dem Hintergrund aktueller Naturkatastrophen oder anderen tragischen Vorfällen vor. So nutzen sie den guten Willen ihrer Opfer aus, um durch einen Spendenaufruf an persönliche Daten oder Zahlungsinformationen gelangen.

 Watering-Hole-Attacke

Bei einer Watering-Hole-Attacke (Auflauern am Wasserloch) wählt der Angreifer sorgfältig eine bestimmte Website aus, von der er weiß, dass seine Opfer diese häufig besuchen, und infiziert die Homepage mit Malware. Zielpersonen sind meist Mitarbeiter von großen Unternehmen oder Regierungsstellen. Ein Beispiel wäre die Webseite eines lokalen Restaurants, in denen Mitarbeiter ihre Pause verbringen, beispielweise regelmäßig das Tages- oder Wochenangebot abrufen oder den Lieferservice in Anspruch nehmen.

 Spear-Phishing: Gezieltes Ausspähen und Angreifen eines Opfers

Spear-Phishing ist eine sehr gezielte Art von Phishing-Angriff, die sich auf eine bestimmte Person oder Organisation konzentriert. Spear Phishing-Angriffe verwenden persönliche Informationen, die spezifisch auf das Opfer zugeschnitten sind, um Vertrauen zu gewinnen und besonders legitim zu erscheinen. Oftmals werden diese Informationen aus den Social Media-Accounts der Opfer oder anderen Online-Aktivitäten entnommen. Durch die Personalisierung ihrer Phishing-Taktiken haben Spear-Phisher höhere Erfolgsquoten, wenn es darum geht, ihre Opfer dazu zu bringen, Zugang zu Systemen gewähren oder sensible Informationen wie Finanzdaten oder Geschäftsgeheimnisse preiszugeben.

Social Engineering ist eine anhaltende Bedrohung für viele Organisationen. Mitarbeiterschulungen sind deshalb die erste und wichtigste Maßnahme, um zu verhindern, dass Unternehmen Opfer von Angreifern werden, die immer ausgefeiltere Methoden einsetzen, um Zugang zu sensiblen Daten zu erhalten. Durch Sensibilisierung der Mitarbeiter in Kombination mit entsprechenden Security- und Datensicherheitstechnologien kann dieses Risiko erheblich minimiert werden.

Christoph M. Kumpa, Director DACH & EE bei Digital Guardian

Christoph M. Kumpa, Director DACH & EE bei Digital Guardian

Autor: Christoph M. Kumpa ist Director DACH & EE bei Digital Guardian. Digital Guardian bietet eine bedrohungserkennende Datensicherungsplattform, die speziell entwickelt wurde, um Datendiebstahl sowohl durch interne als auch durch externe Angriffe zu verhindern. Die Digital Guardian-Plattform kann für das gesamte Unternehmensnetzwerk, traditionelle und mobile Endgeräte sowie Cloudanwendungen eingesetzt werden. U

Studie zu Human Machine Interfaces: Zukunftsweisende Konzepte

swirl-optical-illusion-300x203Technologie wird zunehmend zum Werkzeug für die Erweiterung der menschlichen Sinne und Fähigkeiten. Dafür bedarf es intelligenter und immersiver Schnittstellen. Verdrängen Sprach-, Gesten- und Gedankensteuerung schon bald Tastatur und Touchscreen?

Die Studie von Reply, die mit der Trendplattform SONAR realisiert wurde, beleuchtet zukunftsweisende Konzepte für Schnittstellen zwischen Mensch und Computer – kurz Human Machine Interfaces –, die sich von Visionen zu realen Wegweisern für die Kommunikation zwischen Mensch und Maschine entwickeln. Für Unternehmen liegt in einer stärker personalisierten und emotionalen Kundeninteraktion sowie in neuen Möglichkeiten zur Visualisierung sowie Analyse von Informationen großes Potenzial.

Voice Assistance

20 Millionen Menschen weltweit nutzen Voice Assistants bereits täglich für die Informationssuche, Einkäufe oder das Abspielen von Musik. Auch im Unternehmensumfeld ermöglichen sie einen ganz neuen Umgang mit Technologie und automatisieren unzählige Aufgaben. Die smarten Assistenten erledigen ganze Aufgaben und protokollieren oder telefonieren ohne menschliches Zutun.

Dies erhöht die Arbeitsproduktivität und lässt Mitarbeitern mehr Zeit für anspruchsvolle Tätigkeiten. Trends sind Voice Interfaces, mit denen sich eine große Vielfalt an unterschiedlichen Geräten per Spracheingabe steuern lässt. Smarte Software-Agenten können so in Zukunft immer mehr Dienstleistungen ausführen. Darüber hinaus sind elektronische In-Ear-Geräte – sogenannte Hearables – von der drahtlosen Datenübertragung bis hin zu Kommunikationsdiensten vielseitig einsetzbar.

Extended Reality (XR)

Die unter XR zusammengefassten Technologien ermöglichen ein barrierefreies Zusammenspiel von Mensch und Maschine und eliminieren geographische Distanzen. Sie revolutionieren die Interaktion mit anderen Menschen und der Umwelt: Augmented, Virtual und Mixed Reality unterstützen die Entscheidungsfindung bei Verbrauchern und können zu Kostensenkungen sowie zu mehr Effizienz und einer produktiveren Umgebung führen.

Weitere aufkommende Trends sind Gestensteuerung und 3D-Displays, die ein virtuelles dreidimensionales Bild eines Objekts erzeugen und interaktive Möglichkeiten bieten. Auch Smart Glasses, die dem Träger zusätzliche Informationen zum Gesehenen einblenden, zählen zu den XR-Trends.

Full Immersion

Full-Immersion-Technologien erlauben den unmittelbaren Informationsaustausch zwischen Mensch und Maschine. Fortschritte in vollständig immersiven Technologien und Neurowissenschaften zeigen, dass eine Welt entsteht, in der Menschen vollständig mit Computern verbunden sind. Wissenschaftliche Forschungen in der Medizin weisen den Weg in eine Zukunft, in der das menschliche Gehirn Computer mit bloßen Gedanken steuern und Ideen über Headsets oder Hirnimplantate austauschen kann.

Bereits heute arbeiten Unternehmen an den neural gesteuerten Interfaces. Sie bieten direkte Kommunikationswege zwischen einem vernetzten Gehirn und externen Geräten. Als weitere Stufe dieser Entwicklung zielen Trendtechnologien im Bereich Augmented Body darauf ab, den menschlichen Körper und seine Leistungsfähigkeit durch Mittel wie Implantate oder elektronische Tattoos zu verstärken.

Der Trendreport identifiziert darüber hinaus vier Visionen, die bald Wirklichkeit werden könnten

  • Gedankenübertragung: Ideen, Gefühle und Erinnerungen können unmittelbar mit anderen Menschen geteilt werden.
  • Human Enhancement: Durch die direkte Verbindung des Gehirns mit Computern, KI-gesteuerten Assistenten und dem Internet kann Know-how in das Gehirn heruntergeladen oder mit superintelligenten KI-Systemen erweitert werden.
  • Neural Healthcare: Immersive Technologien ermöglichen die Genesung von heute noch unheilbaren Krankheiten wie Parkinson oder Lähmungen.
  • Virtuelle Kopien: Durch die Verbindung mit Computern lassen sich Gedanken, Erinnerungen und Gefühle eines Menschen als Daten speichern und ermöglichen eines Tages vielleicht sogar eine vollständige virtuelle Kopie des Gehirns.

„Die Kommunikation zwischen Mensch und Maschine ist eines der spannendsten Themen unserer Zeit. Technologien an der Schnittstelle zwischen uns und intelligenten Systemen ermöglichen schon in naher Zukunft einen Paradigmenwechsel in allen Lebensbereichen. Die dadurch entstehenden neuen Produkte und Dienstleistungen bieten völlig neue Lösungen zum Erzählen von Geschichten und Visualisieren von Informationen. Die drei von SONAR identifizierten Trends und die vier Visionen geben Unternehmen eine Orientierungshilfe auf ihrem Weg der digitalen Transformation“, sagt Filippo Rizzante, CTO bei Reply.

Der Human Machine Interfaces-Report ist Teil einer Serie zu Themen wie KI, die Retail Revolution und Consumer-IoT. Um die vollständige Studie zu lesen, klicken Sie bitte hier.

Sextortion: Cybererpressung mit „kompromittierenden“ Videos

HerzCyberkriminelle haben betrügerische Sextortion-E-Mails bisher als große Spam-Kampagnen verteilt, jetzt erweitern die Angreifer ihre Taktik: Eine Analyse durch Sicherheitsforscher von Barracuda Networks ergab, dass einer von zehn Spear-Phishing-Attacken ein Sextortion-Angriff war. Damit ist es doppelt so wahrscheinlich, dass Mitarbeiter durch einen gezielten Sextortion-Angriff ins Visier genommen werden als durch Business Email-Compromise (BEC).

Sextortion: Vorgehensweise der Angreifer

Bei einem Sextortion-Angriff geben Cyberkriminelle vor, im Besitz eines kompromittierenden Videos zu sein, das angeblich auf dem Computer des Opfers aufgezeichnet wurde, und drohen, es mit allen Kontakten des Opfers zu teilen – es sei denn, die Zielperson bezahlt. Typerweise werden Bitcoins verlangt und die Wallet-Details in der Erpressungsnachricht mitgeschickt. Sextortion-Angreifer nutzen bei der Kommunikation E-Mail-Adressen und gegebenenfalls Passwörter, die bei Datenlecks gestohlen wurden. Oftmals fälschen Angreifer auch die E-Mail-Adresse durch Spoofing und geben vor, Zugang zum Konto zu haben.

Sextortion-E-Mails werden in der Regel als Teil größerer Spam-Kampagnen an Tausende von Zielpersonen gesendet, sodass die meisten durch Spam-Filtern entdeckt werden. Doch Kriminelle nutzen mittlerweile auch Social-Engineering, um traditionelle E-Mail-Sicherheitsgateways zu umgehen. Sextortion-E-Mails, die in Posteingänge gelangen, stammen meist von angesehenen Absendern und IPs.

Hacker verwenden hierfür bereits kompromittierte Office 365- oder Gmail-Konten. Zudem enthalten Sextortion-E-Mails in der Regel keine bösartigen Links oder Anhänge, die von herkömmlichen Gateways erkannt werden. Angreifer haben auch begonnen, den Inhalt der E-Mails zu variieren und zu personalisieren, was es für Spamfilter schwierig macht, sie zu stoppen. Sextortion-Scams werden zudem aufgrund ihres vermeintlich peinlichen Inhalts von Opfern oft nicht gemeldet. IT-Teams sind sich dieser Angriffe deshalb häufig nicht bewusst.

Gängige Sextortion Betreffzeilen

Sexting5E Es zeigte sich, dass die Mehrheit der Betreffzeilen in den untersuchten Sextortion-E-Mails eine Form von Sicherheitswarnung enthält. Mehr als ein Drittel fordert eine Passwortänderung. Angreifer geben zudem oft die E-Mail-Adresse oder das Passwort des Opfers in der Betreffzeile an, damit die Zielperson die E-Mail öffnet. Im Folgenden einige Beispiele:

  • name@emailaddress.com wurde angegriffen. Ändern Sie Ihre Zugangsdaten.
  • Ihr Konto wurde gehackt, Sie müssen es wieder freischalten.
  • Ihr Konto wird von einer anderen Person genutzt.
  • Ändern Sie umgehend Ihr Passwort. Ihr Konto wurde gehackt.

Gelegentlich sind Angreifer auch direkter und verwenden bedrohliche Betreffzeilen:

  • Du bist mein Opfer.
  • Hör mir besser zu.
  • Du hast nicht viel Zeit.
  • Das ist meine letzte Warnung name@emailadresse.com

 Branchen, die am stärksten von Sextortion betroffen sind

Laut der Untersuchung ist der Bildungsbereich am häufigsten von Sextortion-Angriffen betroffen, gefolgt von Regierungsstellen und Unternehmen im Bereich Business Services. Der starke Fokus auf den Bildungsbereich ist ein kalkulierter Zug der Angreifer. Bildungseinrichtungen haben in der Regel eine große und junge Benutzerbasis. Diese verfügt meist über weniger Sicherheitsbewusstsein und weiß oft nicht, wo sie sich im Fall eines solchen Angriffs Hilfe suchen kann. Aufgrund mangelnder Erfahrung mit dieser Art Bedrohung besteht ein größeres Risiko, dass junge Menschen Opfer von Sextortion werden.

 Vier Möglichkeiten zum Schutz vor Sextortion

KI-basierter Schutz: Angreifer personalisieren mittlerweile ihre Sextortion-E-Mails, um E-Mail-Gateways und Spam-Filter zu umgehen. Daher ist eine gute Sicherheitslösung gegen Spear-Phishing ein Muss. Entsprechende KI-basierte Technologien analysieren und erlernen das spezifische Kommunikationsverhalten innerhalb eines Unternehmens und verfügen über integrierte Komponenten, die diese Art Angriffe erkennen.

Schutz vor Account-Übernahme: Viele Sextortion-Angriffe stammen von kompromittierten Accounts. KI-basierte Technologien können erkennen, wenn Konten gefährdet sind und greifen in Echtzeit ein, indem sie Benutzer benachrichtigen und bösartige E-Mails entfernen, die von gehackten Konten versendet werden.

Proaktive Untersuchungen: Bei Sextortion sind Mitarbeiter möglicherweise weniger als sonst bereit, den Angriff zu melden. IT-Teams sollten deshalb regelmäßig Untersuchungen von zugestellten E-Mails durchführen, um Nachrichten mit Bitten um Passwortänderungen, Sicherheitswarnungen und anderen verdächtigen Inhalten zu entdecken. Viele Sextortion-E-Mails stammen aus Ländern außerhalb Westeuropas oder Nordamerikas. Spezielle Technologien bietet interaktive Berichte über die geografische Herkunft und helfen, bösartige Nachrichten, die in Posteingängen gefunden werden, automatisch zu entfernen.

Sicherheitsschulungen: Organisationen sollten als Teil ihrer Sicherheitsschulungen Benutzer zudem umfassend über Sextortion aufklären, insbesondere wenn sie über eine große, vielfältige und junge Benutzerbasis wie im Bildungsbereich verfügen. So können Nutzer Sextortion-Angriffe erkennen und sich sicher fühlen, sie auch zu melden. Mit Phishing-Simulationstrainings können die Effektivität der Schulungen getestet und diejenigen Benutzer identifiziert werden, die am anfälligsten für Erpressungsangriffe sind.

Durch einen mehrschichtigen Ansatz aus Technologien, Best Practices und umfangreicher Aufklärung kann so das Risiko durch Sextortion-Angriffe deutlich reduziert werden.

Autor: Klaus Gheri ist VP Network Secirity bei Barracuda. Das Unternehmen  ist bestrebt, die Welt zu einem sichereren Ort zu machen und überzeugt davon, dass jedes Unternehmen Zugang zu Cloud-fähigen, unternehmensweiten Sicherheitslösungen haben sollte, die einfach zu erwerben, zu implementieren und zu nutzen sind. Barracuda schützt E-Mails, Netzwerke, Daten und Anwendungen mit innovativen Lösungen, die im Zuge der Customer Journey wachsen und sich anpassen.

 

Unterschied zwischen Künstlicher Intelligenz und Maschinellem Lernen

Die Schlagworte KI und Maschinelles Lernen sind heute in aller Munde. Sie werden von jedem verwen01-korona-1det und oft fälschlicherweise auch als synonyme genutzt. Aus diesem Grund sind die Unterschiede zwischen den zwei Begriffen nur 19 Prozent der Marketer tatsächlich bewusst. Laut einer Studie von Everstring und Heinz Marketing geben sogar 37 Prozent sofort an, den Unterschied nicht zu kennen. Alexander Handcock, Senior Director bei Selligent Marketing Cloud, einem Softwareanbieter für Omnichannel-Marketing-Lösungen, erklärt diesen doch so wichtigen Unterschied.

Künstliche Intelligenz (KI) und ihre Anwendung

Der Begriff Künstliche Intelligenz (KI) bezieht sich auf Maschinen und Anlagen, die Aufgaben ausführen können, die für die menschliche Intelligenz charakteristisch sind. Während diese Definition weit gefasst erscheinen mag, bezieht sich KI für Unternehmen typischerweise auf Mechanismen, die Umweltfaktoren wahrnehmen und autonom Maßnahmen ergreifen, die die Chancen maximieren, vordefinierte Ziele erfolgreich zu erreichen – ohne menschliches Zutun.

Konkret ausgedrückt, betrachten Sie die KI als Oberbegriff für alles, was damit zu tun hat, dass Maschinen Aufgaben so erfüllen, wie sie normalerweise das menschliche Gehirn erfüllen würde.

Es gibt aber immer noch viel, was unter diese Idee fällt.

Marketingspezialisten können sich KI als computerbasierte Tools vorstellen, die Engagement Marketing-Plattformen und Marketing-Automatisierungssoftware mit menschenähnlichen Fähigkeiten verbessern, wie z.B.:

  • Schlussfolgerung
  • Planung
  • Lernen
  • Entscheidungsfindung
  • Optimierung

Wo man Maschinelles Lernen findet

Beim Maschinellen Lernen hingegen geht es mehr um die Mechanik – die mathematischen Modelle und Algorithmen –, wie ein Computersystem lernt. Es geht darum, wie riesige Mengen von Daten aus verschiedenen Quellen genutzt werden können, damit eine Maschine diese Daten anwenden kann, um aus Erfahrungen zu lernen.

Vor dem Maschinellen Lernen brachten Programmierer Computern bei, Daten zu nutzen, indem sie komplexe Kommandostrings erstellten. Heutzutage, würde die alte Lehrmethode das Schreiben von buchstäblich Millionen von Codezeilen erfordern, um die gleichen flexiblen und komplexen Aufgaben zu erfüllen, die durch Maschinelles Lernen freigesetzt werden. Alle neuen und unbekannten Probleme würden einen Programmierer erfordern, der neuen Code schreiben müsste, um sie zu lösen.

Damit ist Maschinelles Lernen genau das, was KI fließender macht und den Kurs basierend auf den verfügbaren Daten anpasst. Als Marketer werden Sie oft hören können, wie Begriffe verwendet werden, die im Grunde genommen Teilmengen des maschinellen Lernens sind:

  • Deep Learning
  • Deep neural networks
  • Innovation insights learning
  • Adversarial learning

Marketingspezialisten können die KI-Technologie nutzen, um aus den Daten zu lernen, die sie über ihre Kunden gesammelt haben. Diese in universellen Kundenprofilen gespeicherte Intelligenz kann dann angewendet werden, um auf der Grundlage von Verhaltensdaten das Lieblingsprodukt, die Lieblingsfarbe, den Lieblingsgeschmack und andere Vorlieben eines Verbrauchers zu ermitteln – und dann personalisierte Angebote für jeden Kunden zu erstellen. Es kann die customer journey „on the go“ aufbauen und die KI-Marketing-Automatisierung auf der Grundlage von Echtzeitverhalten anpassen, um ein Gefühl der Aktualität und des Situationsbewusstseins zu schaffen, das Kunden schätzen.

Es mag paradox klingen, aber die Einbeziehung von Maschinellem Lernen und Künstlicher Intelligenz lässt Marketing letztendlich als menschlicher und einfühlsamer erscheinen. Außerdem hilft es, die Relevanz für große Kundensegmente zu erhöhen, indem beobachtet werden kann, wie sich Geschmack und Präferenzen entwickeln, während sich die KI-Marketinginitiativen unabhängig voneinander anpassen lassen, um eine maximale Wirkung zu erzielen.

 

Alexander Handcock, Senior Director bei Selligent Marketing Cloud

Alexander Handcock, Senior Director bei Selligent Marketing Cloud

Autor: Alexander Handcock begann seine Karriere als Content-Marketing-Experte für das Auswärtige Amt und wechselte dann zu einer Kreativagentur, die Multichannel-Kampagnen für globale Marken wie Microsoft, Allianz und AMD entwickelte. Nach einem kurzen Aufenthalt als Leiter für Marketing und PR beim deutschen Telco-Tech-Start-Up tyntec, kam Alexander vor fünf Jahren zu Selligent Marketing Cloud. 

Interview mit Harald Summa: „Oft sind es ganz frische Köpfe, die Geschichte schreiben“

Harald A. Summa, eco Geschäftsführer.

Harald A. Summa, eco Geschäftsführer.

xethix: Herr Summa, auf dem eco://kongress haben Sie gesagt, bei der Digitalisierung werde im Moment vor allem über Technik geredet, wichtig sei es aber, über die Folgen nachzudenken. Wer ist Ihrer Meinung nach dafür verantwortlich, den Prozess der Folgenabschätzung zu initiieren und zu moderieren?

Harald Summa: Digitalisierung ist kein isoliertes sondern ein globales Phänomen. Eigentlich bräuchten wir für globale Aufgaben auch globale Verantwortlichkeiten. Wie wir alle wissen, sind wir davon im Jahr 2019 aber noch ein Stück entfernt. Pessimisten könnten darum behaupten: Niemand ist verantwortlich. Ich hingegen sehe das genau andersrum. Meiner Meinung nach steht bei diesem Thema jeder von uns in der Verantwortung.

Bundespräsident Walter Steinmeier hat über den gesellschaftlichen Wandel gesagt: „Demokratie ist nicht, Demokratie wird ständig.“ Und Demokratie bedeutet, dass jeder Einzelne viele Möglichkeiten hat, sich in politische Prozesse und Entscheidungen einzubringen. Mitsprechen können über soziale Medien heute alle. Das heißt zwar noch lange nicht, dass auch jeder gehört wird, aber der Pool möglicher Moderatoren speist sich nicht nur aus Personen, die ein Amt verliehen bekommen haben oder einer Institution angehören. Das ist das Aufregende an Auf- und Umbruchszeiten: Oft sind es ganz frische Köpfe, die Geschichte schreiben.

xethix: Welche Rolle fällt hier der Politik zu?

Harald Summa:Politiker sein, ist heutzutage schwierig. Einerseits gilt noch immer die alte Klage, dass Politiker immer schon auf den nächsten Wahltermin schielen und weitreichende Entscheidungen darum besonders vorsichtig angehen. Andererseits ist die technische Entwicklung immer schneller getaktet.

Gesetze wirken oft schon beim Inkrafttreten gestrig. Damit wirkt Politik oft gleichzeitig kurzsichtig und langsam. Wie Politik dennoch eine wichtige Rolle spielen kann, hat Ministerpräsident Volker Bouffier in Hessens „Rat für Digitalethik“, dem ich angehöre, treffend formuliert: Es gehe darum, „die Leitplanken zwischen Freiheit auf der einen, und Verantwortung auf der anderen Seite zu definieren.“ Wenn der Politik das gelingt, ist schon viel geschafft.

xethix: Halten Sie die Vereinbarung weltweit einheitlicher Standards für realistisch?

Harald Summa: In dem Maße, wie ich auch die Vereinbarung weltweit einheitlicher Steckdosen für realistisch halte, also nein. Aber das sollte uns nicht abschrecken, denn Menschen haben überall ähnliche Bedürfnisse. Sie wollen ihre Geräte mit Strom versorgen. Sie wollen, dass die Technik ihnen dient, nicht umgekehrt. Niemand erwartet, dass ein in Deutschland gekaufter Stecker in jede Steckdose dieser Welt passt.

Aber es gibt Adapter. Ähnlich kann ich mir die Entwicklung von Ethik und Technik vorstellen: Ich werde nie erwarten, dass mein heimischer, ethischer Standard immer und überall gilt. Etwas Anpassung wird immer nötig sein. Aber auf das Grundprinzip „Technik dient Mensch“ sollten wir uns schon einigen wollen. Auch wenn wir, um im Bild zu bleiben, wahrscheinlich nicht immer und überall eine Steckdose finden werden und auch mit Stromausfällen zu rechnen ist.

xethix: Wie lassen sich ethische Standards mit den Interessen einzelner Unternehmen vereinbaren und wodurch werden sie für die Unternehmen relevant?

Harald Summa: Unternehmen haben zwei Interessen. Sie wollen, erstens, Geld verdienen und das, zweitens, legal. Wenn wir ethische Standards mit den Interessen von Unternehmen vereinbaren wollen, haben wir also zwei Stellschrauben. Da Regulierung durch Gesetze eher ein reaktives und noch dazu langsames und oft nicht effektives Werkzeug ist, bleibt die Selbstregulierung durch den Markt. Ich bin sehr optimistisch, dass sich ethisches Handeln durchsetzt, denn das wichtigste ethische Prinzip – „Technik dient Mensch“ – liegt ja im ureigensten Interesse der Internetwirtschaft und seiner Kunden. Damit ist das für Unternehmen höchst relevant.

Denn Kunden, die mit den ethischen Standards nicht zufrieden sind, können ihr Geld, ihre Aufmerksamkeit und ihre Daten im Netz sehr einfach an anderer Stelle investieren. Oder sich, siehe Ihre erste Frage, als souveräner Kopf darum verdient machen, dass unsere digitale Zukunft eine gute Zukunft wird.

Ich freue mich über jeden einzelnen, der dabei mitmacht. Denn wie ich schon auf unserem Kongress sagte: Im ersten Schritt benötigen wir einen gesellschaftlichen Diskurs darüber, welche Folgen die Digitalisierung hat. Das ist die Voraussetzung, damit wir die Digitalisierung gestalten und nicht die Digitalisierung uns. Hierzu hat der echo Verband ganz aktuell als Debattenbeitrag der Internetwirtschaft ein Ethik Kompendium der Digitalisierung veröffentlicht. Es steht auf unserer Website kostenlos zum Download bereit.

https://www.eco.de/wp-content/uploads/dlm_uploads/2019/01/eco_Kompendium_Digitale_Ethik_DinA5_FINAL.pdf

Millionen von Account-Daten stehen im Darknet zum Verkauf: Weitreichende Folgen sind zu befürchten

DarknetWie gestern bekannt wurde, steht eine enorm große Datenbank mit E-Mailadressen sowie Passwörtern auf der Webseite Dream Market zum Verkauf. Hierbei handelt es sich um eine Schwarzmarkt-Seite, die sich nicht im öffentlich zugänglichen Internet befindet. Insgesamt wurden hier Daten von rund 620 Millionen Accounts kompromittiert. Ersten Informationen der britischen News-Seite The Register zufolge sind die Quellen der Anmeldeinformationen 16 verschiedene Websites und sie waren zwischen den Jahren 2016 und 2018 entwendet worden.

Der Vorfall reiht sich ein in eine Welle von verheerenden Datensicherheitsvorfällen, die alleine in diesem Jahr bereits wieder die Schlagzeilen bestimmt haben. Diese Tatsache verwundert nicht, schließlich ist Cyberkriminalität ein florierender Wirtschaftszweig. Der Brancheverband BITKOM schätzt die Schäden für die deutsche Wirtschaft alleine in den letzten 2 Jahren auf rund 43 Milliarden Euro. Die Zusammenhänge der einzelnen Vorfälle sind bisweilen für Außenstehende nicht klar. Datenpannen – wie aktuell der Diebstahl von Abermillionen personenbezogener Informationen – sind dabei nur der Anfang. Die gestohlenen Daten werden oftmals, wie im aktuellen Fall, an Kriminelle im Darknet verkauft.

Die Folgen sind verheerend: Diese können zum einen beispielsweise automatisiert Konten bei Onlinehändlern eröffnen, um mittels gefälschter Identitäten Ware im realen Leben zu erwerben. Doch noch fataler ist die Tatsache, dass die Käufer zum anderen ebenso automatisierte Konten bei Public Cloud Anbietern eröffnen und die Infrastruktur dieser Anbieter für Cyberangriffe missbrauchen können – Beispielsweise für Distributed-Denial-of-Service (DDoS)-Angriffe. So stieg etwa 2018 die Anzahl der DDoS-Angriffe, die alleine über Public Cloud-Dienste generiert wurden, um 35% Prozent gegenüber dem Vorjahr. Nur allzu oft stehen hinter diesen Attacken also gestohlene Datensätze und unbeteiligte Personen, die letztendlich selbst Opfer einer Straftat (nämlich Datendiebstahl) wurden und somit ins Fadenkreuz von Ermittlungen geraten.

Autor: Marc Wilczek, Geschäftsführer und COO von Link11. Link11 ist ein europäischer IT-Security-Provider mit Hauptsitz in Frankfurt am Main und Standorten in Europa, den USA und Asien.  

Roadmap zur Cybersicherheitsforschung

RoadmapWie den digitalen Bedrohungen auf europäischer Ebene künftig besser begegnet werden kann, haben unter der Koordination des BMBF-Verbundprojektes secUnity 30 namhafte europäische IT-Sicherheitsexperten in der secUnity-Roadmap niedergelegt, darunter Forscherinnen und Forscher des Karlsruher Instituts für Technologie (KIT). Am  Dienstag, 5. Februar, stellen die Wissenschaftlerinnen und Wissenschaftler von secUnity die Roadmap in Brüssel vor und übergeben sie offiziell an die Europäische Agentur für Netzwerk und Informationssicherheit ENISA.

Übermittlung von Nachrichten, Verkehr, Industrieproduktion, Forschung, Verwaltung

Übermittlung von Nachrichten, Verkehr, Industrieproduktion, Forschung, Verwaltung – nahezu kein Bereich kommt mehr ohne moderne Informations- und Kommunikationstechnologien aus. Gleichzeitig nimmt die Zahl der Cyberangriffe, die bekannt werden, stetig zu. Solche Attacken auf die digitale Infrastruktur durch Kriminelle oder  staatliche Organisationen bedrohen den Wohlstand und die Sicherheit unserer Gesellschaften, am Ende sogar Freiheit und Demokratie.

Bei einer Abendveranstaltung in der Vertretung des Landes Hessen bei der Europäischen Union in Brüssel werden secUnity-Wissenschaftler mit Vertretern des Europäischen Parlaments und der Europäischen Kommission über „Zivile Cybersicherheitsforschung für digitale Souveränität“ diskutieren und im Anschluss offiziell die secUnity-Roadmap veröffentlichen und an die Europäische Agentur für Netzwerk und Informationssicherheit  übergeben.

„Das Gefahrenpotenzial, das Cyberattacken für hochentwickelte Länder entfalten können, kann man nicht hoch genug einschätzen“, warnt Professor Jörn Müller-Quade, Sprecher des Kompetenzzentrums für IT-Sicherheit KASTEL am KIT. In secUnity arbeiten IT-Sicherheitsexperten aus ganz Deutschland zusammen. Beteiligt sind, neben den drei nationalen Kompetenzzentren KASTEL, CRISP und CISPA, Spezialisten der TU Darmstadt, der Ruhr-Universität Bochum und der Fraunhofer-Institute für Angewandte und Integrierte Sicherheit AISEC und für Sichere Informationstechnologie SIT.

Cybersicherheitsexperten bemängeln schon lange, dass Firmen, öffentliche Einrichtungen und Institutionen nicht ausreichend auf digitale Bedrohungen vorbereitet seien. Im Gegenteil: Durch die fortschreitende Vernetzung, die sich durch digitale Trends wie Industrie 4.0, Smart Home oder selbstfahrende Autos noch potenzieren wird, würden die Angriffsflächen für Cyberkriminelle immer größer.

In der jetzt vorgelegten Roadmap, die das vom Bundesministerium für Bildung und Forschung (BMBF) geförderte Verbundprojekt secUnity initiiert hat, haben die über 30 europäischen Autoren zukünftige Herausforderungen und Lösungswege identifiziert.  Zum Beispiel werden die Sicherheit eingebetteter Systeme, Maschinelles Lernen, die Problematik der fehlenden Awareness und das Phänomen von Fake News untersucht und Vorschläge für mehr Sicherheit erarbeitet.

Problem: Hardwarelösungen ohne IT-Sicherheitsüberprüfung

Sehr kritisch sehen die Experten die Verwendung von Hardwarelösungen, die oft ohne IT-Sicherheitsüberprüfung verwendet werden. Dies gefährde die digitale Souveränität Europas. „Eine Möglichkeit diese Situation zu verbessern, wären hier europäische Prüfinstitute, um die Technik unabhängig zu analysieren“, so Professor Michael Waidner, Direktor des Nationalen Forschungszentrums für angewandte Cybersicherheit CRISP und des Fraunhofer-Instituts SIT in Darmstadt. Zudem könnten Open-Source-Software- und Hardwarelösungen transparent in der EU entwickelt werden.

Da aber auch in Zukunft noch weiterhin eine Vielzahl von preiswerten jedoch unsicheren Hard- und Softwarekomponenten  verbaut und genutzt wird, reichen Ansätze zur Entwicklung vertrauenswürdiger europäischer Lösungen  nicht aus, um  vernetzte Systeme wirksam zu schützen. Am Beispiel Smart Home führt Professorin Claudia Eckert, Direktorin des Fraunhofer-Instituts für Angewandte und Integrierte Sicherheit AISEC in München aus: „Wir brauchen Lösungen, um die Risiken solcher Komponenten zu minimieren und die Systeme resilient zu betreiben.

Kameras, Türöffner, die Heizungssteuerung – jedes Heimautomatisierungsgerät ist ein mögliches Einfallstor für große Netz-Attacken. Sichere Gateways für die Verbindung unsicherer Komponenten können beispielsweise dafür sorgen, dass keine sensitive Information die Heimumgebung verlässt und keine Zugriffe von außen auf Steuerungskomponenten möglich sind.“ Resilienz trotz unkalkulierbarer Komponenten – dies muss natürlich insbesondere für kritische Infrastrukturen wie Gesundheits- und Energieversorgung, aber auch für Behörden und Unternehmen sichergestellt werden.

Auch die weltweit stark vorangetriebene Entwicklung von Quantencomputern berge Gefahren. Jörn Müller-Quade warnt: „Es ist zwar bislang noch nicht gelungen, einen hinreichend großen Quantencomputer zu bauen, um die Sicherheit aktueller kryptographischer Verfahren zu gefährden, aber dies könnte sich schnell ändern. Der derzeitige Fortschritt in der Quantentechnologie ist so groß, dass wir heute schon Vorsorge treffen müssen. Wir müssen unsere komplexen vernetzten Systeme auf zukunftssichere, noch weiter zu erforschende Verschlüsselungsverfahren umstellen.”

Methoden der Künstlichen Intelligenz viele neue Anwendungsfälle, sie bringen aber auch gravierende Risiken für die IT-Sicherheit mit sich: Maschinelle Lernprozesse können durch gezielte Manipulationen während der Lernphase und auch im Betrieb einfach angegriffen werden. „Bevor diese Technologien in kritischen Bereichen oder zur Verbesserung der Lebensqualität eingesetzt werden können, muss das Vertrauen in diese Verfahren und in deren Zuverlässigkeit auf ein wissenschaftliches Fundament gesetzt werden“, fordert Professor Thorsten Holz von der Ruhr-Universität Bochum.

Auch werfen neue Möglichkeiten der Informationsgesellschaft wie etwa intelligente Stromnetze, die den Alltag komfortabler machen und beim Energiesparen helfen, rechtliche und ganz besonders datenschutzrechtliche Fragen auf: „Angesichts der fundamentalen Risiken, die durch die Digitalisierung ganzer Industriezweige und auch kritischer Infrastrukturen wie die Strom- oder Energieversorgung für die Versorgungssicherheit entstehen, brauchen wir dringend einen europäisch harmonisierten Rechtsrahmen für IT-Sicherheit“, sagt Dr. Oliver Raabe vom Zentrum für Angewandte Rechtswissenschaft (ZAR) des KIT.

Die rechtlichen Maßstäbe, welche Risiken akzeptabel sind und welche Schutzmaßnahmen den Unternehmen zugemutet werden könnten, müssten erst noch entwickelt werden. Ebenso Maßgaben für die Sicherung von Qualität und Unverfälschbarkeit der großen Datenbestände (Big Data).

Zudem müssen die Bürgerinnen und Bürger selbst, die zunehmend komplexe Kommunikationssysteme nutzen, beim Schutz ihrer Privatsphäre und IT-Sicherheit unterstützt werden. „Ziel der Forschung ist daher zum Beispiel, Methoden für einen Privacy Advisor zu entwickeln.

Diese sollen beim Hochladen von Bildern oder Nachrichten ins Netz die Risiken einschätzen und unter Berücksichtigung bisheriger Posts aufzeigen, wie viel zusätzliche private Information durch die Veröffentlichung preisgegeben wird. Dies würde die Bürger dabei unterstützen, sich souverän in sozialen Netzwerken zu bewegen“, kündigt Professor Michael Backes, Gründungsdirektor des CISPA Helmholtz-Zentrums für Informationssicherheit, an.

Möglichkeiten für Innovationen, aber auch die Gefahr eine scheinbar sichere Marktposition

Angesichts dieser immer größer werdenden Datenbestände, ergeben sich für viele Unternehmen neue Möglichkeiten für Innovationen, aber auch die Gefahr eine scheinbar sichere Marktposition im digitalen Zeitalter zu verlieren. „Daten sind nicht per se das Öl des 21. Jahrhunderts. Sie bekommen erst dann einen Wert, wenn Geschäftsmodelle entwickelt werden, die sie wertvoll machen – und Wertvolles hat besonderen Schutz und Sicherheit verdient“, erklärt Peter Buxmann, CRISP-Wissenschaftler und Professor für Wirtschaftsinformatik sowie Leiter des Gründungszentrums HIGHEST an der TU Darmstadt. Bürgerinnen und Bürger müssen sich des Wertes und Schutzbedarfs ihrer Daten bewusst werden, während Transparenz bei der Nutzung und Weiterverarbeitung von Daten sowie faire Preismodelle von Anbietern umgesetzt werden müssen. „Politisch sollten wir uns deswegen eher weg vom Prinzip der Datensparsamkeit in Richtung Datensouveränität bewegen und faire Geschäftsmodelle fördern und fordern“, so Buxmann.

„Um all diesen Herausforderungen zu begegnen, braucht die zivile Cybersicherheit ein interdisziplinäres Netzwerk von Experten der zivilen Cybersicherheitsforschung auf EU-Ebene“, fasst secUnity-Sprecher Jörn Müller-Quade zusammen.

Weitere Informationen  im Internet unter: https://it-security-map.eu/de/startseite/

CEO & Co. als Zielscheibe von Cyberkriminellen

(Bildquelle: Thinkstock_iStock_Hiscox Studie_Digital Economy in Cyber-Gefahr)

(Bildquelle: Thinkstock_iStock_Hiscox Studie_Digital Economy in Cyber-Gefahr)

Die Wellen in Politik und Presse schlagen hoch, wenn persönliche Daten von Personen des öffentlichen Lebens böswillig exponiert werden. Das zeigt gerade eindrücklich der Datenleak hunderter deutscher Politiker, Journalisten und Prominenten. Doch auch in Unternehmen herrscht beim Umgang mit sensiblen Daten oft eine gefährliche Mischung aus Unwissenheit und sträflicher Ignoranz. Anders lässt sich der enorme Umfang an sensiblen Daten im Netz nicht erklären.

Cybercrime kann jeden treffen

Betroffen sind längst nicht nur Politiker und Prominente. Wer sich die Mühe macht, nach sicherheitsrelevanten Informationen im Netz zu suchen, wird fündig – egal ob es sich um einen Bundestagsabgeordneten oder den CEO eines Unternehmens handelt. Erst im letzten Jahr stieß der Threat Intelligence Anbieter Digital Shadows bei einer Untersuchung auf insgesamt 1,5 Mrd. geleakte Unternehmens- und Kundendokumente. Die 12.000 Terabyte an Daten wurden meist unwissentlich und ohne böse Absicht über falsch konfigurierte Server wie FTP, SMB, rsync und Amazon S3 öffentlich ins Netz gestellt.

Risiken und Folgen von Identitätsklau im Internet. (Bildquelle: Digital Shadows)

Risiken und Folgen von Identitätsklau im Internet. (Bildquelle: Digital Shadows)

Auch die nun über Twitter veröffentlichten Adressbücher mit Telefonnummern, E-Mailkonten mit Nachrichten, Messaging-Apps mit Fotos und Chatverläufen waren teilweise bereits seit 2017 im Netz zu finden. In der Regel werden solche Informationen von Cyberkriminellen genutzt, um Angriffe vorzubereiten wie etwa Business Email Compromise(BEC).

In vielen Fällen geht es jedoch schlichtweg darum, Unternehmen und Personen Schaden zuzufügen, ein politisches Statement zu setzen oder Aufmerksamkeit zu erregen (Doxing). VIP Exposure reicht dabei vom gefälschten LinkedIn-Account des Personalchefs, der Bewerber auf gefährliche Webportale lotst, bis zur Verbreitung der privaten Handynummer des CEOs durch einen unzufriedenen Mitarbeiter.

CEOs bevorzugtes Ziel

„In jedem Unternehmen gibt es Personen, die in der Öffentlichkeit stehen und sehr schnell zur Zielscheibe von Cyberkriminellen werden können“; erklärt Stefan Bange, Country Manager Deutschland bei Digital Shadows. „Unternehmen müssen diese VIPs kennen und genau beobachten, welche Informationen über Vorstandsmitglieder, Aufsichtsrat oder wichtige Führungskräfte im Umlauf sind. Erst dann lassen sich entsprechende Gegenmaßnahmen ergreifen – und zwar zeitnah, ehe es zur nächsten großen Enthüllungsstory kommt und der Ruf des Unternehmens in Mitleidenschaft gezogen wird.“

Sieben Mythen über Roboter

Roboter können dem Menschen ähneln. Wie weit kann und soll die Unterstützung durch Roboter in der modernen Arbeitswelt reichen?  (Bildquelle: "obs/Bundesanstalt für Arbeitsschutz und Arbeitsmedizin/Uwe Voelkner / Fotoagentur FOX")

Roboter können dem Menschen ähneln. Wie weit kann und soll die Unterstützung durch Roboter in der modernen Arbeitswelt reichen? (Bildquelle: „obs/Bundesanstalt für Arbeitsschutz und Arbeitsmedizin/Uwe Voelkner / Fotoagentur FOX“)

Der aktuelle Hype um Robotic Process Automation (RPA) wird von vielen Halbwahrheiten und Missverständnissen begleitet. UiPath stellt sieben verbreitete RPA-Mythen auf den Prüfstand.

Roboter sind Jobkiller.

Der hartnäckigste aller Roboter-Mythen. Die Wahrheit ist: RPA nimmt den Menschen nicht die Arbeit weg, sondern erhöht die Arbeitsqualität. Die Mitarbeiter werden von stupiden Routineaufgaben befreit und gewinnen dadurch mehr Freiraum für kreative und anspruchsvolle Aufgaben. Zudem kann RPA die Antwort auf den demografischen Wandel geben. Durch die Automatisierung von Abläufen sind Unternehmen auch dann noch in der Lage, ihre Aufgaben zu erfüllen, wenn viele Mitarbeiter in den Ruhestand gehen und mangels Nachwuchs nicht eins zu eins ersetzt werden können.

Roboter (RPA) dienen ausschließlich der Kostenreduktion.

Ohne Zweifel bietet RPA das Potenzial zu massiven Kosteneinsparungen und Produktivitätssteigerungen. Ihr Nutzen geht aber noch viel weiter: durch die Entlastung der Mitarbeiter von ungeliebten Standardaufgaben verbessert sich das Arbeitsklima; indem menschliche Fehlerquellen ausgeschlossen werden, steigt die Qualität von Prozessen; wenn Prozesse automatisch exakt so ablaufen, wie es durch Richtlinien oder Gesetzte vorgeschrieben ist, erleichtert das die Compliance; und nicht zuletzt erhöht sich durch schnellere und bessere Services die Kundenzufriedenheit.

Roboter eignen sich nur für einfache Prozesse.

Es stimmt, dass sich Prozesse, die eindeutigen festen Regeln folgen, mit RPA am leichtesten und für gewöhnlich auch durchgängig automatisieren lassen. Das heißt aber nicht, dass komplexere Prozesse, die in ihren Abläufen auch hin und wieder Ausnahmen aufweisen, kein Fall für RPA sind. Es verlangt zwar etwas mehr Aufwand, aber auch sie können erheblich von dieser Technologie profitieren und häufig zumindest teilautomatisiert werden.

Roboter sind nur ein schickeres Wort für Makros.

Makros sind lediglich kurze Codesequenzen zur Ausführung einzelner Aufgaben und müssen jedes Mal manuell angestoßen werden. Ein Beispiel dafür ist etwa das Einfügen eines bestimmten, immer wieder vorkommenden Wortes in Texte durch die Betätigung einer festgelegten Tastenkombination. RPA ist wesentlich mächtiger als das. Software-Roboter können autonom handeln, deutlich komplexere Aufgaben ausführen und innerhalb ein- und desselben Workflows auf die verschiedensten, voneinander losgelösten Anwendungen zugreifen. Enterprise-RPA-Plattformen ermöglichen dabei eine unternehmensweite Governance.

Software-Roboter arbeiten ausschließlich im Backend.

So genannte „Unattended Robots“, also Software-Roboter, die auf Servern installiert sind und dort rund um die Uhr im Hintergrund Prozesse ausführen, bilden nur die eine Hälfte der RPA-Mannschaft. Die andere besteht aus „Attended Robots“. Das sind Software-Roboter, die sich direkt auf den Endgeräten der Mitarbeiter befinden und ihnen dort Routineaufgaben abnehmen – sei es auf direkten Befehl hin oder ausgelöst durch bestimmte Ereignisse. Den größten Nutzen können Unternehmen aus RPA ziehen, wenn sie beide Arten einsetzen und ihre Arbeit gezielt koordinieren.

Software-Roboter machen keine Fehler.

Software-Roboter führen – ohne nachzudenken – einfach das aus, was man ihnen einprogrammiert. Werden fehlerhafte Workflows automatisiert, setzen die Roboter eben diese um – im Extremfall tausendfach. Deshalb ist es unerlässlich, die Prozesse vor der Automatisierung von Fehlern zu bereinigen und die Roboter in der Anfangsphase zu überwachen.

Roboter kommen ohne IT-Abteilung aus.

Fortschrittliche RPA-Lösungen ermöglichen es in der Tat, dass die Mitarbeiter in den Fachabteilungen ihre Prozesse per Drag-and-Drop selbst automatisieren. Die zentrale IT muss diese Automatisierungen aber zentral verwalten und warten. Nur dann können Unternehmen eine hohe Qualität der automatisierten Prozesse, ihren effizienten Einsatz und eine globale Governance gewährleisten.

„RPA ist mehr als ein Hype. Sie wird ein zunehmend zentraler Bestandteil des Geschäftsalltags“, sagt Walter Obermeier, Geschäftsführer UiPath in München. „Je früher Unternehmen ihr RPA-Potenzial nutzen, desto schneller verschaffen sie sich einen Wettbewerbsvorteil. Dazu müssen sie aber genau hinschauen und nicht alles glauben, was ihnen erzählt wird.“

 

UiPath ist ein Anbieter für Enterprise Robotic Process Automation (RPA) und ein Vorreiter des „Automation First“-Zeitalters. Das Unternehmen setzt sich dafür ein, dass jedem Mitarbeiter an seinem Arbeitsplatz ein Software-Roboter zur Seite steht, bietet kostenlose, offene Schulungen und Collaboration-Tools an und stellt Roboter zur Verfügung, die sich durch KI und maschinelles Lernen neue Fähigkeiten aneignen können.

 

Dr. Sepita Ansari Pir Seraei von Syzygy spricht im Interview über Ethik und KI

Dr. Sepita Ansari Pir Seraei ist Geschäftsführer der Digital-Marketing Agentur Syzygy.

Dr. Sepita Ansari Pir Seraei ist Geschäftsführer der Digital-Marketing Agentur Syzygy.

Der Umgang und die Beschäftigung mit Künstlicher Intelligenz gehört zum „daily business“ von Dr. Sepita Ansari Pir Seraei, denn als Geschäftsführer der Digital-Marketing Agentur Syzygy muss er sich mit allen Neuerungen auseinandersetzen, die das Online-Marketing verändern könnten. Im Interview erläutert er seine Position zu diesem oftmals sehr kontrovers gesehenen Thema.

Xethix: Was halten Sie von der KI-Strategie der Bundesregierung?

Dr. Sepita Ansari Pir Seraei: Die Idee der Bundesregierung Forschung, Entwicklung und Anwendung von KI auf ein führendes Niveau zu bringen, ist ein hehres und wichtiges Ziel, da die „Basis-Innovation“ unsere Wirtschaft und unser Leben verändern und verbessern wird. Sollten wir nicht an dieser Innovation partizipieren, werden wir im internationalen Wettbewerb im Bereich der Künstlichen Intelligenz weiterhin keine Rolle spielen und Anschluss an die Amerikanischen und Chinesischen Wirtschaftsunternehmen verlieren (GAFA, Baidu, uvm.) – das gilt übrigens für ganz Europa.

Die „Strategie“ der Bundesregierung liest sich zwar auf dem Papier recht detailliert, doch wird sie keinen größeren Effekt haben, solange die gesellschaftliche Akzeptanz für Daten und für künstliche Intelligenz gefördert wird, denn wie so häufig wurde die Gesellschaft bei dem Thema Künstlicher Intelligenz kommunikativ nicht mitgenommen. Unsere Deutschen Mitbürger haben nicht nur beim Thema KI Bedenken, sondern auch beim wichtigsten Baustein von KI, den Daten, wie viele Studien belegen.

Zudem ist die Infrastruktur für die Nutzung von Daten nicht gegeben und die politisch und medial viel zu heiß gekochte Datenschutzgrundverordnung wird es für kleinere und mittlere Unternehmen noch schwerer machen in dem Bereich der Künstlichen Intelligenz zu innovieren, da die Möglichkeiten der Datennutzung rechtlich erschwert werden und die größeren Netzwerke, wie z.B. Facebook/Instagram, Google/Youtube oder auch Amazon durch den Einwilligungszwang im Wettbewerb zu den deutschen Unternehmen einfacher an Daten herankommen.

Xethix:  Warum haben die Menschen so Angst vor KI?

Dr. Sepita Ansari Pir Seraei: Die Angst vor KI entsteht durch die Sorge, dass die eigenen Jobs zukünftig betroffen sind (und die Jobs unserer Kinder), aber natürlich auch durch den militärischen Einsatz von KI.

Die fehlende Kommunikation der Unternehmen, der Forscher, sowie der Politik verstärken (Bestätigen) dann diese Besorgnis.

 Xethix: Meist konzentriert sich diese Angst auf „emotionale KI“, diese ist aber nach Meinung vieler Experten noch lange nicht absehbar. Sehen Sie das auch so?

Dr. Sepita Ansari Pir Seraei: Emotionale KI / Emotional Recognition wird bereits z.B. in Chatbots eingesetzt, wo versucht wird, dass der Algorithmus „empathisch“ auf Nutzer reagiert – Letztendlich versucht der Algorithmus dabei nur auf das Verhalten der Menschen zu reagieren – Der Algorithmus hat quasi keine eigene Emotion, sondern „emotionale“ Muster. Zukünftig werden Algorithmen auf anderen Algorithmen treffen, um z.B. ein Friseur-Termin zu vereinbaren – Der Chatbot des Konsumenten macht mit dem Chatbot des Friseursalons einen Termin aus und die Termine werden dann beidseitig ins System gespeichert.

Angst vor emotionale KI oder generell KI ist immer unbegründet, da wir die Technologie für uns (positiv) nutzen sollten.

Xethix: Gehen wir mal von dem Fall aus, dass KI auch emotional agieren kann. Doch Algorithmen können immer nur mit den Informationen agieren, mit der sie befüttert wurden. Wer sollte entscheiden, mit welchen Informationen KI befüllt wird, sollte es hier auch ein „Vier-Augen-Prinzip“ geben?

Dr. Sepita Ansari Pir Seraei: Das ist genau die Gefahr, die auch die Bundesregierung sieht, dass wir in der KI abgeschlagen werden und die Algorithmen durch andere Hände gebaut/gesteuert werden. Erst wenn wir die Technologie (und die technologischen Märkte) beherrschen, können wir auch (ethisch) Einfluss nehmen.

Diese Gefahr ist akut – Wenn wir nicht mittel-/langfristig innerhalb der KI ein Wort mitsprechen, können wir auch nicht entscheiden ob es z.B. nicht immer externen (staatlichen) Zugang zum Algorithmus geben muss, sondern sind den Anweisungen/Regeln der führenden KI-Unternehmen unterworfen.

Xethix: Rein technisch wäre es möglich, Algorithmen per GPS l auf die territorial jeweils geltenden Ethiknormen umzukodieren, um unterschiedliche Wertvorstellungen national durchzusetzen. Zugleich stellte sich aber die Frage, ob und wie es möglich wäre, der Technik einen ethischen Standard zu geben, der global verbindlich sein könnte. Lässt sich dieses Dilemma lösen?

Dr. Sepita Ansari Pir Seraei: Meiner Meinung nach, wenn ich ihre Frage richtig verstanden habe, ist KI immer ein globales Thema. Wenn wir lokal bestimmen, welche Algorithmen per Grenzen laufen sollen, werden diese Gesetze umgangen. Als Beispiel können wir ad1 Amazon schwer vorgeben (und kontrollieren), wie sie innerhalb von Ländergrenzen die Algorithmen steuern  – zudem können wir ad2 auch den Konsumenten schwer vorschreiben, welche Portale er nutzen soll (damit er dann in bestimmte Länder-Algorithmen fällt) – diese Verbote funktionieren nur in einem Rahmen, wo rechtliche, bzw. wirtschaftliche Missstände vorliegen und auch da hat der Nutzer (aktuell) die technische Möglichkeit, diese Vorgaben zu umgehen.

 Xethix: Nach wie vor besteht ja auch die Hoffnung auf die wohlgesinnte KI: Wenn künstliche Intelligenz weit wirkungsvoller als heute Siri, Alexa, Jibo, Cortana und Candid als selbstbestimmter Kommunikationspartner des Menschen auftritt, kann sie diesem die Inputs für ethische Entscheidungen vorgeben?

Dr. Sepita Ansari Pir Seraei: Es gibt bei der künstlichen Intelligenz sehr viele positive Felder (Behandlung von Krankheiten, Autonomes Fahren, Kommunikation, Beratung, Analyse, …), die Konsumenten und Unternehmen die Arbeit erleichtern können und für (gesundheitliche) Wohlfahrt sorgen. Insbesondere die Assistenten werden für viel mehr Freizeit sorgen, da viele Arbeiten zukünftig verbal delegiert werden (Alexa, lass imow den Rasen mähen – OK Google, ich möchte nach Bremen mit meinem Auto, fahr das Auto vor und navigier mich über das nächste Starbucks usw. – Cortana, öffne Word, schreibe Artikel zu Ethik und KI, Überschrift Ethik und KI, erster Absatz: ….).

Problematisch ist immer noch, was mit „meinen“ Daten passieren – wer ist der Besitzer dieser Daten? Meiner Meinung nach, sollte der Besitzer der Daten immer der Konsument sein und wenn er diese an Dritte verkaufen möchte, ist das sein Recht. Aktuell sind die Daten in der Hand der „Datenkraken“, wie Google, Amazon und Facebook und das ist die Gefahr, dass diese Plattformen als zukünftiger Gate-Keeper nicht nur die Daten an Werbungstreibende weiterverkaufen, sondern zukünftig das Leben der Individuen bestimmen, bzw. kommunikativ manipulieren.

 Im Interview: Dr. Sepita Ansari Pir Seraei ist Geschäftsführer der Digital-Marketing Agentur Syzygy. Seit über 15 Jahren beschäftigt er sich mit dem Thema Online Marketing. Er ist Hochschuldozent an der Hochschule München, sowie an der Hochschule Würzburg-Schweinfurt, sowie stellv. Vorsitzender der Fokusgruppe Content-Marketing im Bundesverband Digitaler Wirtschaft (BVDW).  Syzygy ist einer der bekanntesten und besten Digital Marketing Agenturen im deutschen Markt. Von der ganzheitlichen Analyse, über Strategieentwicklung bis hin zur Implementierung stehen wir für maßgeschneiderte Lösungen, Nachhaltigkeit und eine transparente, partnerschaftliche Zusammenarbeit. Wir unterstützen unsere Kunden dabei in allen Phasen des Digitalen Marketings und haben uns insbesondere auf SEO, SEA, Content Marketing, Social Media und Analytics spezialisiert.

 

 

Statements zur KI-Strategie der Bundesregierung

Die Gesellschaft für Informatik e.V. (GI) bewertet die „Strategie Künstliche Intelligenz“ der Bundesregierung als einen sehr wichtigen und vielversprechenden ersten Schritt auf dem Weg, Deutschland und Europa zur KI-Weltspitze zu entwickeln.

Gleichwohl schlägt die GI Konkretisierungen im Zuge der Umsetzung deKommunikation_Social_Media_rikilo_Fotoliar Strategie vor, insbesondere bei der interdisziplinären Forschung, bei der Vermeidung militärischer KI-Forschung und bei der Stärkung des akademischen Mittelbaus.

Deutschland und Europa sollen in Zukunft führender Standort für Künstliche Intelligenz (KI) werden.

Dafür hat die Bundesregierung auf der Kabinettssitzung in Potsdam eine „Strategie Künstliche Intelligenz“ beschlossen. Sie will damit einen „Rahmen für eine ganzheitliche politische Gestaltung der weiteren Entwicklung und Anwendung Künstlicher Intelligenz in Deutschland“ setzen. Die Gesellschaft für Informatik e.V. (GI) und der GI-Fachbereich ‚Künstliche Intelligenz‘ (GI-FBKI) als größte nationale, gemeinnützige KI-Organisation in Europa begrüßen diese KI-Strategie, sehen allerdings Konkretisierungsbedarf für deren Umsetzung bei der interdisziplinären Forschung, bei der Vermeidung militärischer KI-Forschung und bei der Stärkung des akademischen Mittelbaus in der KI-Forschung.

Prof. Dr. Hannes Federrath, Präsident der GI: „Die Gesellschaft für Informatik und insbesondere der Fachbereich ‚Künstliche Intelligenz‘ begrüßen die Bestrebung der Bundesregierung sowohl Forschung und Entwicklung als auch Anwendung von KI in Deutschland und Europa auf ein weltweit führendes Niveau zu bringen. Wir unterstützen insbesondere die verantwortungsvolle und am Gemeinwohl orientierte Entwicklung und Nutzung von KI. Die Strategie hat alle wesentlichen Vorschläge aufgenommen, die die GI im Rahmen des Konsultationsprozesses eingebracht hat. Jetzt muss die Bundesregierung schnell in den Umsetzungsmodus kommen und die aufgezeigten Maßnahmen in konkretes Regierungshandeln überführen.“

PD Dr. Matthias Klusch, Sprecher des GI-FBKI: „Wir begrüßen ausdrücklich die Bestrebung der Bundesregierung, die KI in Forschung, Lehre und praktischer Anwendung unter der Bezeichnung „Artificial Intelligence (AI) made in Germany“ signifikant zu fördern. Insbesondere unterstützen wir die Absicht, dass die Förderung auf einer breiten wissenschaftlichen und technologischen Basis unter Berücksichtigung bereits in Deutschland bestehender, exzellenter Kompetenzen in der KI als Ganzes erfolgen soll und nicht auf das KI-Teilgebiet Maschinelles Lernen beschränkt wird. Neben dem Aufbau von weiteren Zentren für KI-Spitzenforschung in Deutschland, mit besonderer Position des Deutschen Forschungszentrums für Künstliche Intelligenz, ist auch eine breitere Förderung von Hochschulen notwendig, um die Exzellenz auch in der Breite und durch optimale Ausbildung von benötigten Fachkräften in der KI zu ermöglichen.

Herausforderungen für die KI-Forschung

Eine der zentralen, künftigen Herausforderungen für die KI-Forschung stellt die Entwicklung von Methoden für eine geeignete Integration von unterschiedlichen KI-Technologien dar, wie die formal-logische Inferenz von Wissen, automatisches Planen oder Lernen mit neuronalen Netzen, das sogenannte ‚Deep Learning‘. Das kann zur Entwicklung von neuen, innovativen KI-Systemen und Anwendungen führen, die in einer realen Umwelt mit und für den Menschen sicher und verständlich nachvollziehbar, situativ optimal lernen, planen und handeln. Dabei sollte sich die KI-Forschung interdisziplinär auch am notwendigen kritischen, gesellschaftlichen Diskurs über Risiken und Chancen ihrer Anwendung und wirtschaftlichen Verwertung in Bereichen wie Industrie und Arbeit 4.0, Gesundheitswesen und autonomes Fahren, aktiv beteiligen – schon allein um überzogen optimistischen oder dystopischen Vorstellungen in diesem Kontext entgegenzuwirken.“

Mehr verantwortungsvolle, interdisziplinäre und keine militärische KI-Forschung

Die GI begrüßt deshalb ausdrücklich auch die Pläne der Bundesregierung zu einer verantwortungsvollen und am Gemeinwohl orientierten Entwicklung und Nutzung von KI und fordert mehr interdisziplinäre Forschung.

Prof. Dr. Christina B. Class, Sprecherin des GI-Fachbereichs ‚Informatik und Gesellschaft‘: „Der zunehmende Einsatz von KI wird nicht nur die Arbeitswelt und Geschäftsbeziehungen verändern, sondern die gesamte Gesellschaft. Daher müssen nicht nur die Sozialpartner, sondern alle betroffenen Gruppen einbezogen werden. Ein sogenanntes ‚Ethics by, in and for design‘ ist nicht ausreichend, um allen Fragen zu begegnen. Forschungsförderung muss sich auch auf interdisziplinäre Fragen beziehen. Die Veränderungen, die auf uns zukommen, müssen in allen Bereichen bewusst gestaltet werden, um die Grundwerte unserer freiheitlich demokratischen Grundordnung zu bewahren. Wir hoffen, dass die Bundesregierung die Strategie um tragfähige Vorhaben in diesen Fragen ergänzt.“

Die Erforschung von KI-Anwendungsmöglichkeiten zum Schutz der äußeren Sicherheit und für militärische Zwecke im Rahmen der Ressortzuständigkeiten sieht die GI äußerst kritisch. So unterstützt der GI-Fachbereich ‚Künstliche Intelligenz‘ die Initiative gegen intelligente, autonome Waffensysteme mit Entscheidungsgewalt zur Tötung von Menschen, sieht darin auch einen weiteren wichtigen Beitrag zu einem möglichen Markenkern der „AI made in Germany“ und fordert eine solche Berücksichtigung in der Konkretisierung der KI-Strategie der Bundesregierung.

Notwendiger Ausbau informatischer Bildung zu KI und in der Breite

Die Bundesregierung will, dass allen Schülerinnen und Schülern, die ab dem Schuljahr 2018/2019 eingeschult werden, bis zum Ende ihrer Schullaufbahn „ein umfassender Kanon digitaler Kompetenzen“ vermittelt wird. Die GI begrüßt diesen Anspruch ausdrücklich. Damit die allgemeinbildende Schule dem jedoch gerecht werden kann, braucht es allerdings mehr als den „Digital-Pakt“, der in erster Linie auf die nötige digitale Infrastruktur abzielt. Der Ausbau der informatischen Bildung, auch aber nicht nur zu Künstlicher Intelligenz, in den allgemeinbildenden und den berufsbildenden Schulen ist einer der wichtigsten Schlüssel für die Zukunftsfähigkeit unseres Landes, da diese Aufgabe nicht von anderen Fächern nebenbei erfüllt werden kann.

Prof. Dr. Torsten Brinda, Sprecher des GI-Fachbereichs ‚Informatik und Ausbildung/ Didaktik der Informatik‘: „Es ist unerlässlich, dass dabei ein wesentliches Augenmerk auf die Informatik als Leitwissenschaft der Digitalisierung gerichtet wird, und dass flächendeckend und verpflichtend alle Schülerinnen und Schüler entsprechende Kompetenzen erwerben. Das ist in der erforderlichen inhaltlichen Tiefe in der Breite fächerintegriert nicht möglich – es erfordert einerseits ein Fach „Informatik“ für alle und andererseits entsprechende Investitionen in die dafür erforderliche Ausbildung von Informatik-Lehrkräften. Der Bund muss den Ländern dafür gezielt Anreize setzen. Nur so können kommende Generationen zu mündigen und verantwortungsvollen Gestaltern des digitalen und gesellschaftlichen Wandels ausgebildet werden.“

Wissenschaftlichen Mittelbau in der KI stärken und Brain-Drain vermeiden

Die KI-Strategie sieht vor, ein Programm zur wissenschaftlichen Nachwuchsförderung und Lehre im Bereich KI aufzulegen; insbesondere sollen 100 KI-Professuren neu geschaffen werden. Das ist sehr zu begrüßen! Dabei ist sehr zu hoffen, dass diese Stellen nicht nur international konkurrenzfähig bestens und permanent ausgestattet werden, sondern auch inhaltlich die KI als Ganzes exzellent abdecken können und sich nicht, wie auf dem aktuellen Stellenmarkt bereits stark tendenziell sichtbar, nur rein auf maschinelles Lernen oder verwandte Felder wie Data Science beschränken.

Ansonsten besteht das sehr hohe Risiko, dass im internationalen Vergleich unser wissenschaftlicher Mittelbau in der deutschen KI-Forschung bereits auf kurze und mittlere Sicht extrem geschwächt wird – und damit auch ein ansteigendes Abwandern von Fachkräften und Experten in der KI ins Ausland („Brain-Drain“) einhergeht. Spitzenforschung braucht einen starken akademischen Mittelbau von Nachwuchswissenschaftlern: Sie sind das Rückgrat deutscher Spitzenforschung und wesentlicher Erfolgsfaktor für den Wissenschafts- und insbesondere den Informatik-Standort Deutschland.

Dr. Kerstin Lenk, Sprecherin des GI-Beirats für den wissenschaftlichen Nachwuchs: „Gerade im akademischen Mittelbau sind die Arbeitsverhältnisse oft prekär. Das ist ein generelles Problem. Um die Abwanderung des hoch qualifizierten wissenschaftlichen Nachwuchses in die Wirtschaft oder das Ausland kurzfristig zu verlangsamen und langfristig zu stoppen, sind konkrete Maßnahmen erforderlich. Befristete Arbeitsverträge, schlechte Arbeitsverhältnisse und Vergütung machen Wissenschaft für viele Nachwuchstalente zur unattraktiven Risikokarriere.“

Die Gesellschaft für Informatik e.V. (GI) ist mit rund 20.000 persönlichen und 250 korporativen Mitgliedern die größte und wichtigste Fachgesellschaft für Informatik im deutschsprachigen Raum und vertritt seit 1969 die Interessen der Informatikerinnen und Informatiker in Wissenschaft, Wirtschaft, öffentlicher Verwaltung, Gesellschaft und Politik. Mit 14 Fachbereichen, über 30 aktiven Regionalgruppen und unzähligen Fachgruppen ist die GI Plattform und Sprachrohr für alle Disziplinen in der Informatik. 

Der GI-Fachbereich ‚Künstliche Intelligenz‘ (GI-FBKI) ist Träger der von der GI geförderten wissenschaftlichen Arbeit auf allen Teilgebieten der Künstlichen Intelligenz. Der Fachbereich veranstaltet eine jährliche Fachtagung KI, auf der insbesondere Arbeiten aus seinen aktuell 11 Fachgruppen und Arbeitskreisen zum Fachgebiet Künstliche Intelligenz vorgestellt werden. Ferner gibt der Fachbereich die Zeitschrift „Künstliche Intelligenz“ im Springer Verlag heraus, die neben fachlichen Aufsätzen zur KI auch über Aktivitäten im Fachbereich berichtet. Der GI-FBKI ist mit über 1.000 Mitgliedern eine der größten und wichtigsten nationalen KI-Verbände in Europa und Teil der europäischen KI-Dachorganisation EurAI (European Association for Artificial Intelligence). Weitere Informationen finden Sie unter www.kuenstliche-intelligenz.de

 „Urbane Logistik: notwendig, möglich, gestaltbar – es braucht Willen zur Gestaltung“

Prof. Dr.-Ing. Thomas Wimmer ist Vorsitzender der Geschäftsführung bei der Bundesvereinigung Logistik e.V. (BVL)

Prof. Dr.-Ing. Thomas Wimmer ist Vorsitzender der Geschäftsführung bei der Bundesvereinigung Logistik e.V. (BVL)

In Deutschland erleben wir einen neuerlichen Trend der Verstädterung. Für Städte bietet sich die Chance, die Lebensqualität ihrer Bürgerinnen und Bürger durch mutige Schritte im Bereich der Urbanen Logistik erheblich zu verbessern. Sie ist ein zunehmend komplexes Handlungsfeld mit vielfältigen Akteuren und Stakeholdern. Eine eindeutige Rollenverteilung ist noch nicht erfolgt. Das Spiel um die Organisation und Ausgestaltung der Urbanen Logistik ist offen. Wir werden in näherer Zukunft interessante Modelle und Veränderungen erleben.

Städtische Infrastruktur ist historisch gesehen verschiedenen Entwicklungsschüben unterworfen gewesen. Eine erste Phase enormer Verstädterung begann in Europa zur Mitte des 19. Jahrhunderts. Einer der wichtigsten Antriebe dafür war die zunehmende Industrialisierung, die zu explosionsartigem Zuzug von arbeitsuchender Landbevölkerung führte.

Die bestehende Infrastruktur – Wohnungsbau, Verkehrswege, Versorgungsleitungen und vieles mehr – war hierfür nicht ausgelegt. Die aus Wachstum und Verdichtung der Städte als soziale Frage definierte Not großer Teile der städtischen Bevölkerung führte zu einer Reihe technischer und infrastruktureller Innovationen, insbesondere im Bereich Wasserversorgung und Kanalisation.

Der Bau großer Mietskasernen erforderte zudem deren Versorgung mit Energie, zunächst mit Kohle, später mit Gas und Strom (aus Verbrennung von Kohle). Die Anlieferung erforderte Eisenbahn- und/oder Wasserwege. Hieraus resultierte häufig eine Verschiebung der Stadtgrenzen nach außen. Die Städte wuchsen weiter, benötigten aber Nahverkehrsstrukturen, um Arbeiterinnen und Arbeiter über zum Teil lange Distanzen zu den immer öfter außerhalb des Stadtzentrums gelegenen Fabriken transportieren zu können.

Im Jahr 2005 lebten weltweit ca. 49 Prozent der Bevölkerung in Städten. Bis zum Jahr 2030 könnte dieser Anteil auf 60 Prozent steigen. In Deutschland erleben wir nach der Periode einer Suburbanisierung in der zweiten Hälfte des 20. Jahrhunderts seit einigen Jahren einen neuerlichen Trend zur Land-Stadt-Wanderung.

Laut jüngeren Prognosen wird in Deutschland der in Städten lebende Bevölkerungsanteil von derzeit gut 77 Prozent auf 78,6 Prozent im Jahr 2030 ansteigen und bis 2050 auf gut 84 Prozent wachsen. Auch Familien mit Kindern zieht es häufiger als früher in die Stadt beziehungsweise sie wandern nicht mehr ins Umland ab.

Der neuerliche Trend zum Wohnen in der Stadt lässt diese bereits jetzt spürbar wachsen. Verkehrsdichte und Wohnkosten sind Teil der aktuellen politischen Debatte.

Waren im 19. und 20. Jahrhundert infrastrukturelle Innovationen häufig in Neubaugebieten zu realisieren oder ließen sich vergleichsweise einfach in bestehende Strukturen integrieren, stellt die heutige Verdichtung bestehender städtischer Strukturen Verkehrs- und Stadtplaner sowie andere Akteure vor anders gelagerte Herausforderungen. Darüber hinaus hat sich die Gesetzgebung zu Planung und Realisierung von Infrastrukturprojekten gewandelt. Es ist nicht mehr mit einem am Reißbrett entworfenen „Masterplan fits it all“ getan.

Die Versorgung bereits bestehender Stadtteile als auch neuer Quartiere und ihrer Bewohner mit Gütern kann nur durch eine leistungsfähige Logistik erfolgen. Dennoch fehlt in der Wissenschaft wie auch in Politik und Verwaltung häufig Einsicht oder die Bereitschaft, Güterverkehre und Logistik als Eigenschaft und notwendige Voraussetzung städtischen Daseins zu verstehen und integriert zu berücksichtigen (Schwedes, Rammler; 2012; Mobile Cities).

Es sind gleichwohl Städte und Gemeinden selbst, denen aufgrund ihres Selbstverwaltungsrechts „unterhalb“ der staatlichen Ebene eine wichtige Akteursqualität in der Ausgestaltung der Urbanen Logistik zufällt. Laut Grundgesetz ist ihnen die Regelung der „örtlichen Angelegenheiten“ überlassen.

Zugleich entscheiden aber Bundes- und Landesverwaltungen über den Rahmen der kommunalen Aufgaben und Kompetenzen sowie ihre finanzielle Mittelausstattung. Bei zentralen Planungs- und Investitionsentscheidungen sprechen die Bundesländer ebenfalls ein gewichtiges Wort mit. Bundesgesetze sind dabei in erheblichem Maße zu berücksichtigen (vgl. Jungfer 2005 und Bogumil/Holtkamp 2006).

Stadtbewohner denken bei Verkehrsströmen in ihrem Umfeld zuweilen an den (eigenen) Individual- oder öffentlichen Nahverkehr.

Diese sind tendenziell positiv konnotiert. Lieferwagen, Lkws in Werks- und Versorgungsverkehren werden hingegen als eher störend empfunden. Der (Güterverkehrs-)Logistik wird demnach in der Stadt eine Rolle zugeschrieben, wie sie vor einigen Jahrzehnten in den Betrieben und der Betriebswirtschaft wahrgenommen wurde: Sie wird als selbstverständlich gegeben und als Teil eines größeren Systems akzeptiert und als etwas lästig empfunden – sofern überhaupt wahrgenommen.

Die Wahrnehmung änderte sich radikal in den vergangenen rund 40 Jahren. Gegenwärtig wird Logistik meistens als eigenständiger und zentraler Bestandteil der Wertschöpfungskette betrachtet. Auf dem Gebiet der städtischen Logistik stellen Firmen und Forscher bereits heute Lösungsansätze für eine Urbane Mobilität der Zukunft bereit.

Beispiel: Das Fraunhofer IML zeigt mit seinem Projekt GeNaLog zur geräuscharmen Nachtlogistik, dass die Umsetzung von Nachtbelieferungen gelingen und so zur Entlastung des Tagverkehrs beitragen kann. Hürden für eine konsequente Nutzung stellen unter anderem fehlende Einfahrerlaubnisse, Regelungen zur Geräuschemission und meist nicht optimierte Ladungsträger dar.

Darüber hinaus erproben eine Vielzahl von Start-ups wie auch bekannte Dienstleister aus der Paketzustellung neue Modelle der Warenbeförderung. Fahrzeuge der Sprinter-Klasse etwa werden durch Lastenfahrräder in verschiedenen Formen ersetzt. Diese Marktoffenheit ermöglicht es Start-ups, mit unterschiedlichen Konzepten und Geschäftsmodellen in den Wettbewerb zur Gestaltung zukünftiger Stadtlogistik einzutreten (Rytle, Kitcar u.a.).

Bekannt sind auch völlig neu konzipierte Lieferwagen mit Elektroantrieb, die gegenüber einem Lastenrad mehr Volumen transportieren und vor Ort weniger Lärm und Abgas produzieren als herkömmlich motorisierte Wagen.

Alle hier gewählten Beispiele zeigen, dass auf technischer Seite Fortschritte gemacht wurden. Viele Initiativen und technische Innovationen stoßen gleichwohl an Grenzen: Wenn sie zwar mit den Städten in deren gegenwärtigem Ist-Zustand arbeiten können und auf freien Flächen vor allem Wohn- und Büroquartiere entstehen, gleichzeitig aber keine „Räume städtischer Logistik“ vorgehalten werden. Logistiker liefern also bereits jetzt Innovationsangebote für eine Urbane Logistik, die aber in den Städten häufig noch nicht ausreichend mitgedacht wird.

Logistische Lösungen benötigen eine zeitgemäße Infrastruktur.

Dazu gehören Rad(schnell)wege, flexible Einfuhr- und Belieferungsbestimmungen, Entzerrung der Verkehre und vor allem ein abgestimmtes Mobilitätskonzept, das unbedingt auch städtische Logistik als eigene Betrachtungsgröße integriert. Jede Bürgerin, jeder Bürger einer Stadt ist auf die ein oder andere Weise zugleich Mobilitätsteilnehmer. Die Logistikorganisation in der Stadt wird sich stets an der existierenden Infrastruktur orientieren.

Gibt es reichlich auf Individualverkehre ausgelegte Verkehrswege, ist deren Mitbenutzung durch Lieferverkehre mit 3,5t-Fahrzeugen der Sprinter-Klasse die logische Folge. Als Alternative zum Status quo gilt eine Ausrichtung auf einen größeren Verkehrsmittelmix. Ein größerer Anteil von Kollektivverkehren würde eine neue Gestaltung von Urbanen Räumen ermöglichen und böte Logistikern einen Rahmen, um eine Stadt im Sinne der dort lebenden Bürger aufzuwerten. Dazu gehören auch Flächen für die städtische Logistik zur Gestaltung von Prozessen des Waren-Handling.

Bisher ist die Logistik als Neuansiedlung bis auf wenige, sehr kostspielige Ausnahmen (Abrechnung für Logistikimmobilien derzeit als Mietpreis je qm in zentralen Lagen – Wasserwerke zahlen keinen Mietpreis) am Stadtrand oder gar im Umland beschränkt.

Ein ausgeprägtes Bewusstsein für die Funktion von Logistik in der Stadt fehlt bei allen Akteuren (Bewohnern, Handel, Politik, Verwaltung etc.). In Initiativen für die Stärkung des städtischen Einzelhandels wird eine täglich mehrfach erfolgende Belieferung als Stand der Dinge erwartet, die Anlieferung aus einem entfernten Logistikzentrum bleibt jedoch verpönt. Die bigott anmutende Diskussion kreist somit um extrem hohes Straßenverkehrsaufkommen aufgrund umfänglicher Touren aus dem Umland und der gleichzeitigen Verneinung bzw. Nicht-Diskussion von innerstädtischen Lager- und Umschlagsflächen.

Diese wären eine Grundlage für die Umsetzung verkehrsberuhigter Anlieferungen. Hier entstehende Arbeitsplätze lägen zudem dichter an Wohngebieten. Reduziertes Pendeln würde außerdem verkehrsentlastend wirken und vor allem Emissionen einsparen. Die Logistik kann ihre Lösungen nur innerhalb der gesetzten Rahmenbedingungen anbieten und ist somit auf die Zusammenarbeit mit anderen Wirtschaftsbereichen, Verwaltung und Politik angewiesen.

Offensichtlich ist also das Thema der Gestaltung Urbaner Logistik kein rein wirtschaftliches Thema – das sollte und darf es nicht sein! Die verschiedenen Akteure bzw. Stakeholder einer Stadt sind gleichwohl derzeit noch nicht ausreichend, geschweige denn vollumfänglich erfasst. Zu den Stakeholdern zählen etwa der Einzelhandel, Gastronomen (insb. mit Außenbereichen), Logistikdienstleister, Wirtschaftsförderer, Stadtplaner, Quartiersmanager, Bürger, Immobilienentwickler und andere.

Eindeutige Rollenbeschreibungen fehlen sehr häufig, viele Akteure handeln in mehreren Rollen. Trennt die klassische Logistik zwischen Verlader, Transporteur und Empfänger ist die Urbane Logistik deutlich vielschichtiger. Mit Ansätzen wie dem Engagement von Kunden als Transporteuren werden Grenzen zwischen Stakeholdern zusätzlich verwischt.

Die Wünsche von End- und Geschäftskunden werden zudem anspruchsvoller: Die Ware soll schnell verfügbar, ökologisch sauber transportiert sein und unter als fair wahrgenommenen Arbeitsbedingungen geliefert werden. Gleichzeitig verhalten sich Kunden höchst preissensibel bei Lieferkosten. Sie erhöhen so den Kostendruck auf Logistikdienstleister und beklagen den „Wilden Westen“ des innerstädtischen Verkehrs – Staus, Emissionen, zugeparkte Wege und Einfahrten, fehlende Belieferungskonzepte etc.

Das Thema Wohnen überwiegt zudem in den Agenden der meisten größeren und mittelgroßen Städte und ihrer Bürger. Politischen Willen bzw. die Initiierung eines Willensbildungsprozesses kann die Logistik erfolgreich alleine kaum erwirken, ohne in den Verdacht zu geraten, Partikularinteressen zu verfolgen. Aufgrund ihres bisher hohen Flächenverbrauchs wird sie klassisch mit Fahrzeugen und Hallen zudem schnell als lästig, teuer oder als für das Stadtbild unattraktiv abqualifiziert. Es geht gleichwohl um mehr Imagebildung!

Deswegen benötigt es politische Initiative: Hier sei beispielhaft auf die knapp 30.000 Einwohner zählende Stadt Bad Hersfeld verwiesen, die eine neue Form der Innenstadtbelieferung definierte. Verwaltungsseitig gibt sie den Logistikern den Raum, innerhalb exakter Vorgaben die neuen Lieferkonzepte wirtschaftlich tragbar auszugestalten. Ein Hub außerhalb der Innenstadt dient als Anlieferungs- und Umschlagspunkt, von ihm erfolgt zentral und gebündelt die Auslieferung an die Privat- und Geschäftskunden in der Fußgängerzone.

Die gebündelten Transporte sollen den Verkehr in der Fußgängerzone reduzieren und somit Konflikte zwischen Transporteuren, Anliegern, Ordnungsamt und Fußgängern drastisch reduzieren helfen. In die gleiche Richtung weist die Initiierung von Mini-Depots, an die sich Kunden der Geschäfte ihre Einkäufe liefern lassen können, um sie dort gebündelt abzuholen oder sie von dort nach Hause liefern zu lassen. Das Beispiel zeigt auf, dass es also nicht um schlichte Lieferzeitbeschränkungen geht, sondern um die Entwicklung und Möglichmachung von alternativen Konzepten.

Fazit: Aufgrund geänderter Ansprüche und Konsumgewohnheiten, Umweltschutzgedanken und weiterer Urbanisierung der Gesellschaft herrscht erneut Handlungsbedarf für einen Entwicklungsschub in der Organisation und Ausgestaltung städtischer Mobilität und Logistik. Die Herausforderungen waren auch im 19. Jahrhundert nicht klein. Eine konsequente Nutzung vorhandener technischer

Autor: Prof. Dr.-Ing. Thomas Wimmer, Vorsitzender der Geschäftsführung; Christoph Meyer, Leiter Forschung und Veranstaltungen; Sebastian Huster, Projektmanager, Bundesvereinigung Logistik e.V. (BVL). Prof. Dr. Thomas Wimmer ist Referent in der EXCHAiNGE-Session ”Start-ups, Corporates or Customers: Who is actually doing the Innovation?” am 20.11.2018 (Hypermotion-Lab | Ausstellungsbereich Halle 5.1)