Category Archives: Ethik

Künstliche Intelligenz: „Empathie ist am Ende genau das, was wir nicht abbilden können“

2015_04_haustuerSelbstfahrende Autos und operierende Roboter – das veränderte Verhältnis von Mensch und Maschine ist schon heute im Lebensalltag sichtbar und wird ihn künftig noch mehr prägen. Angst vor Kontrollverlust jedoch ist im Umgang mit Künstlicher Intelligenz kein guter Ratgeber. Vielmehr müssen jetzt ethische Fragen geklärt und in Bildung investiert werden, so das Fazit der Wissenschaftler und Medienvertreter, die auf den Augsburger Mediengesprächen kürzlich über den Einfluss von Künstlicher Intelligenz (KI) auf unser Leben diskutierten.

Gemeinsam mit den Augsburger Medienunternehmen und der Stadt Augsburg hatte die Bayerische Landeszentrale für neue Medien (BLM) in die Teehalle des Hotels Drei Mohren eingeladen, um das Phänomen der Künstlichen Intelligenz „ein bisschen zu entzaubern“, wie BLM-Präsident Siegfried Schneider betonte. Dieses Entzaubern gelang Zukunftsforscher Kai Arne Gondlach in seiner Keynote mit konkreten Beispielen und Denkanstößen. Maschinen können lernen, verstehen Sprache und Gefühle.

Das ist die Basis für KI-Anwendungen, die künftig unser Leben verändern werden – zum Beispiel, indem selbst fahrende Autos zu Büros oder Hotels werden, Bots bis zu 80 Prozent der Konsumentscheidungen treffen oder einige Menschen durch KI-Einsatz in der Medizin sogar „unsterblich“ werden könnten. Doch Europa sei im Gegensatz zu China und den USA in puncto KI-Entwicklung bisher im Hintertreffen, warnte Gondlach, räumte aber auch ein, dass die Diskussion über ethische Fragen notwendig sei. Denn: „Empathie ist am Ende genau das, was wir nicht abbilden können.“

Vor diesem Hintergrund plädierte die Leiterin des Instituts für Digitale Ethik an der Stuttgarter Hochschule der Medien, Prof. Dr. Petra Grimm, auch dafür, in Europa als Gegengewicht zu den USA und China eine „wertebasierte KI“ zum Einsatz zu bringen. Technologie sei nie wertneutral und künstliche nicht mit menschlicher Intelligenz zu vergleichen: „KI ist nicht in der Lage zur Selbstreflexion, hat kein Bewusstsein, kein Gewissen und keine Moral.“

Der Verlust von Autonomie, Manipulationen und damit auch die Gefährdung von Demokratie können die Folgen sein, wenn KI wie etwa in China zur Kontrolle der Bürgerinnen und Bürger missbraucht wird. Deshalb sei es wichtig, jede Anwendung individuell unter ethischen Gesichtspunkten zu prüfen, betonte Prof. Dr. Stefan Bauberger, Professor für Naturphilosophie. So sollte Deutschland dafür sorgen, dass Künstliche Intelligenz in der Militärtechnik geächtet wird. Andererseits bietet in der Pflege die Automatisierung die Chance, dem Pflegepersonal mehr Zeit für ihre eigentlichen Aufgaben zu verschaffen. Aber: „Qualifizierte Arbeit wird immer wertvoller, quantitative wertloser“ – das bringe auch eine „soziale Frage“ mit sich.

Schafft Künstliche Intelligenz also mehr oder weniger Arbeit, lautete die Frage von Moderator Thomas Ramge an das Podium. Der Amtschef des Bayerischen Digitalministeriums, Dr. Hans Michael Strepp, warnte davor, KI in puncto Arbeitsmarkt als Schreckgespenst zu sehen. Automatisierung müsse nicht unbedingt Arbeitsplätze kosten, verändere den Arbeitsmarkt aber. Um die Chancen zu nutzen, investiere Bayern viel in die Entwicklung von Künstlicher Intelligenz: „KI ist die neue Stufe der Digitalisierung, an der sich die digitale Zukunft eines Landes entscheidet.“

Logistik, Medizin, Pflege und Mobilität sind Arbeitsfelder, in denen KI-Anwendungen bereits erfolgreich laufen. Und auch im Journalismus werden in der Sport- und Börsenberichterstattung schon Textroboter eingesetzt, so das Beispiel von Richard Gutjahr. „Davor müssen wir keine Angst haben“, sagte der Journalist, „jedoch die Frage stellen, ob künstlich erstellte Texte markiert werden sollen“.

Was den Wandel der Arbeitswelt betreffe, markiert KI für Gutjahr die Gabelung zwischen analog und digital. Ähnlich wie beim Übergang von der Agrar- zur Industriegesellschaft gelte es jetzt, den Übergang zur Digitalgesellschaft zu managen: „Die Menschen müssen qualifiziert werden, damit sie in dieser Zukunft einen Platz haben. Was das Thema Bildung angeht, verlieren wir im Moment ganz viel Zeit.“

KI, mein Freund und Helfer – Studie zu den Implikationen der Interaktion mit Künstlicher Intelligenz

(Bildquelle: © Fraunhofer FIT)

(Bildquelle: © Fraunhofer FIT)

Künstliche Intelligenz (KI) durchdringt unser Privat- und Berufsleben immer stärker. Wir als Menschen interagieren daher in unserem Alltag immer öfter mit KI. Im Rahmen einer gemeinsamen Studie der Projektgruppe Wirtschaftsinformatik des Fraunhofer FIT sowie der Beratungsgesellschaft EY (Ernst & Young) wurde daher analysiert, wie Unternehmen Interaktionen mit KI erfolgreich und umsichtig gestalten können.

Die Studie ist ab sofort verfügbar und basiert neben einer fundierten wissenschaftlichen Recherche insbesondere auch auf einer umfassenden Interviewstudie mit 25 KI-Experten und -Lösungsanbietern.

Die Studie kommt zu dem Ergebnis, dass Interaktionen und unterschiedliche Formen der Zusammenarbeit zwischen Menschen und KI einer sinnvollen Gestaltung bedürfen. »Es ist wichtig zu verstehen, wie wir Menschen mit Technologien interagieren werden, die uns auch in komplexen Denkaufgaben unterstützen und dabei individuell auf unsere Gedanken und Gefühle eingehen. Und umgekehrt müssen wir verstehen lernen, wie diese Technologien unsere Handlungen wahrnehmen, interpretieren und darauf reagieren«, erklärt Prof. Dr. Nils Urbach, Professor für Wirtschaftsinformatik an der Universität Bayreuth und stellvertretender wissenschaftlicher Leiter der Projektgruppe Wirtschaftsinformatik des Fraunhofer-Instituts für Angewandte Informationstechnik FIT.

Bestehende KI-Anwendungsfälle lassen sich als Ergebnis der Studie in drei Gruppen von Interaktionstypen einordnen: Die erste Gruppe beschreibt KI als Automaten, wodurch Handlungen des Menschen als eine Art Schutzengel überwacht, abgesichert und bei Bedarf unterstützt werden.

Die zweite Gruppe, KI als vielfältiger Helfer, umfasst die Interaktionen in denen KI im Hintergrund Arbeiten des Menschen unterstützt, den Menschen bedarfsgetrieben mit Informationen versorgt oder im engen Austausch gemeinsame Ergebnisse erarbeitet werden.

Schließlich werden in der dritten Gruppe solche Anwendungsfälle gebündelt, in denen KI durch eine hohe Personalisierung und soziale Elemente in der Interaktion als eine Art bester Freund wahrgenommen wird.

Die verschiedenen Interaktionstypen können anhand von neun Gestaltungsdimensionen sowie mit Hilfe von zwei Kriterien unterschieden werden, die sich beide auf die Interaktion mit dem Menschen beziehen. Zum einen ist die Handlungsfreiheit von KI-Lösungen unterschiedlich ausgeprägt: In manchen Fällen sollen sie nur auf explizite Befehle reagieren; in anderen Fällen ist es gewünscht, dass sie selbstständig entscheiden und handeln.

Zum anderen gibt es verschiedene Grade der Wechselseitigkeit: Je genauer die ungleichen Partner ihr Verhalten gegenseitig wahrnehmen, je mehr Informationen sie austauschen und je stärker ihre Handlungen einander beeinflussen, desto ausgeprägter ist ihre wechselseitige Interaktion.

Darüber hinaus beeinflussen weitere Faktoren die Akzeptanz und das Vertrauen in den Einsatz von KI im Alltag: Wichtig ist, dass die Transparenz der Interaktionen mit KI-Technologien bewusst gestaltet wird. Ebenso sind spezifische Anpassungen an die individuellen Anforderungen des Nutzers (Personalisierung) und Ähnlichkeiten mit dem Menschen (Anthropomorphologie) für die Akzeptanz von KI-Lösungen wichtig.

Die Studie diskutiert darüber hinaus die Implikationen für eine erfolgreiche Gestaltung von Mensch-KI-Interaktionen in der Zukunft. Die Prognosen zur zukünftigen Entwicklung werden in zehn Thesen detailliert beschrieben.

»Unternehmen stellen bereits heute die Weichen für eine erfolgreiche Gestaltung zukünftiger Mensch-KI-Interaktionen. Unsere 10 Thesen zeigen unmittelbar den Handlungsbedarf in den Bereichen Strategie, Technologie und Organisation auf. Nur durch eine ebenso offene wie reflektierte Betrachtung von KI-Lösungen sowie deren Chancen und Grenzen in der Interaktion mit Menschen gelingt die Umsetzung in Unternehmen«, so der EY-Partner Dr. Yilmaz Alan

Interessierte können unter folgendem Link weitere Informationen zur Studie erhalten und die vollständige Studie herunterladen.

Bundesverband für Künstliche Intelligenz & Ethik wächst weiter

Das IT-Unternehmen doubleSlash ist neues Mitglied im KI Bundesverband. Der 2018 gegründete Verband hat sich zum Ziel gesetzt, die Entwicklung von „Künstlicher Intelligenz“ (KI) zu fördern und zu steuern – und das sowohl aus wirtschaftlicher als auch aus ethischer Sicht. doubleSlash treibt seit vielen Jahren KI-Anwendungen im industriellen Umfeld voran. Mit der Mitgliedschaft im KI Bundesverband unterstreicht das Unternehmen die wirtschaftliche Bedeutung von KI und die gesellschaftliche Verantwortung der Mitglieder.

Die Potenziale von Künstlicher Intelligenz sind unter Experten unbestritten. Ebenso, dass mit KI erhebliche gesellschaftliche und wirtschaftliche Veränderungen einhergehen. Zu den großen Herausforderungen gehört es, Chancen und Risiken abzuwägen und die Entwicklung und Anwendung von KI-Technologien „menschen-zentriert und menschen-dienlich“ zu steuern, wie es beim KI Bundesverband heißt.

„Das ist auch ein zentrales Anliegen von doubleSlash“, macht Konrad Krafft, Gründer und geschäftsführender Gesellschafter von doubleSlash, deutlich. „Künstliche Intelligenz birgt ein ungeheures Innovationspotenzial auf praktisch allen Gebieten unseres Lebens. Dieses Potenzial gilt es auszuschöpfen. Allerdings ist damit auch eine große Verantwortung verbunden, denn letztlich müssen wir alle daran interessiert sein, dass KI immer dem Menschen dient.“

doubleSlash setzt seit vielen Jahren KI ein, um industrielle Prozesse zu optimieren – zum Beispiel durch den Einsatz von Machine Learning Methoden für Anwendungen im Bereich Predictive Maintenance. Dabei ist das Softwarehaus auch für namhafte OEMs in Stuttgart und München tätig.

KI-Lösungen von doubleSlash werden eingesetzt, um beispielsweise

  • Lebensdauer und Energieleistung von Windkraftanlagen zu prognostizieren,
  • Wartungsintervalle in Fabriken eng an den tatsächlichen Erfordernissen auszurichten oder
  • um Automobile für das autonome Fahren zu trainieren.

„In jüngster Zeit gewinnt auch das Thema `Data Driven Decision Making´ für Unternehmen an Bedeutung“, so Danny Claus. „Dabei geht es darum, durch den Einsatz von automatisierten Analyseverfahren aus großen Datenmengen Wissen zu generieren und wertschöpfend im Unternehmen einzusetzen.“

KI Bundesverband wächst weiter

Der KI Bundesverband hat sich im Frühjahr 2018 gegründet. Heute gehören ihm bereits mehr als 160 innovative Unternehmen, KMUs, Startups, Wissenschaftler und andere Experten an. Ihnen gemeinsam ist ihr zentraler Geschäfts- oder Forschungszweck: die Entwicklung und Anwendung von Technologien auf Basis von künstlicher Intelligenz unter Berücksichtigung ethischer Werte.

Zu den zentralen Zielen des Verbandes gehört es, aktiv zur positiven Entwicklung von KI beizutragen. Dabei geht es zum einen darum, die Wettbewerbsfähigkeit deutscher KI-Unternehmen im internationalen Umfeld zu stärken und Deutschland als attraktiven Wirtschaftsstandort für das KI-Ökosystem zu etablieren. Aber auch darum, den Einsatz von KI-Technologien so zu steuern, dass die Interessen der Menschen stets gewahrt sind. Unter anderem bekennen sich die Mitglieder des Verbandes deshalb zu den europäischen Grundwerten und verpflichten sich zur Einhaltung der im KI Gütesiegel des Verbandes definierten ethischen Standards.

 

Deutschlands smarteste Städte: Das sind die Top Ten

Wie digital sind Deutschlands Städte? Diese Frage beantwortet der Smart City Index. Im Auftrag des Digitalverbands Bitkom wurden alle 81 deutschen Großstädte mit mehr als 100.000 Einwohnern detailliert untersucht.

Die Experten von Bitkom Research haben dafür insgesamt 7.800 Datenpunkte erfasst, überprüft und qualifiziert – und nun liegen die ersten Ergebnisse vor. Die folgenden Städte haben es unter die Top 10 geschafft und machen den Gewinner unter sich aus, sie sind hier in alphabetischer Reihenfolge aufgeführt:

  1.              Berlin
  2.              Bonn
  3.              Darmstadt
  4.              Dortmund
  5.              Hamburg
  6.              Heidelberg
  7.              Karlsruhe
  8.              Köln
  9.              München
  10.              Stuttgart

„Der Smart City Index liefert ein detailliertes Bild, wie weit die deutschen Großstädte bei der Digitalisierung sind“, sagt Bitkom-Präsident Achim Berg. „Zwischen den digitalen Vorreitern und Nachzüglern unter den Städten liegen Welten“, fasst Berg die Ergebnisse zusammen.

„Der Spitzenreiter erreicht knapp 80 von maximal 100 Punkten, die Rote Laterne vergaben wir bei rund 20 Punkten.“ Bitkom will den Städten mit dieser Untersuchung eine Vergleichsgrundlage für ihre eigenen digitalen Aktivitäten geben, Erfolgsbeispiele aufzeigen und die Städte so bei ihren Digitalisierungsbemühungen unterstützen.

 5 Kategorien, 96 Einzelindikatoren, 7.800 Datenpunkte

Der Smart City Index analysiert und bewertet die Städte in fünf Kategorien: Verwaltung, IT-Infrastruktur, Energie/Umwelt, Mobilität und Gesellschaft. Für jede Stadt wurden 96 Einzelindikatoren untersucht – von Online-Bürger-Services über Sharing-Angebote für Mobilität und intelligente Ampelanlagen bis hin zur Breitbandverfügbarkeit.

In den fünf Kategorien wurde für jede Stadt Index-Werte errechnet, aus dem sich Gesamtwert und Gesamtrang ergeben. Den untersuchten Städten wurde jeweils Gelegenheit gegeben, die erhobenen Werte zu überprüfen und zu kommentieren. Das vollständige Ranking wird im Vorfeld der Smart Country Convention am 15. Oktober 2019 veröffentlicht.

 Smart Country Convention will Digitalisierung der Verwaltung beschleunigen

Die Digitalisierung von Städten und Regionen ist das zentrale Thema der Smart Country Convention, die vom 22. bis 24. Oktober 2019 in Berlin stattfindet und alle relevanten Vertreter von Verwaltungen, Politik, Digitalwirtschaft, Verbänden und Wissenschaft zusammenbringt. Die dreitägige Veranstaltung ist eine Kombination aus Kongress, Workshops, Weiterbildungsveranstaltungen und Ausstellung.

Dabei geht es sowohl um die digitale Verwaltung als auch um die Digitalisierung öffentlicher Dienstleistungen in den Bereichen Energie, Mobilität, Sicherheit, Abfall, Wasser, Bildung, Gesundheit und Wohnen. Die Smart Country Convention richtet sich an Vertreter von Bund, Ländern, Landkreisen, Städten und Gemeinden. Es haben sich mehr als 15.000 Teilnehmer angemeldet.

Breites gesellschaftliches Bündnis für digitale Teilhabe

Die Digitalisierung bietet viele Chancen, aber bislang können längst nicht alle daran teilhaben: Mit der neuen Initiative „Digital für alle“ stellt sich ein breites gesellschaftliches Bündnis dieser Herausforderung. Das gemeinsame Ziel lautet, die digitale Teilhabe zu fördern. Alle Menschen in Deutschland sollen in die Lage versetzt werden, sich selbstbewusst und selbstbestimmt in der digitalen Welt zu bewegen.

Ein bundesweiter Digitaltag soll die Digitalisierung mit zahlreichen Veranstaltungen und Aktivitäten überall in Deutschland erklären, erlebbar machen, Wege zu digitaler Teilhabe aufzeigen und auch Raum für kontroverse Debatten schaffen. Erstmals findet der Digitaltag am 19. Juni 2020 statt und soll künftig jährlich durchgeführt werden. Zudem wird im Rahmen des Digitaltags ein Preis für digitales Engagement verliehen. Das teilte die Initiative „Digital für alle“ am Mittwoch in der Bundespressekonferenz in Berlin mit. Das Bündnis besteht aus 21 Organisationen aus den Bereichen Zivilgesellschaft, Kultur, Wirtschaft und öffentliche Hand.

„Wir wollen erreichen, dass niemand im digitalen Wandel verloren geht und sich niemand verloren fühlen muss. In einem breiten gesellschaftlichen Bündnis wollen die Kommunen einer digitalen Spaltung der Gesellschaft konsequent entgegenwirken und den gesellschaftlichen Zusammenhalt stärken. Denn digitale Kompetenzen sind für unser Leben heute elementar“, sagte Burkhard Jung, Präsident des Deutschen Städtetages für die Bundesvereinigung der kommunalen Spitzenverbände. Aus Perspektive des ehrenamtlichen Engagements ergänzte Petra Bentkämper, Präsidentin des Deutschen LandFrauenverbands: „Beim Thema Digitalisierung geht es auch um gesellschaftliche Teilhabe. Damit der digitale Wandel gelingt, müssen wir als Gesellschaft dafür sorgen, dass alle die Möglichkeit haben, diesen Prozess mitzugestalten. Am Digitaltag machen wir uns dafür stark, dass alle Menschen im ländlichen Raum, egal welchen Alters, fit gemacht werden für die Zukunft.“

Achim Berg, Präsident des Digitalverbands Bitkom, erklärte: „Die Digitalisierung ist eines der drängendsten Themen unserer Zeit. Mit dem Digitaltag wollen wir einen gesellschaftlichen Aufbruch anstoßen und uns ganz bewusst auch kontroversen Diskussionen stellen. Jeder Einzelne kann an der Digitalisierung teilhaben und mitwirken – das wollen wir mit dem Digitaltag zeigen.“

Zum Digitaltag am 19. Juni 2020 sollen auf Initiative der 21 Partner bundesweit Veranstaltungen und Aktivitäten stattfinden, darunter öffentliche Vorträge, Diskussionen und Streitgespräche, die Vorführung digitaler Technologien in Vereinen, Behörden und Unternehmen und das Schaffen eines breiten Diskursraums zur Digitalisierung auch über digitale Kanäle. Die Bandbreite reicht von lokalen Bürgersprechstunden via Messenger über digitale Erlebnisreisen mit der Virtual-Reality-Brille in Senioreneinrichtungen bis zu Smart-Home-Vorführungen in Handwerksbetrieben.

 Studie zeigt großen Bedarf an digitaler Teilhabe

Laut einer repräsentativen Studie von Bitkom Research stehen in Deutschland etwa 20 Millionen Menschen ab 16 Jahren der Digitalisierung skeptisch bis ablehnend gegenüber. Auf die offene Frage nach spontanen Assoziationen zum Begriff „Digitalisierung“ gaben 27 Prozent der 1.003 Befragten Vorbehalte beziehungsweise Bedenken an, etwa Sorgen um Datensicherheit, Cyber-Kriminalität und die Angst vor dem Verlust des Arbeitsplatzes.

Dem stehen 11 Prozent gegenüber, die Vorteile herausstellen, etwa mehr Komfort im Alltag oder die Ersparnis von Wegen, Zeit und Kosten. Die meisten, nahezu jeder Zweite (46 Prozent), verbinden mit Digitalisierung technische Infrastruktur und Geräte wie Internet und Smartphone oder den Einzug digitaler Technologien in Alltagsgegenstände. Während eine Zwei-Drittel-Mehrheit (68 Prozent) die Digitalisierung grundsätzlich als Chance bezeichnet, sehen drei von zehn (31 Prozent) darin eine Gefahr.

Der Einzug digitaler Technologien in alle Lebensbereiche wird zwar von einer großen Mehrheit (81 Prozent) als eher positiv bewertet, aber immerhin jeder Sechste (16 Prozent) sieht diese Entwicklung eher negativ. In einigen Fällen führt das zu dem Wunsch, digitale Technologien so gut wie möglich aus dem Alltag zu verbannen. Jeder Achte (12 Prozent) sagt über sich selbst, die zunehmende Technisierung abzulehnen und neue technische Geräte oder digitale Dienstleistungen nur zu nutzen, wenn es sich gar nicht vermeiden lässt. Die Untersuchung zeigt, dass Ältere die Digitalisierung besonders skeptisch sehen. Vier von zehn der Altersgruppe 65 plus (40 Prozent) würden lieber in einer Welt ohne digitale Technologien leben, bei den Jüngeren ist es lediglich jeder Achte (12 Prozent).

E-Health: Warum Patientendaten besser geschützt werden müssen

AskulapZahlreiche Patientendaten – darunter Krankenakten, Screening- und Röntgenaufnahmen mit personalisierten Informationen wie zum Beispiel Geburtsdatum, Vor- und Nachname – sind im Netz derzeit leicht abrufbar. Diese Daten liegen auf ungesicherten Servern, welche selbst von Amateurhackern in Echtzeit einfach kompromittiert werden können.

Da Unternehmen ihre Anwendungen und Daten zunehmend in die Cloud verlagern, werden solche Situationen in Zukunft häufiger auftreten. Dennoch können Unternehmen mit einer Datenklassifizierungs- und Zugriffskontrolllösung solche Vorfälle in Zukunft effektiv vermeiden. In erster Linie müssen Unternehmen ein System einrichten, bei dem jedweder Zugriff auf jeden in ihrem Netzwerk betriebenen Server nachprüfbar ist.

Durch die Einrichtung eines automatischen Datenklassifikationssystems wird nur denjenigen Personen der Zugang zum Server gewährt, die vorher ausdrücklich dazu autorisiert wurden. Dabei wird der Grad der Vertraulichkeit gespeicherter und zu speichernder Daten mit Hilfe von RegExes, Metadaten und anderen Schlüsselwörtern bestimmt. So lässt sich ein Dokument automatisch vom System als vertraulich klassifizieren, wenn es beispielsweise, die Wörter „Medizinischer Test“ oder „Ergebnisse“ enthält.

Die Implementierung einer Identitäts- und Zugriffskontrolllösung ermöglicht es, dass nur autorisierte Personen innerhalb der jeweiligen Abteilung im Unternehmen Zugang zu kritischen Daten haben und die entsprechenden Informationen nutzen können.  Diese strengen Datenschutzregelungen tragen dazu bei, dass Unternehmen den Datenschutz Innerhalb ihres Netzwerkes weiter stärken und damit die DSGVO einhalten können.

Wenn Unternehmen in Systeme zur Datenidentifikation und -Klassifizierung investieren, sind sie gegen Vorfälle wie den Aktuellen in Zukunft gefeit und können zudem gesetzliche und geschäftsinterne Vorgaben zum Datenschutz besser entsprechen.

Autor: Jürgen Venhorst ist Country Manager DACH bei Netwrix.

 

Machine Learning: Mehr Security für alle oder Hackers Superwaffe?

Künstliche Intelligenz (KI) und Maschinelles Lernen (ML) zählen zu den meistdiskutierten Themen in der IT-Sicherheit. Während die einen sie für Science Fiction halten, nutzen die anderen sie teilweise bereits in der Realität.

Manche erhoffen sich dabei von ML und KI den ultimativen Befreiungsschlag gegen Malware, andere sind weniger optimistisch und befürchten viel eher die Zunahme weiter ausgereifter Cyberattacken. Im neuen Whitepaper „Machine Learning – Segen oder Fluch für die IT-Sicherheit?“ nehmen die Sicherheitsexperten von ESET Chancen, Risiken und Grenzen von KI und ML genauer unter die Lupe.

In einer ESET-Umfrage (Mitte 2018) gaben 89 Prozent der befragten deutschen Unternehmen an, dass sie bereits eine Sicherheitslösung mit ML implementiert hätten. Doch unabhängig davon ist das Vertrauen der Befragten in Machine Learning groß: Vier von fünf Teilnehmern geben an, dass ML ihrem Unternehmen hilft oder helfen wird, Bedrohungen zu erkennen und schneller auf sie zu reagieren.

Unglücklicherweise haben auch Cyberkriminelle den Wert von ML längst für sich entdeckt. Das Whitepaper beleuchtet anhand aktueller Beispiele, dass die Entwicklung mit großen Schritten voranschreitet. Die jüngsten SPAM-Wellen und der Trojaner Emotet sind gute Beispiele dafür.

Doch selbst für konventionelle Malware ist Maschinelles Lernen nicht die Superwaffe, als die es gern verkauft wird. Juraj Malcho, Chief Technology Officer bei ESET, mahnt: „Es ist beunruhigend zu sehen, dass der Hype um KI und ML so viele IT-Entscheider dazu veranlasst, die Technologien als das Allheilmittel für Herausforderungen in der IT-Security zu betrachten. Eines hat uns das letzte Jahrzehnt gelehrt: Für manche Dinge gibt es keine einfache Lösung.

Das gilt besonders für den Cyberspace, wo sich die Bedingungen binnen weniger Minuten verändern können. In der heutigen Geschäftswelt wäre es unklug, sich nur auf eine Technologie zu verlassen, um eine widerstandsfähige Cyberabwehr aufzubauen. IT-Entscheidungsträger sollten erkennen, dass ML zweifellos ein wichtiges Instrument im Kampf gegen Cyberkriminalität ist – aber eben nur ein Teil der gesamten Sicherheitsstrategie eines Unternehmens sein sollte.“

Das Whitepaper können Sie hier herunterladen: https://www.eset.com/de/business/machine-learning

Achillesferse Servicekonto: Black Hat-Umfrage enthüllt den beliebtesten Angriffspunkt der Hacker

Obwohl eine vernachlässigte Passwortrotation eines der größten Sicherheitsrisiken in der Verwaltung von privilegierten Accounts darstellt, werden rund 35 Prozent der Passwörter für sensible Servicekonten niemals oder nur nach einem Sicherheitsvorfall geändert. Dies ist das Ergebnis des aktuellen 2019 Black Hat Hacker Surveys des PAM-Spezialisten Thycotic.

Für den Report befragte Thycotic im Rahmen der diesjährigen Security-Konferenz Black Hat in Las Vegas insgesamt 300 Hacker und Security-Professionals zu ihren bevorzugten Angriffszielen und effektiven Schutzmaßnahmen in Zusammenhang mit privilegierten Konten und verglich die Antworten der beiden Gruppen anschließend miteinander.

Servicekonten – die Achillesferse der Unternehmens-IT

Einigkeit herrschte dabei unter anderem in Sachen Angriffsziel: Sowohl Hacker als auch Sicherheitsprofis sehen demnach in Servicekonten einen beliebten Angriffspunkt. Das liegt nicht zuletzt daran, dass diese Accounts Zugriff auf sensible Informationen gewähren und zudem Möglichkeiten der Privilegien-Erhöhung bereithalten.

Da Servicekonten selten von menschlichen Usern genutzt werden und ihre Aufgaben dementsprechend „hinter den Kulissen“ erfüllen, werden sie selten überprüft. Gleichzeitig zögern IT-Administratoren, Servicekonten zu deaktivieren, da sie ihre Abhängigkeiten oft nur schwer verstehen können und eine störende Betriebsunterbrechung unbedingt vermeiden wollen. Dabei sind Servicekonten in der Cloud, on-premises oder in hybriden Umgebungen gleichermaßen gefährdet, wie die befragten Hacker klarstellen.

 Nachlässigkeit bei der Passworthygiene

Eine schlechte Passworthygiene in den Unternehmen spielt den Angreifern bei der Kompromittierung von Service-Accounts dabei oft in die Hände. Beide Gruppen monieren, dass Passwörter für Servicekonten nicht regelmäßig geändert werden, obwohl eine vernachlässigte Passwortrotation eines der größten Sicherheitsrisiken in der Verwaltung von privilegierten Accounts darstellt.

In 44 Prozent der Fälle treffen die befragten Hacker bei ihren Angriffen demnach auf Accounts, deren Zugriffsdaten nie bzw. nur nach einem Security-Vorfall geändert werden. In immerhin 36 Prozent der Fälle rotieren die Passwörter einmal pro Monat, was den Hackern jedoch immer noch rund 30 Tage Zeit gibt, um ihren Angriff durchzuführen und sich lateral im Netzwerk zu bewegen.

Diese Angaben decken sich mit den Antworten der befragten Security-Professionals, von denen 36 Prozent zugaben, Servicekonto-Passwörter nie bzw. nur nach einem Incident zu wechseln. Täglich werden die Passwörter laut Report nur in rund 3,5 Prozent der Fällen gewechselt.

„Die ordnungsgemäße Absicherung von Servicekonten stellt Unternehmen vor große Herausforderungen, insbesondere wenn mehrere Accounts für verschiedene Services, Aufgaben und Anwendungen betroffen sind“, so Joseph Carson, Chief Security Scientist bei Thycotic. „Die Passwortverwaltung ist bei Servicekonten ebenfalls kein Kinderspiel. So können Administratoren ein Servicekonto-Passwort nicht einfach ändern, solange sie nicht wissen, wo genau es verwendet wird. Tun sie es doch, besteht das Risiko, dass andere wichtige Anwendungen abstürzen.“

 Servicekonten müssen konsequent verwaltet und überwacht werden

Um privilegierte Accounts wie Service-Konten vor Missbrauch zu schützen, bedarf es neben einer Passwortrotation weiterer Sicherheitsmaßnahmen, darin sind sich Hacker wie IT-Pros einig. Beide Gruppen empfehlen zum einen eine wirksame Identifizierung und Entfernung veralteter und entbehrlicher Accounts, da sie schnell übersehen werden können und ihr Missbrauch lange unentdeckt bleiben kann. Zum anderen sollten IT-Abteilungen alle Aktivitäten von privilegierten Konten streng überwachen, um verdächtiges Verhalten frühzeitig zu erkennen.

 Weniger als fünf Prozent der befragten Hacker schlägt aus geleakten Informationen Profit

Uneinigkeit herrschte unter den Gruppen vor allem in Sachen Hacker-Ethik. Während fast 50 Prozent der befragten Sicherheitsprofis davon überzeugt sind, dass Hacker gestohlene sensible Daten aus Profitgründen auf jeden Fall verkaufen würden, widersprachen dem ebenso viele der befragten Hacker. Die Hälfte von ihnen gibt gehackte kritische Informationen demnach verantwortungsvoll weiter. An einen Verkauf der geleakten Informationen bzw. eine Lösegeldforderung denken weniger als fünf Prozent. Das dürfte nicht zuletzt daran liegen, dass sich rund 36 Prozent der befragten Hacker selbst als sogenannte White Hat-Hacker definieren.

Warum viele Videokameras ihren Zweck nicht erfüllen und mit welchen Anwendungsdetails dies verhindert werden kann

Schwankende Lichtverhältnisse in einer Straßenbahn; Details an manchen Stellen unkenntlich z.B. durch Überbelichtung. Bildquelle: Ronald Bachofner )

Schwankende Lichtverhältnisse in einer Straßenbahn; Details an manchen Stellen unkenntlich z.B. durch Überbelichtung. Bildquelle: Ronald Bachofner )

Netzwerk-Videokameras sind heute fast schon fester Bestandteil von öffentlichen Plätzen, dem ÖPNV oder Geschäften. Sie geben vielen Menschen ein sicheres Gefühl und tragen zur Aufklärung diverser Delikte bei. Die Videotechnik ist mittlerweile so ausgereift, dass Situationen und Menschen detailliert aufgezeichnet werden können, auch bei schlechten Lichtverhältnissen, völliger Dunkelheit oder besonders großen Plätzen. Doch viele Kameras verfehlen ihren Zweck oder sind sogar unbrauchbar.

Eine Videokamera ist an einer Hauswand vor einem Laden montiert.

Doch was zeichnet diese eigentlich auf? Die Umgebung, die Straße oder den Eingangsbereich? Für welchen Zweck wurde sie installiert? Wenn diese Punkte nicht exakt definiert sind, verfehlt die Kamera oft ihren Nutzen. „Dann ist das letztlich nur irgendeine Kamera, die an irgendeinem Platz in irgendeine Richtung blickt und irgendetwas aufzeichnet. So entsteht ein Zufallsprodukt. Und ich habe leider das Gefühl, dass ich oft mit Zufallsprodukten zu tun habe“, erklärt Roland Bachofner, Bildforensiker beim Forensischen Institut Zürich.

Die Bildforensik untersucht Bildmaterial nach allem, was am Menschen messbar ist. Dazu gehört die Gesichtserkennung, die Vermessung der Körpermaße, Vergleich von Kleidung oder Analyse von Bewegungsdetails. Bei falscher Einstellung oder Justierung einer Kamera können unter Umständen all diese Details nicht eindeutig erfasst und so die Aufnahmen nicht verwertet werden. Laut Roland Bachofner ist dabei nicht die Auflösung der Kamera entscheidend, wie oftmals angenommen.

Auf die Pixeldichte im Schutzziel kommt es an.

Das bedeutet, dass die Pixeldichte an der zu überwachenden Stelle, also beispielsweise am Eingang eines Ladens oder vor einer Vitrine in einem Museum, am höchsten sein muss. Die Auflösung ist über das ganze Bild immer die Gleiche, jedoch verändert sich die Dichte mit zunehmendem Abstand. Dies kann der Anwender über die Brennweite feinjustieren.

„Meine Erfahrung ist, dass Kamerasysteme immer besser werden und zuverlässig Situationen sowie Menschen im Detail einfangen können. Doch vor allem von der Handhabung im laufenden Betrieb gehen erhebliche Mängel aus. Videoüberwachungssysteme werden durch fehlendes Wissen über die optimalen Einstellmöglichkeiten sehr oft nicht in vollem Umfang genutzt und verfehlen so ihr Ziel völlig“, so Bachofner weiter.

 Neben der richtigen Einstellung ist auch die Kameratechnik entscheidend

Kontrast, Lichtempfindlichkeit, Rauschverhalten und Farbwiedergabe sind essentielle Elemente eines guten Videobildes, für die jedoch auch enorme Rechenleistungen erforderlich sind.

Oft kennen Konsumenten die Kamerasysteme und die Technik dahinter nicht und wissen daher auch nicht, wofür sie einzusetzen sind. Es wird darauf vertraut, dass die Kamera „das“ kann. „Zu klein, zu weit weg oder zu dunkel – das sind meine Standardantworten auf Fragen zu Objekten in Bildaufnahmen“, bestätigt Roland Bachofner.

Der Anwender muss sich also bei der Montage und der Einstellung einer Kamera die Frage stellen, was überhaupt aufgezeichnet werden soll. Dafür müssen bestimmte Anforderungen festgelegt sein. Für jeden Anwendungszweck sowie jedes Schutzziel sollten daher die folgenden Eigenschaften gewissenhaft geprüft werden:

  • Aufnahmewinkel
  • Kontrastverhalten
  • Lichtempfindlichkeit
  • Rauschverhalten
  • Farbechtheit
  • Forensische Auswertbarkeit
  • Vermeidung von Bewegungsunschärfe

Erst wenn diese Punkte genau definiert sind, sind Kameras von Nutzen und deren Videobilder am Ende auch verwertbar. Wenn die Leistungsfähigkeit einer Kamera optimal ausgeschöpft wird, erleichtert dies nicht nur die Arbeit eines Bildforensikers, sondern unterstützt den Betreiber, die Polizei oder andere öffentliche Einrichtungen. Nur so erfüllen Videokameras die ihr zugedachte (Schutz-)Funktion.

Quelle: Axis.

Forscher veröffentlichen Studie über Dankbarkeit in Online-Communities

Forscher der City, University of London sind der Ansicht, dass ein besseres Verständnis des relativ wenig erforschten Konzepts der Dankbarkeit in Online-Communities dazu beitragen könnte, dass zukünftige Online-Community-Plattformen das Ausdrücken und Bestätigen von Danksagungen unterstützen und eine stärkere Online-Teilnahme fördern.

Die Studie von Dr. Stephann Makri und die Co-Autorin Sophie Turner, die unter dem Titel: „“I can’t express my thanks enough”: The ‘gratitude cycle’ in online communities“ im Journal of the Association for Information Science and Technology veröffentlicht wurde, untersucht die Art und Weise, wie Nutzer der Online-Community-Plattformen Dankbarkeit empfinden, ausdrücken und empfangen.

Prozessmodell der Dankbarkeit

Die Wissenschaftler argumentieren, dass ein „besseres Verständnis von Dankbarkeit in Online-Communities das Design von Online-Plattformen über die bestehenden oberflächlichen Funktionalitäten hinaus beeinflussen kann, wie z.B. „Gefällt mir“ oder „Danke“ Buttons und Belohnungspunkte, die potenziell die Teilnahme motivieren und damit die Gesundheit der Gemeinschaft fördern könnten“.

Die Forscher führten Interviews mit Nutzern verschiedener Online-Community-Plattformen (Facebook und Trip Advisor), Diskussions- und Supportgruppen, sozialen Q&A-Sites und Review-Sites (Quora und Mumsnet) und baten um einprägsame Beispiele dafür, wann Nutzer freundliche Handlungen vorgenommen hatten oder dankbar für die freundlichen Handlungen anderer waren.

Basierend auf ihren Ergebnissen stellten sie ein Prozessmodell der Dankbarkeit in Online-Communities, den „Dankbarkeitszyklus“, vor, das eine detaillierte Beschreibung der Ausdrucksform und Anerkennung der Online-Dankbarkeit liefert, die das Design von Online-Community-Plattformen – wie digitale Foren und private Social-Media-Gruppen – beeinflussen kann.

Das Modell des „Dankbarkeitszyklus“ identifiziert einen „Wohltäter“ (der eine gute Handlung ausführt, für die jemand dankbar sein wird), der sich motiviert fühlt, freundlich zu handeln, freundlich handelt und sich gut dabei fühlt.

Der „Begünstigte“ (an den die Handlung gerichtet ist) bemerkt die Handlung, erkennt das Gute darin und fühlt sich dankbar. Der Begünstigte kann seine Dankbarkeit gegenüber dem Wohltäter zum Ausdruck bringen oder auch nicht. Wenn dies der Fall ist, kann der Wohltäter den Ausdruck erhalten oder auch nicht. Wenn dies der Fall ist, werden sie sich wahrscheinlich wohl fühlen und den Ausdruck anerkennen oder auch nicht. Wenn der Wohltäter ihn anerkennt und der Begünstigte die Bestätigung erhält, ist es wahrscheinlich, dass sich der Begünstigte wohl fühlt.

 Sinnvoller Ausdruck der Dankbarkeit und Anerkennung

Der Zyklus kann potenziell in allen Phasen (von Benutzern, Technologie oder beiden) unterbrochen werden, insbesondere dann, wenn eine Person Dankbarkeit empfindet, diese aber nicht ausdrückt oder wenn Dankbarkeit ausgedrückt und empfangen, aber nicht anerkannt wird.

Die Empfindung, der Ausdruck und/oder die Anerkennung von Dankbarkeit kann das zukünftige Verhalten des Wohltäters, des Begünstigten oder anderer Gemeinschaftsmitglieder positiv verstärken. Dies bildet einen positiven Kaskadenzyklus von Handlungen und daraus resultierender Dankbarkeit.

Die Autoren argumentieren, dass ein tieferes Verständnis der Erfahrung der Dankbarkeit nützlich ist, um darüber nachzudenken, wie der Prozess durch Design am besten unterstützt und aufrechterhalten werden kann – indem einzelne Phasen und der gesamte Dankbarkeitsprozess unterstützt und Zusammenbrüche im Zyklus verhindert werden und umgekehrt eine Wiederbelebung gefördert wird.

Ziel ist es, die Nutzer zu prosozialem Handeln zu motivieren, das den Zyklus fortsetzt. Sie argumentieren auch, dass Online-Community-Plattformen „über die bestehenden leichten und übermäßig belohnungsorientierten Designansätze hinausgehen müssen, um einfache, aber aussagekräftige Dankbarkeitsausdrücke und -anerkennungen zu unterstützen“.

Was verursacht digitalen Stress und welche Rahmenbedingungen machen besonders anfällig?

Das seit November 2017 laufende BMBF-Projekt »PräDiTec« hat erste Erkenntnisse über die größten Auslöser von digitalem Stress gewonnen. In einer Studie mit mehr als 5.000 Erwerbstätigen wurde untersucht, wie sich das Belastungs- und Beanspruchungsprofil durch den Einsatz von neuen Technologien verändert. Neben den Belastungsfaktoren und Auswirkungen von digitalen Stress wurden Rahmenbedingungen analysiert, unter denen digitaler Stress besonders hoch oder gering ausfällt.

Ständige Erreichbarkeit, Angst vor Leistungsüberwachung und eine Beschleunigung der Arbeitstätigkeit als Auslöser für digitalen Stress

Aus der Studie heraus konnten 12 verschiedene Belastungsfaktoren bei der Arbeit mit digitalen Technologien und Medien identifiziert werden. Dazu gehört beispielsweise die Omnipräsenz, das Gefühl der ständigen Erreichbarkeit und einer kürzeren Reaktionszeit durch das Auflösen der Grenzen zwischen Arbeits- und Privatleben.

Ein weiterer Belastungsfaktor, die Überflutung, beschreibt das Gefühl, aufgrund der höheren Menge an bereitgestellten Informationen mehr und schneller arbeiten zu müssen. Von den Befragten werden am häufigsten Leistungsüberwachung sowie die Verletzung der Privatsphäre als Belastungsfaktor genannt. Bemerkenswert ist nicht nur, dass jeder dritte Befragte mindestens einem der Belastungsfaktoren sehr stark ausgesetzt ist, sondern auch, dass fast jeder fünfte aufgrund des Belastungsfaktors sehr starken digitalen Stress wahrnimmt.

Stressempfinden geht mit der Nutzungsintensivität und der Anzahl genutzter Technologien einher

Doch nicht jeder Arbeitsplatz, der mit digitalen Technologien ausgestattet ist, verursacht digitalen Stress im gleichen Maß. Die Kombination aus der Anzahl genutzter digitaler Technologien und Medien sowie die Nutzungsintensität hat Einfluss auf die Belastung. So ist diese bei einer hohen Anzahl an verschiedenen Technologien, die nur wenig genutzt werden, am höchsten, da die Fähigkeiten und Kenntnisse zur Nutzung der Technologien bei geringer Nutzung schwieriger zu erhalten sind und die Verunsicherung größer wird.

Gesundheitliche und arbeitsbeeinträchtige Auswirkungen

Erschöpfung, Gereiztheit sowie psychischen Beeinträchtigungen bis hin zu Erkrankungen des Muskel-Skelett-Systems gehen mit digitalem Stress einher. Unzufriedenheit mit der Arbeitsstelle und eine schlechtere Leistung sind ebenso mögliche Folgen von digitalen Stresses. Doch organisationale und soziale Faktoren können digitalem Stress am Arbeitsplatz entgegenwirken. Dazu gehören beispielsweise ein erweiterter Handlungsspielraum hinsichtlich arbeitsrelevanter Entscheidungen sowie eine gute Beziehung zu dem Vorgesetztem.

#Cybercrime: Fake President-Betrug auf dem Vormarsch

Fake President-Betrug und ihre verheerenden Auswirkungen auf Unternehmen sind an sich nichts Neues. Unternehmen haben dadurch bereits Millionen von Euro an Kriminelle verloren und viele Mitarbeiter haben in der Folge ihre Arbeitsplätze verloren. Experten zufolge machte der Fake President-Betrug – auch bekannt als Business Email Compromise – fast ein Viertel aller Schäden in der DACH-Region aus.

Damit hat der Betrug sogar Bedrohungen wie Ransomware oder Datenschutzverletzungen überholt und war der Hauptgrund dafür, dass Unternehmen im vergangenen Jahr eine Cyber-Versicherung in der DACH-Region abgeschlossen haben. Den Experten zur Folge, haben deutsche Unternehmen sowie deren ausländische Töchterfirmen Schäden von über 190 Millionen Euro seit 2014 gemeldet.

Organsierte Banden wählen ihre Opfer aus

Derartige Betrügereien werden oft von hochgradig organisierten Gruppen von Kriminellen begangen, die ein bestimmtes Unternehmen oder eine Person oder Gruppe von Personen auswählen und den Angriff auf sie ausrichten. Sie versuchen diese Personen dazu zu bringen, eine unbefugte Tätigkeit wie zum Beispiel eine Geldüberweisung auf ein ausländisches Konto durchzuführen.

Vor zwei Jahren wurde vom BKA veröffentlicht, dass ein Cyberkrimineller als angeblicher persönlicher Referent eines Abteilungsleiters im Bundeskanzleramt solche Anrufe tätigte. Er handelte angeblich im Auftrag des sicherheitspolitischen Beraters der Bundeskanzlerin und gab sich als Uwe Becker aus. Der Kriminelle rief bundesweit Geschäftsführer an und forderte die Unternehmen zu einer Spende für den Freikauf deutscher Geiseln auf. Dem Betrüger zufolge fehlten der Bundesregierung noch etwa 40 Millionen Euro.

Social Engineering als Einfallstor

Diese Art von Social Engineering wird Spear-Phishing genannt und 95 Prozent der Angriffe auf Unternehmen sind das Ergebnis eines erfolgreichen Spear-Phishings. In diesem Fall richten sich Betrüger an Nicht-Muttersprachler, die in ausländischen Tochtergesellschaften des Unternehmens beschäftigt sind. Dadurch stellen sie sicher, dass die Wahrscheinlichkeit, dass diese Mitarbeiter den Betrug erkennen geringer ausfällt.

Dies bedeutet auch, dass der betreffende Mitarbeiter mit dem leitenden Angestellten, der eigentlich der Betrüger ist, wenig oder niemals zusammengearbeitet hat. Ein Fake-President-Betrug erfordert in der Regel relativ viel strategische Planung bzw. zeitintensive Vorbereitung: Online-Verhaltensweisen bzw. die Aktivität des Opfers beobachten, um private Informationen über ihn zu sammeln, eine überzeugende Phishing-Kampagne und einen Plan zur Ausführung aufsetzen usw. Der Angriff beginnt oft als Spear-Phishing, aber letztendlich folgen in den meisten Fällen anhaltende Anrufe – der sogenannte Vishing-Angriff, wodurch der Mitarbeiter noch stärker unter Druck gesetzt wird.

 Kriminelle sind innovativ und sie ändern ständig ihre Techniken

Mitarbeiter müssen diese kennenlernen und ihr Verhalten entsprechend anpassen. Es reicht nicht mehr aus bei Phishing-E-Mails nach Fehlern in der Rechtschreibung, Grammatik und Interpunktion zu suchen. Mitarbeiter benötigen ein Training nach dem New School Security Awareness-Training, das ihnen spezielle Strategien zur Erkennung potenziell schädlicher E-Mails bzw. Anrufe lehrt.

Außerdem sollte es den Trainern die Möglichkeit geben, die Fortschritte der Mitarbeiter bei der Erkennung zu verfolgen und zu messen. Bei gefälschten Telefonanrufen sollten sich Mitarbeiter beispielsweise die Nummer merken, die Antwort einfach verweigern, das Gespräch so schnell wie möglich zu beenden oder die Information mit einem anderen leitenden Angestellten zuerst verifizieren, bevor sie das Gespräch weiterführen. Auf diese Art und Weise halten sie Schäden von ihrem Unternehmen fern.

 Autor: Jelle Wieringa isturity Awareness Advocate bei KnowBe4.

Kritik von von Digitalcourage: „Schluss mit dem Sicherheitstheater!“

Mit der Kampagne „Schluss mit dem Sicherheitstheater!“ kritisiert Digitalcourage, dass Politikerinnen und Politiker Überwachungsgesetze mit „Sicherheit“ begründen. „Aus Sicherheitsgründen“ sei eine sinnentleerte Floskel.

Der Grundrechte- und Datenschutzverein Digitalcourage macht mit einer vielseitigen Kampagne darauf aufmerksam, dass der Verweis auf Sicherheitsgründe häufig missbraucht werde, um Überwachungsbefugnisse zu erweitern und Grundrechte einzuschränken. Digitalcourage wirft der Politik vor, dass Sicherheitsgründe in den meisten Fällen vorgeschoben würden und die damit begründeten Maßnahmen gar nicht zu einem Mehr an Sicherheit führten. Die Verantwortlichen erzeugten und nutzten unbestimmte Ängste, um der Bevölkerung repressive Politik zu verkaufen.

„Freiheit ist unser größter Sicherheitsgarant. Das Grundgesetz gibt uns aus gutem Grund viele Abwehrrechte gegen den Staat. Es ist unsinnig und gefährlich, diese Grundrechte für ein trügerisches Sicherheitsgefühl zu opfern“, sagt Leena Simon von Digitalcourage.

„Politiker die Überwachungsgesetze als Sicherheit darstellen vernachlässigen ihre Sorgfaltspflicht“, erklärt Kerstin Demuth von Digitalcourage. „Häufig werden Maßnahmen die Grundrechte achten und tatsächliche Sicherheit schaffen, gar nicht erst diskutiert.“

Wenn es wirklich um Sicherheit im praktischen Alltag der Menschen ginge, so Digitalcourage weiter, wären ganz andere Maßnahmen notwendig. Die Vorschläge reichen von bezahlbarem Wohnraum über mehr Beratungsangebote, den Kampf gegen den Klimawandel bis hin zum verantwortungsvollen Umgang mit Antibiotika. Digitalcourage schätzt, dass auf diese Weise etwa 80.000 Menschenleben im Jahr gerettet werden könnten.

Der Verein rügt, dass der Verweis auf Sicherheitsgründe in der Politik stets als Vorwand verwendet werde, um sinnlose autoritäre Maßnahmen durchzusetzen, sei es durch gefährliche Überwachungsgesetze oder Präventivhaft.

Mit Beispielen zeigt Digitalcourage, dass „Sicherheitsgründe“ als Vorwand für beinahe alles herangezogen werden können und ruft zum Selbstversuch auf: „Wir begründen jetzt eine Woche lang alles was wir tun mit ‚Sicherheit‘“, erklärt Leena Simon. „Aus Sicherheitsgründen sollten Sie das auch mal ausprobieren.“

 

TÜV Rheinland: Datenschutz und Ethik bei Digital Buildings

Nachbericht zu einer Veranstaltung des TÜV Rheinland Anfang August: Smarte Technik hält seit Jahren Einzug in Gebäude. Dabei steht in vernetzten Immobilien der Datenschutz an oberster Stelle. Seit Mai 2018 regelt die Datenschutz-Grundverordnung (DSGVO) den Schutz personenbezogener Daten vor Missbrauch, oft im Zusammenhang auch mit dem Schutz der Privatsphäre des Einzelnen.

Dabei schützt die DSGVO nicht nur private Nutzer, sondern generell alle Personen, von denen Daten erfasst werden. „Das gilt im gewerblichen Umfeld auch für die Bediener-Erkennung durch Logins, Aktivierung eines Einrichtungsmodus und Wartungsbetrieb, sobald technisch zugeordnet werden könnte, welche Person dies ausführt. Datenschutz ist daher auch für die Betreiber und Bewohner von sogenannten Digital Buildings ein zentrales Thema“, erläuterte Udo Scalla, Global Head Centre of Excellence IoT Privacy, der als Referent im Rahmen des Experten-Roundtable „Digital Buildings: Was ist da eigentlich „smart“ und rechnet sich“ am 08. August in Köln das Thema „Datenschutz und Ethik“ vorstellte.

Privacy by Design und Privacy bei Default

Neu mit Umsetzung der DSGVO sind die Forderungen nach „Privacy by Design“ und „Privacy by Default. Privacy by Design bedeutet „eingebauter Datenschutz“. Bereits bei der Entwicklung soll der Datenschutz berücksichtigt und nicht erst nachträglich aufgesetzt werden. „Datenschutzrisiken sollen von Anfang an vermieden werden.

In Bezug auf IoT-Geräte empfiehlt sich dabei eine Unterscheidung zwischen dem Gerät selbst und den mit dem Gerät verbundenen IoT-Services, zum Beispiel die Steuerung über eine App“, so TÜV Rheinland-Experte Scalla. Privacy by Default steht für datenschutzfreundliche Voreinstellungen. Das betrifft bei IoT-Geräten besonders die Registrierung, die der Nutzer durchführen soll, und insgesamt die App. Es dürfen keine Daten vom Nutzer abgefragt oder Einwilligungen verlangt werden, die nicht für den Service erforderlich sind. „Aus Privacy by Default und anderen gesetzlichen Regelungen leitet sich ab, dass das IoT-Gerät keine Sprache, beispielsweise zur Spracherkennung, und kein Bild übertragen darf, sofern es dem Nutzer nicht offensichtlich sein muss, dass diese Übertragung eine Kernfunktion des Gerätes ist“, so Scalla. „Unsere Praxis zeigt, dass es in fast allen diesen Punkten noch Nachholbedarf gibt.“

Datenschutz und Ethik

Das Spannungsverhältnis von Datenschutz und Ethik und wie es sich möglichst geringhalten lässt, steht im Mittelpunkt des Vortrags von TÜV Rheinland-Experte Udo Scalla. Weitere namhafte IoT-Experten referieren zu den einzelnen Veranstaltungspunkten und stehen für einen intensiven Austausch mit den Teilnehmern zur Verfügung.

Sabotage von smarten Geräten: Studie zeigt, wie Kriminelle Überwachungskameras manipulieren können

Forescout Technologies, Spezialist für Gerätesichtbarkeit und -kontrolle, veröffentlichte jüngst seine Untersuchung “Rise of the Machines: Transforming Cybersecurity Strategy for the Age of IoT“. Dabei zeigt das Team, wie Überwachungskameras, smarte Lichter und andere IoT-Geräte in intelligenten Gebäuden von Cyberkriminellen angegriffen werden könnten und wie man diese Attacken verhindern kann.

„Die heutige vernetzte Welt besteht aus Milliarden von Geräten, die eine Vielzahl von Betriebssystemen und Netzwerkprotokollen verwenden, um Daten über Branchen und Grenzen hinweg auszutauschen“, sagt Elisa Costante, Senior Director der Forescout Research Labs. „Wir haben Forescout Research Labs gegründet, um die Sicherheitsimplikationen dieser hyper-vernetzten Welt zu erforschen und die damit verbundenen Bedrohungen und Risiken zu untersuchen, die von diesen Geräten ausgehen.“

Die Forschung hebt folgende Ergebnisse hervor

  • Viele IoT-Geräte, einschließlich Überwachungskameras, sind standardmäßig so eingerichtet, dass sie über unverschlüsselte Protokolle kommunizieren, was das Abgreifen und Manipulieren vertraulicher Informationen ermöglicht.
  • Eine Suche über Shodan ergab fast 4,7 Millionen Geräte, die durch die Verwendung dieser unverschlüsselten Protokolle potenziell beeinträchtigt werden könnten.

Laden Sie den vollständigen Bericht herunter, um mehr darüber zu erfahren, wie IoT-Geräte als Einstiegspunkt in das Netzwerk eines Gebäudes genutzt werden können.