Schlagwort-Archiv: Gesellschaft

 „Urbane Logistik: notwendig, möglich, gestaltbar – es braucht Willen zur Gestaltung“

Prof. Dr.-Ing. Thomas Wimmer ist Vorsitzender der Geschäftsführung bei der Bundesvereinigung Logistik e.V. (BVL)

Prof. Dr.-Ing. Thomas Wimmer ist Vorsitzender der Geschäftsführung bei der Bundesvereinigung Logistik e.V. (BVL)

In Deutschland erleben wir einen neuerlichen Trend der Verstädterung. Für Städte bietet sich die Chance, die Lebensqualität ihrer Bürgerinnen und Bürger durch mutige Schritte im Bereich der Urbanen Logistik erheblich zu verbessern. Sie ist ein zunehmend komplexes Handlungsfeld mit vielfältigen Akteuren und Stakeholdern. Eine eindeutige Rollenverteilung ist noch nicht erfolgt. Das Spiel um die Organisation und Ausgestaltung der Urbanen Logistik ist offen. Wir werden in näherer Zukunft interessante Modelle und Veränderungen erleben.

Städtische Infrastruktur ist historisch gesehen verschiedenen Entwicklungsschüben unterworfen gewesen. Eine erste Phase enormer Verstädterung begann in Europa zur Mitte des 19. Jahrhunderts. Einer der wichtigsten Antriebe dafür war die zunehmende Industrialisierung, die zu explosionsartigem Zuzug von arbeitsuchender Landbevölkerung führte.

Die bestehende Infrastruktur – Wohnungsbau, Verkehrswege, Versorgungsleitungen und vieles mehr – war hierfür nicht ausgelegt. Die aus Wachstum und Verdichtung der Städte als soziale Frage definierte Not großer Teile der städtischen Bevölkerung führte zu einer Reihe technischer und infrastruktureller Innovationen, insbesondere im Bereich Wasserversorgung und Kanalisation.

Der Bau großer Mietskasernen erforderte zudem deren Versorgung mit Energie, zunächst mit Kohle, später mit Gas und Strom (aus Verbrennung von Kohle). Die Anlieferung erforderte Eisenbahn- und/oder Wasserwege. Hieraus resultierte häufig eine Verschiebung der Stadtgrenzen nach außen. Die Städte wuchsen weiter, benötigten aber Nahverkehrsstrukturen, um Arbeiterinnen und Arbeiter über zum Teil lange Distanzen zu den immer öfter außerhalb des Stadtzentrums gelegenen Fabriken transportieren zu können.

Im Jahr 2005 lebten weltweit ca. 49 Prozent der Bevölkerung in Städten. Bis zum Jahr 2030 könnte dieser Anteil auf 60 Prozent steigen. In Deutschland erleben wir nach der Periode einer Suburbanisierung in der zweiten Hälfte des 20. Jahrhunderts seit einigen Jahren einen neuerlichen Trend zur Land-Stadt-Wanderung.

Laut jüngeren Prognosen wird in Deutschland der in Städten lebende Bevölkerungsanteil von derzeit gut 77 Prozent auf 78,6 Prozent im Jahr 2030 ansteigen und bis 2050 auf gut 84 Prozent wachsen. Auch Familien mit Kindern zieht es häufiger als früher in die Stadt beziehungsweise sie wandern nicht mehr ins Umland ab.

Der neuerliche Trend zum Wohnen in der Stadt lässt diese bereits jetzt spürbar wachsen. Verkehrsdichte und Wohnkosten sind Teil der aktuellen politischen Debatte.

Waren im 19. und 20. Jahrhundert infrastrukturelle Innovationen häufig in Neubaugebieten zu realisieren oder ließen sich vergleichsweise einfach in bestehende Strukturen integrieren, stellt die heutige Verdichtung bestehender städtischer Strukturen Verkehrs- und Stadtplaner sowie andere Akteure vor anders gelagerte Herausforderungen. Darüber hinaus hat sich die Gesetzgebung zu Planung und Realisierung von Infrastrukturprojekten gewandelt. Es ist nicht mehr mit einem am Reißbrett entworfenen „Masterplan fits it all“ getan.

Die Versorgung bereits bestehender Stadtteile als auch neuer Quartiere und ihrer Bewohner mit Gütern kann nur durch eine leistungsfähige Logistik erfolgen. Dennoch fehlt in der Wissenschaft wie auch in Politik und Verwaltung häufig Einsicht oder die Bereitschaft, Güterverkehre und Logistik als Eigenschaft und notwendige Voraussetzung städtischen Daseins zu verstehen und integriert zu berücksichtigen (Schwedes, Rammler; 2012; Mobile Cities).

Es sind gleichwohl Städte und Gemeinden selbst, denen aufgrund ihres Selbstverwaltungsrechts „unterhalb“ der staatlichen Ebene eine wichtige Akteursqualität in der Ausgestaltung der Urbanen Logistik zufällt. Laut Grundgesetz ist ihnen die Regelung der „örtlichen Angelegenheiten“ überlassen.

Zugleich entscheiden aber Bundes- und Landesverwaltungen über den Rahmen der kommunalen Aufgaben und Kompetenzen sowie ihre finanzielle Mittelausstattung. Bei zentralen Planungs- und Investitionsentscheidungen sprechen die Bundesländer ebenfalls ein gewichtiges Wort mit. Bundesgesetze sind dabei in erheblichem Maße zu berücksichtigen (vgl. Jungfer 2005 und Bogumil/Holtkamp 2006).

Stadtbewohner denken bei Verkehrsströmen in ihrem Umfeld zuweilen an den (eigenen) Individual- oder öffentlichen Nahverkehr.

Diese sind tendenziell positiv konnotiert. Lieferwagen, Lkws in Werks- und Versorgungsverkehren werden hingegen als eher störend empfunden. Der (Güterverkehrs-)Logistik wird demnach in der Stadt eine Rolle zugeschrieben, wie sie vor einigen Jahrzehnten in den Betrieben und der Betriebswirtschaft wahrgenommen wurde: Sie wird als selbstverständlich gegeben und als Teil eines größeren Systems akzeptiert und als etwas lästig empfunden – sofern überhaupt wahrgenommen.

Die Wahrnehmung änderte sich radikal in den vergangenen rund 40 Jahren. Gegenwärtig wird Logistik meistens als eigenständiger und zentraler Bestandteil der Wertschöpfungskette betrachtet. Auf dem Gebiet der städtischen Logistik stellen Firmen und Forscher bereits heute Lösungsansätze für eine Urbane Mobilität der Zukunft bereit.

Beispiel: Das Fraunhofer IML zeigt mit seinem Projekt GeNaLog zur geräuscharmen Nachtlogistik, dass die Umsetzung von Nachtbelieferungen gelingen und so zur Entlastung des Tagverkehrs beitragen kann. Hürden für eine konsequente Nutzung stellen unter anderem fehlende Einfahrerlaubnisse, Regelungen zur Geräuschemission und meist nicht optimierte Ladungsträger dar.

Darüber hinaus erproben eine Vielzahl von Start-ups wie auch bekannte Dienstleister aus der Paketzustellung neue Modelle der Warenbeförderung. Fahrzeuge der Sprinter-Klasse etwa werden durch Lastenfahrräder in verschiedenen Formen ersetzt. Diese Marktoffenheit ermöglicht es Start-ups, mit unterschiedlichen Konzepten und Geschäftsmodellen in den Wettbewerb zur Gestaltung zukünftiger Stadtlogistik einzutreten (Rytle, Kitcar u.a.).

Bekannt sind auch völlig neu konzipierte Lieferwagen mit Elektroantrieb, die gegenüber einem Lastenrad mehr Volumen transportieren und vor Ort weniger Lärm und Abgas produzieren als herkömmlich motorisierte Wagen.

Alle hier gewählten Beispiele zeigen, dass auf technischer Seite Fortschritte gemacht wurden. Viele Initiativen und technische Innovationen stoßen gleichwohl an Grenzen: Wenn sie zwar mit den Städten in deren gegenwärtigem Ist-Zustand arbeiten können und auf freien Flächen vor allem Wohn- und Büroquartiere entstehen, gleichzeitig aber keine „Räume städtischer Logistik“ vorgehalten werden. Logistiker liefern also bereits jetzt Innovationsangebote für eine Urbane Logistik, die aber in den Städten häufig noch nicht ausreichend mitgedacht wird.

Logistische Lösungen benötigen eine zeitgemäße Infrastruktur.

Dazu gehören Rad(schnell)wege, flexible Einfuhr- und Belieferungsbestimmungen, Entzerrung der Verkehre und vor allem ein abgestimmtes Mobilitätskonzept, das unbedingt auch städtische Logistik als eigene Betrachtungsgröße integriert. Jede Bürgerin, jeder Bürger einer Stadt ist auf die ein oder andere Weise zugleich Mobilitätsteilnehmer. Die Logistikorganisation in der Stadt wird sich stets an der existierenden Infrastruktur orientieren.

Gibt es reichlich auf Individualverkehre ausgelegte Verkehrswege, ist deren Mitbenutzung durch Lieferverkehre mit 3,5t-Fahrzeugen der Sprinter-Klasse die logische Folge. Als Alternative zum Status quo gilt eine Ausrichtung auf einen größeren Verkehrsmittelmix. Ein größerer Anteil von Kollektivverkehren würde eine neue Gestaltung von Urbanen Räumen ermöglichen und böte Logistikern einen Rahmen, um eine Stadt im Sinne der dort lebenden Bürger aufzuwerten. Dazu gehören auch Flächen für die städtische Logistik zur Gestaltung von Prozessen des Waren-Handling.

Bisher ist die Logistik als Neuansiedlung bis auf wenige, sehr kostspielige Ausnahmen (Abrechnung für Logistikimmobilien derzeit als Mietpreis je qm in zentralen Lagen – Wasserwerke zahlen keinen Mietpreis) am Stadtrand oder gar im Umland beschränkt.

Ein ausgeprägtes Bewusstsein für die Funktion von Logistik in der Stadt fehlt bei allen Akteuren (Bewohnern, Handel, Politik, Verwaltung etc.). In Initiativen für die Stärkung des städtischen Einzelhandels wird eine täglich mehrfach erfolgende Belieferung als Stand der Dinge erwartet, die Anlieferung aus einem entfernten Logistikzentrum bleibt jedoch verpönt. Die bigott anmutende Diskussion kreist somit um extrem hohes Straßenverkehrsaufkommen aufgrund umfänglicher Touren aus dem Umland und der gleichzeitigen Verneinung bzw. Nicht-Diskussion von innerstädtischen Lager- und Umschlagsflächen.

Diese wären eine Grundlage für die Umsetzung verkehrsberuhigter Anlieferungen. Hier entstehende Arbeitsplätze lägen zudem dichter an Wohngebieten. Reduziertes Pendeln würde außerdem verkehrsentlastend wirken und vor allem Emissionen einsparen. Die Logistik kann ihre Lösungen nur innerhalb der gesetzten Rahmenbedingungen anbieten und ist somit auf die Zusammenarbeit mit anderen Wirtschaftsbereichen, Verwaltung und Politik angewiesen.

Offensichtlich ist also das Thema der Gestaltung Urbaner Logistik kein rein wirtschaftliches Thema – das sollte und darf es nicht sein! Die verschiedenen Akteure bzw. Stakeholder einer Stadt sind gleichwohl derzeit noch nicht ausreichend, geschweige denn vollumfänglich erfasst. Zu den Stakeholdern zählen etwa der Einzelhandel, Gastronomen (insb. mit Außenbereichen), Logistikdienstleister, Wirtschaftsförderer, Stadtplaner, Quartiersmanager, Bürger, Immobilienentwickler und andere.

Eindeutige Rollenbeschreibungen fehlen sehr häufig, viele Akteure handeln in mehreren Rollen. Trennt die klassische Logistik zwischen Verlader, Transporteur und Empfänger ist die Urbane Logistik deutlich vielschichtiger. Mit Ansätzen wie dem Engagement von Kunden als Transporteuren werden Grenzen zwischen Stakeholdern zusätzlich verwischt.

Die Wünsche von End- und Geschäftskunden werden zudem anspruchsvoller: Die Ware soll schnell verfügbar, ökologisch sauber transportiert sein und unter als fair wahrgenommenen Arbeitsbedingungen geliefert werden. Gleichzeitig verhalten sich Kunden höchst preissensibel bei Lieferkosten. Sie erhöhen so den Kostendruck auf Logistikdienstleister und beklagen den „Wilden Westen“ des innerstädtischen Verkehrs – Staus, Emissionen, zugeparkte Wege und Einfahrten, fehlende Belieferungskonzepte etc.

Das Thema Wohnen überwiegt zudem in den Agenden der meisten größeren und mittelgroßen Städte und ihrer Bürger. Politischen Willen bzw. die Initiierung eines Willensbildungsprozesses kann die Logistik erfolgreich alleine kaum erwirken, ohne in den Verdacht zu geraten, Partikularinteressen zu verfolgen. Aufgrund ihres bisher hohen Flächenverbrauchs wird sie klassisch mit Fahrzeugen und Hallen zudem schnell als lästig, teuer oder als für das Stadtbild unattraktiv abqualifiziert. Es geht gleichwohl um mehr Imagebildung!

Deswegen benötigt es politische Initiative: Hier sei beispielhaft auf die knapp 30.000 Einwohner zählende Stadt Bad Hersfeld verwiesen, die eine neue Form der Innenstadtbelieferung definierte. Verwaltungsseitig gibt sie den Logistikern den Raum, innerhalb exakter Vorgaben die neuen Lieferkonzepte wirtschaftlich tragbar auszugestalten. Ein Hub außerhalb der Innenstadt dient als Anlieferungs- und Umschlagspunkt, von ihm erfolgt zentral und gebündelt die Auslieferung an die Privat- und Geschäftskunden in der Fußgängerzone.

Die gebündelten Transporte sollen den Verkehr in der Fußgängerzone reduzieren und somit Konflikte zwischen Transporteuren, Anliegern, Ordnungsamt und Fußgängern drastisch reduzieren helfen. In die gleiche Richtung weist die Initiierung von Mini-Depots, an die sich Kunden der Geschäfte ihre Einkäufe liefern lassen können, um sie dort gebündelt abzuholen oder sie von dort nach Hause liefern zu lassen. Das Beispiel zeigt auf, dass es also nicht um schlichte Lieferzeitbeschränkungen geht, sondern um die Entwicklung und Möglichmachung von alternativen Konzepten.

Fazit: Aufgrund geänderter Ansprüche und Konsumgewohnheiten, Umweltschutzgedanken und weiterer Urbanisierung der Gesellschaft herrscht erneut Handlungsbedarf für einen Entwicklungsschub in der Organisation und Ausgestaltung städtischer Mobilität und Logistik. Die Herausforderungen waren auch im 19. Jahrhundert nicht klein. Eine konsequente Nutzung vorhandener technischer

Autor: Prof. Dr.-Ing. Thomas Wimmer, Vorsitzender der Geschäftsführung; Christoph Meyer, Leiter Forschung und Veranstaltungen; Sebastian Huster, Projektmanager, Bundesvereinigung Logistik e.V. (BVL). Prof. Dr. Thomas Wimmer ist Referent in der EXCHAiNGE-Session ”Start-ups, Corporates or Customers: Who is actually doing the Innovation?” am 20.11.2018 (Hypermotion-Lab | Ausstellungsbereich Halle 5.1)

 

Mit Sicherheit auf dem Weg in die Plattformökonomie

Bildquelle: Fotolia_146248266_M

Bildquelle: Fotolia_146248266_M

Wenngleich in den Diskussionen rund um das Thema Plattformökonomie der Fokus zumeist auf die Geschäftsmodelle gelegt wird, gibt es mittlerweile vermehrt Jene, die eine Technologiebetrachtung als bedeutender erachten.

Auch bei der Beurteilung von Chancen und Risiken herrscht keine Einigkeit – während von einigen Experten die Plattformökonomie als das probate Mittel im globalen Wettbewerb ausgewiesen wird, sehen andere wie etwa Prof. Lutz Becker, Leiter der Business School und Studiendekan Sustainable Marketing & Leadership an der Hochschule Fresenius, Köln hier gleichwohl Probleme.

So vertritt er unter anderem die Auffassung, dass „Plattformen aufgrund ihrer Marktmacht die Wirtschaftsverfassung unterhöhlen“. Ebenso müsse hinterfragt werden, wie die zunehmende Komplexität noch kontrollierbar sei. Eine Frage, die – im Sinne der Resilienz – definitiv auch im Kontext der notwendigen Sicherheit zu stellen ist. „Denn festzuhalten ist, dass die Plattformökonomie Angebot und Nachfrage datenbasiert zusammenbringt“, so Bernd Fuhlert, Experte für Datenschutz und Online Reputation Management sowie Geschäftsführer der @-yet GmbH

Bezüglich des digitalen Durchdringungsgrads und einer daraus resultierenden Effizienzsteigerung gibt es momentan bei deutschen Unternehmen kaum ein einheitliches Bild. Die eher zögerliche Haltung liegt teilweise darin begründet, dass sich vielfach – basierend auf dem bestehenden Geschäftsmodell – noch kein strategischer Ansatz für ein neues, disruptives entwickeln ließ; sowie damit einhergehend auch, dass sich aus den bisherigen Aktivitäten in Richtung digitale Transformation, gemäß den Ergebnissen einer aktuellen Lünendonk-Studie, momentan nur wenig Wettbewerbsvorteile ergeben.

Gleichwohl werden jedoch bereits weitere programmatische Schritte unternommen: die Etablierung digitaler Plattformen im industriellen Umfeld. Diese Entwicklung ist erklärbar, denn zum einen ist eine gewisse Dringlichkeit nicht zuletzt aus dem Grund geboten, weil sich hier, anders als im Konsumentenbereich, noch keine Vormachtstellung internationaler Unternehmen herausgebildet hat.

Zum anderen sind Grundprinzip und Erfolgsrezept der bekannten Unternehmen wie Amazon oder Airbnb relativ gut reproduzierbar – mehrseitige Plattformen erleichtern im erheblichen Maße Interaktion und Transaktion zwischen unterschiedlichen Parteien.

Doch über den Erfolg wird bei den industriellen Plattformen auch, weitaus mehr als im Konsumentenbereich, die Gewährleistung der Sicherheit entscheiden. Nicht zuletzt unter dem Aspekt, dass „Wirtschaftsspionage seit jeher einer der Schwerpunkte der Ausspähungsaktivitäten fremder Nachrichtendienste ist“ wie Michael George, Leiter Cyber-Allianz-Zentrum, Bayerisches Landesamt für Verfassungsschutz erklärt.

 Mögliche Angriffsziele

Die grundsätzliche Betrachtung von Plattformen erfasst zwei Dimensionen: die wirtschaftliche sowie die technologische. Gemäß letzterer basiert die Plattformökonomie unter anderem im ersten Schritt auf dem Zusammenwachsen von Informationstechnologie (IT) mit der Operational Technologie (OT) auf dem Shop Floor. Denn dies ermöglicht, im Rahmen von Industrie 4.0 die Vernetzung einzelner Unternehmensebenen sowie eine unternehmensübergreifende Vernetzung mit Kunden und Lieferanten.

Im Weiteren ergeben sich dann, aus der vertikalen und horizontalen Integration auf der einen Seite, in Verbindung mit Plattformtechnologien wie Infrastructure as a Service (IaaS) auf der anderen Seite die Voraussetzungen für neue Geschäftsmodelle, da dadurch die Einsetzbarkeit zur Interaktionen sowie Transaktionen mit vielen unterschiedlichen Marktteilnehmern besteht. Hierin liegen jedoch nicht nur Chancen sondern auch Risiken. Denn, so die Erfahrung von Michael George, „Angriffe sind umso erfolgreicher, je zielgerichteter sie ausgeübt werden können“. Aus diesem Grund optimieren Angreifer ihre Methoden beständig.

So beobachtet der Experte momentan, dass die so genannte Watering-Hole-Attacke vermehrt zum Einsatz kommt. Diese basiert – entlehnt aus dem Tierreich in der Wüste – auf der Annahme, dass es bestimmte Portale, Plattformen oder Systeme gibt, die viele Anwender mit hoher Wahrscheinlichkeit oft aufsuchen müssen.

Dem Gedanken aus der Tierwelt folgend, werden Anwender also nicht direkt angegriffen, sondern das von ihnen zwangsläufig genutzte ‚Wasserloch’ infiziert, da dies weitaus effizienter und wirkungsvoller ist. In der Praxis wurden entsprechende Angriffe zum Beispiel auf Unternehmen aus dem Energiesektor durchgeführt – unter anderem indem die Webseiten eines Anbieters unter Ausnutzung einer Sicherheitslücke dergestalt manipuliert wurden, dass Rechner von Besuchern hinterher mit Schadsoftware in Form eines Fernsteuerungs-Trojaners (RAT) infiziert waren.

Zudem werden permanent gravierende Schwachstellen publik gemacht: Beispielsweise aktuell die Sicherheitslücken Spectre und Meltdown – letzterer in erster Linie detektiert bei Prozessoren von Intel – aus denen sich verschiedene Zugriffsmöglichkeiten, wie etwa das Auslesen von Speichern, ergeben. Auch wenn sich nach Ansicht von Prof. Becker ein Angriff über Spectre keinesfalls leicht realisieren lässt, so geht er doch davon aus, dass diese Lücke ausgenutzt wird „weil sich ein erhöhter Aufwand immer lohnt, wenn mit einer einzigen Attacke viel erreicht werden kann“. Zusätzlich gefährdet seien Unternehmen auch, da oftmals noch – gerade im Produktionsumfeld – veraltete Hard- und Software vorzufinden ist, die per se nicht mehr den erforderlichen Sicherheitsstandards entsprechen kann. „Insgesamt gesehen stellt“, so Bernd Fuhlert, „also Digitalisierung ohne IT-Sicherheit im Fokus klar erkennbar ein unkalkulierbares Risiko für Verbraucher und Unternehmen dar.“

Der richtige Schutz

Im Zuge von Industrie 4.0 ist es nicht mehr möglich, ein Unternehmen nach außen komplett abzuschotten, da dies dem Prinzip der notwendigen durchgängigen Kommunikation und Interaktion widerspricht. Von daher nutzt es nach Ansicht von Michael George nur wenig, sich darauf zu fokussieren alle internen Schnittstellen wie USB-Ports und DVD-Laufwerke abzusichern, während zwangsläufig durchlässige Übergänge zum Internet bestehen. Aber da auch die herkömmliche Perimeter-Sicherheit, mittels derer die Übergänge zwischen Unternehmensnetzwerk und Internet geschützt werden sollen, nicht mehr ausreichen, müssen Unternehmen generell umdenken.

Seit 2016 ist Bernd Fuhlert Geschäftsführer der @yet GmbH.

Seit 2016 ist Bernd Fuhlert Geschäftsführer der @yet GmbH.

Folglich sollte, nach Meinung von Fuhlert und George, die Grundlage der Abwehrstrategie die Annahme bildet, dass „es ein Angreifer erfolgreich schafft, bis ins interne Unternehmensnetzwerk vorzudringen“. Dass dieser Gedanke substanziell ist, darin sind sich beide Experten einig. Denn daraus lässt sich ableiten, dass die Durchführung geeigneter Gegenmaßnahmen darauf basieren, den Angreifer möglichst zeitnah zu identifizieren. Wobei dies wiederum nicht so zu verstehen sei, dass Unternehmen dem Aufdecken und Absichern von Schwachstellen keine oder nur wenig Bedeutung mehr beimessen sollten.

Ein weiterer wesentlicher Ansatz – gerade im Kontext der Plattformökonomie – ist nach Meinung von George der Austausch von Angriffsmethoden und Erfahrungswerten zwischen den Unternehmen über eine neutrale Plattform. Dies sei von daher sinnvoll, da somit schnellstmöglich und effizient nach Lösungsmöglichkeiten zur Ab- und Gegenwehr gesucht werden könne.

Plattformen – mehr mögliche Risiken

Lutz Becker, selbst viele Jahre in der IT-Industrie tätig, sieht jedoch im Kontext der Plattformökonomie nicht nur Risiken im Bereich der IT-Sicherheit, sondern vorrangig angesichts ökonomischer Aspekte. Plattformen können seines Erachtens nicht nur eine wirtschaftliche Marktmacht entfalten, wie es heute bei Google, Apple, Facebook oder Amazon sichtbar wird, sondern auch Auswirkungen auf ganze Marktsegmenten, etwa dem Tourismus, haben. Denn sie substituieren wichtige Funktionen des Marktes und hebeln damit unter Umständen dessen Freiheit aus. „Ludwig Erhard hat das Wettbewerbsrecht völlig zurecht als Wirtschaftsverfassung bezeichnet“, so Becker, „wir beobachten aber im Moment, dass dieses Recht, nicht den tatsächlichen Gegebenheiten der Digitalen Welt gerecht wird, also so gesehen, ein zahnloser Tiger ist. Was wir also benötigen ist eine neue Wettbewerbsordnung für die digitale Welt.“

Für ihn steht vor allem dabei die Frage der Resilienz im Mittelpunkt. Plattformen legen die Spielregeln der Märkte fest haben und haben damit immer auch eine Gate-Keeper-Funktion. Das macht sie einerseits effizient, aber andererseits anfällig. Märkte hingegen, in denen sich die Spielregeln und Austauschbeziehungen im Zusammenspiel der vielen unabhängigen Marktteilnehmern entwickeln, sind deutlich resilienter, aber eben nicht so effizient. Folglich liegt für ihn die Wahrheit in der Mitte.

Fazit

Allein aufgrund der steigenden Komplexität sowie im Sinne der Resilienz gilt es Maßnahmen und Methoden zum Schutz gegen Angriffe neu zu überdenken.

Damit einhergehen muss unter anderem das Clustern in Sicherheitsbereiche, was – heruntergebrochen auf die Unternehmen – ein ganzheitliches Risikomanagement erfordert. Für den Entwurf der weiteren Strategie zur Absicherung bedarf es hier, so Fuhlert, dann „erst einmal, das wertvolle unternehmensinterne Know-how zu identifizieren und im nächsten Schritt zu definieren, wie sich dieses mit entsprechenden Lösungen schützen lässt“. Dafür sollten die bekannten Maßnahmen wie Patch-Management oder Segmentierung der Netzwerkbereiche – auch wenn sie natürlich kein Allheilmittel sind – zum Einsatz kommen, denn diese bieten die Grundlage für ein gutes Schutzniveau. Aber entscheidend aus Sicht von Bernd Fuhlert ist ferner, dass „die Politik für die Plattformökonomie einen Ordnungsrahmen setzen muss, damit Sicherheit endlich den richtigen Stellenwert bekommt und nicht blind digitalisiert wird“. Zudem sollte hierüber auch ermöglicht werden, global faire Spielregeln für alle – kleine nationale ebenso wie multinationale – Unternehmen zu gewährleisten, um eine Benachteiligung aufgrund individueller Gesetzgebungen auszuschließen.

Coester_Ulla_2016

Ulla Coester, xethix.com/xethix-Diskurs®, Dozentin Hochschule Fresenius und wissenschaftliche Mitarbeiterin skip. Institut für angewandte digitale Visualisierung e.V an der Hochschule Fresenius

Dieser Artikel erschien in verkürzter Form in der IT&Production, Ausgabe März 2018, Teo Verlag GmbH (Seite 74/75)

Bedford-Strohm: Digitalisierung weder Verheißung noch Verhängnis -„Ethik der Algorithmen“

Die Digitalisierung ist für den Vorsitzenden des Rats der Evangelischen Kirche in Deutschland, Heinrich Bedford-Strohm, „weder Verheißung noch Verhängnis“. Es gelte vielmehr, sie verantwortungsvoll zu gestalten, so das „Dom-Radio“. … mehr

 

Digitale Ethik im Datenkosmos

Ein Bericht im Behördenspiegel: Obwohl die Digitalisierung den Datenaustausch und die Kommunikation extrem beschleunigt und erleichtert hat, wohnen der globalen Vernetzung Schattenseiten inne. Um ein wirksames Regulativ gegen Cybermobbing, Hate Speech, Trolling und Co. zu besitzen, wirbt die Digitale Ethik für korrekte Verhaltensweisen im Internet. Sie ist ein Leitfaden für den zivilen Umgang im Netz. … mehr …

 

Um die Digitalisierung zu meistern, müssen wir kooperieren

Autorin Dr. Edeltraud Leibrock schreibt in der „Welt“: VUCA – mit diesem Akronym fassen wir die Herausforderungen zusammen, denen wir uns in einer zunehmend digitalisierten Welt stellen müssen. Es steht für „volatile, uncertain, complex, ambiguous“. Genau diese Unbeständigkeit, Unsicherheit, Komplexität und Mehrdeutigkeit ist es, die uns derzeit überall umtreibt. … mehr …

 

Digitale Ethik: Den digitalen Raum verantwortungsvoll gestalten

Wer reguliert die Algorithmen? Wer kontrolliert Systeme maschinellen Lernens? Wer bereitet die Jugend auf die digitale Arbeitswelt vor, und wer bildet die Menschen mittleren Alters weiter? Politische Fragen bestimmten die Jahrestagung der Gesellschaft für Informatik in Berlin, berichtet der „Deutschlandfunk“. … mehr ..

 

Sharewashing“ unterspült Kultur des Teilens

ShareconomyDie aufstrebende Sharing Economy des Internets hat ein Image-Problem: Wenn Werte wie Kooperation und Nachhaltigkeit auch von traditionell profitorientierten Plattformen reklamiert werden, bewirkt das Verunsicherung und Distanz gegenüber der gesamten Branche. Diesen Effekt des so genannten Sharewashing haben Forscher des Karlsruher Instituts für Technologie (KIT) in einer umfragebasierten, im Online-Journal Sustainability veröffentlichten Studie erstmals belegt.

Das elementare Prinzip des Teilens verbindet Gemeinschaften

Das elementare Prinzip des Teilens verbindet Gemeinschaften und trägt dazu bei, Ressourcen sinnvoll zu nutzen. Auf Internet-Plattformen ist Teilen zum Ausgangspunkt neuartiger Geschäftsmodelle geworden. Die aufstrebende, sich ausdifferenzierende „Sharing Economy“ läuft jedoch Gefahr, das Grundvertrauen ihrer Nutzerinnen und Nutzer im Marketing-Nebel einflussreicher Trittbrettfahrer zu verlieren.

„Auch eher kommerziell orientierte Plattformen wie Uber oder Airbnb haben sich in ihrem Marketing positiv besetzte Sharing-Werte wie Kooperation und Nachhaltigkeit auf die Fahnen geschrieben“, stellt Florian Hawlitschek vom Institut für Informationswirtschaft und Marketing (IISM) des KIT fest. Wie die Wahrnehmung dieses als Sharewashing bekannten Phänomens die Nutzer von Peer-to-Peer-Sharing-Plattformen beeinflusst, hat ein Team von IISM-Forschern nun erstmals empirisch untersucht.

In einer systematischen Befragung von 145 jungen, internetaffinen Verbraucherinnen und Verbrauchern konnten die Wissenschaftler zeigen, dass Sharewashing dort, wo Nutzer darauf aufmerksam werden, häufig entweder Verwirrung bewirkt – im Hinblick auf positive und negative Effekte der Plattformnutzung – oder das Gefühl, unabsehbare soziale und ökologische Risiken einzugehen. „Der damit einhergehende Vertrauensschwund“, erläutert Co-Autor Professor Timm Teubner von der Technischen Universität Berlin, „gilt zunächst dem Betreiber der jeweiligen Plattform. Mittelbar beschädigt er jedoch die gesamte Sharing Economy und die sie auszeichnende Kultur des Teilens.“

Dieser Befund ist brisant, insofern Vertrauen als Schlüsselfaktor für das Teilen beziehungsweise die gemeinsame Nutzung von, zum Beispiel, Autos, Wohnungen und Lebensmitteln gilt. „Für Betreiber von Plattformen und Geschäftsmodellen, die in der öffentlichen Wahrnehmung mit dem Sharing-Begriff assoziiert werden, ist es deshalb wichtig, die von uns beschriebenen Zusammenhänge und Mechanismen zu beachten und in ihre Corporate Social Responsibility-Strategien einzubeziehen“, sagt Florian Hawlitschek, Hauptautor der Studie. Zugleich, betont Hawlitschek, müsse die Selbstdarstellung von Unternehmen, die auf Teilen tatsächlich gar nicht angelegt sind, „nicht raffinierter werden, sondern ehrlicher“.

Corporate Social Responsibility-Strategie

Die Studie baut auf der durch die Goldmedia-Gruppe ausgezeichneten Bachelor-Arbeit von Patrick Tu sowie auf einem Konferenzbeitrag der Autoren beim 4th International Workshop on the Sharing Economy, in Lund, Sweden, auf.

 Sharewashing

Der englische Begriff „Sharewashing“ – eine Verbindung von „to share“ (teilen) und „to whitewash“ (beschönigen) – existiert erst seit wenigen Jahren. Der Begriff gilt als Analogiebildung zu dem seit den frühen 1990-er Jahren gebräuchlichen „Greenwashing“, welches die Marketing-Aktivitäten von Unternehmen (etwa Ölfirmen) bezeichnet, sich, in Kontrast zu ihrem tatsächlichen Geschäftsgebaren, ein „grünes“, d. h. umweltbewusstes und nachhaltigkeitsorientiertes, Image aufzubauen.

Sharewashing bezeichnet eine ganz ähnliche Art der Verbrauchertäuschung, jedoch im Kontext der digitalen Plattform-Ökonomie: Unternehmen bzw. Plattformbetreiber betreiben Sharewashing, wenn sie sich als Teil der idealistisch grundierten, sozial und ökologisch ausgerichteten Sharing Economy präsentieren, während ihr tatsächliches Geschäftsmodell schlicht auf Profit abzielt.

Digitalisierung verstärkt ethische Dilemmata

Keine Frage: Nicht alles, was technisch möglich ist, ist gesellschaftlich wünschenswert. Deshalb tauchen in Zeiten des digitalen Wandels auch laufend neue ethische Problemfelder auf. Wo die heimischen Unternehmen hier stehen und welche Ansätze es gibt, diese Fragen zu lösen, haben Experten bei einer Veranstaltung der Plattform „Digital Business Trends“ (DBT) in Wien, diskutiert, so in der Wirtschaftszeitung“ zu lesen. … mehr

 

 

Warum künstliche Intelligenz Wissen und Regulierung braucht

Wolf Ingomar Faecks ist Senior Vice President und Industry Lead Automotive/Mobility/Manufacturing/Health bei  Publicis.Sapient EMEA/APAC.

Wolf Ingomar Faecks ist Senior Vice President und Industry Lead Automotive/Mobility/Manufacturing/Health bei Publicis.Sapient EMEA/APAC.

Noch ein Beitrag über die Möglichkeiten der Künstlichen Intelligenz? Oder eher einer über deren Risiken? Wolf Ingomar Faecks, im Management einer Digitalberatung, plädiert dafür, den Menschen klar zu machen, dass Künstliche Intelligenz dem Menschen das Denken nicht abnehmen kann und darf.

Das Hype-Thema „Künstliche Intelligenz“ (KI) besteht aus zwei Bestandteilen: „Künstlich“ und „Intelligenz“. Wie diese beiden Bestandteile derzeit in der medialen Berichterstattung durcheinandergemischt werden, reicht von kritikloser Bewunderung über sehr gemischte Gefühle bis hin zu kategorischer Ablehnung.

Wolf Ingomar Faecks, Senior Vice President und Industry Lead Automotive/Mobility/Manufacturing/Health, Publicis.Sapient EMEA/APAC, ist Experte für die digitale Business Transformation der Publicis Groupe. Er befasst sich seit Jahren mit den unterschiedlichen Facetten der KI. Im Interview erzählt er, warum die so genannten Clarke‘schen Gesetze* und insbesondere die These, dass „jede hinreichend fortschrittliche Technologie nicht von Magie zu unterscheiden sei“, so gut zu Künstlicher Intelligenz passen und warum KI zum Denken anregen sollte.

 Xethix: Die Geschwindigkeit in der technologischen Weiterentwicklung hat zugenommen und eine Regulierung findet meist erst dann statt, wenn etwas passiert ist. So werden Ängste geschürt. Wie ließe sich das besser machen?

Faecks: Nicht nur die Geschwindigkeit der technologischen Entwicklung nimmt zu. In immer kürzerer Zeit wird eine steigende Masse an Informationen produziert und verbreitet. Doch ein Mensch kann nur linear denken, nicht exponentiell. Das würden die Menschen aber sehr gern. Deswegen unterliegen viele der Fehleinschätzung, dass sie in exponentiellen Umfeldern mehr Zeit haben, alle diese Informationen aufzunehmen – und ihnen auch generell mehr Zeit zur Verfügung steht. Das stimmt aber nicht und so entsteht ein Informations-Gap zwischen Fakten, tatsächlichem Wissen und gefühltem Wissen. Daher laufen heute viele Personen Gefahr, Falschinformationen aufzusitzen. Und das ist dann wiederum die Ursache, warum so viele beim Thema Künstliche Intelligenz so diffuse Ängste verspüren.

Xethix: Der Informatiker und Philosoph Jaron Lanier hat in seinem neuen Buch die These formuliert, dass die Bösen keine Angst vor dem Einsatz von Künstlicher Intelligenz haben und fordert deswegen auch eine Regulierung, um die Guten zu schützen.

Faecks: Hier kommt das so genannte Clarke‘sche Gesetz ins Spiel, die Unterscheidung von Technologie und Magie. Wenn man zu viel über die Risiken redet, dann haben die Guten Angst, innovative Technologien einzusetzen, weil sie sie nicht verstehen. Doch das Problem ist nicht die Technologie, sondern eher, dass der Algorithmus mit den falschen Daten gefüttert wird.

Ein Algorithmus braucht ein Verständnis für das, was zwischen Input und Output passiert. Wenn ich nicht weiß, was die Maschine entscheidet, dann kann sie den Menschen nicht ersetzen. Der Mensch hat dann die Möglichkeit abzuwägen. Deswegen bevorzuge ich auch eher den Begriff Intelligent Augmentation (IA), statt Artificial Intelligence (AI). Maschinen können Prozesse dank vieler Informationen besser automatisieren und die Arbeit des Menschen ergänzen, eine echte eigene Denkleistung können sie nicht hervorbringen.

Jaron Lanier hat auch die These formuliert, dass sich schlechte Nachrichten mehr und schneller verbreiten. Daher müssen diejenigen, die Nachrichten verbreiten, auch besonders sorgfältig damit umgehen und benötigen Regulierungen. Regulierung per se ist nichts Schlimmes. Sie hilft dabei, ethischer zu handeln. Das gilt natürlich auch für den Umgang mit Künstlicher Intelligenz.

Xethix: Google hat 7 Prinzipien zum Umgang mit Künstlicher Intelligenz veröffentlicht. Denn das Thema „mobile first“ ist vorbei, jetzt ist „AI first“ die Ansage.

Faecks: Genau. Ray Kurzweil, Director of Engineering bei Google, beschäftigt sich seit langem mit dem Übergang von Mensch und Maschine und ist auch überzeugt: Man kann keine Plattform führen, ohne Verantwortung zu übernehmen. Ich persönlich finde die Thesen von Google gut. Aber werden sie auch umgesetzt und kontrolliert? Etwa über einen Beirat? Firmen sollten nicht Entscheidungen für die Menschen treffen, diese Entscheidungen sollten vielmehr in einem kritischen Diskurs stattfinden. Plattformanbieter könnten aber den Raum für solche Auseinandersetzungen schaffen, damit sich Menschen bilden und informieren können, um dann eigene Entscheidungen zu treffen.

*Sir Arthur Charles Clarke war ein britischer Physiker und Science-Fiction-Schriftsteller. Er hat im Rahmen seiner Werke die folgenden drei, als „Gesetze“ bezeichneten, axiomatischen Vorhersagen aufgestellt: „Wenn ein angesehener, aber älterer Wissenschaftler behauptet, dass etwas möglich ist, hat er mit an Sicherheit grenzender Wahrscheinlichkeit Recht. Wenn er behauptet, dass etwas unmöglich ist, hat er höchstwahrscheinlich unrecht.“ „Der einzige Weg, die Grenzen des Möglichen zu finden, ist, ein klein wenig über diese hinaus in das Unmögliche vorzustoßen.“ „Jede hinreichend fortschrittliche Technologie ist von Magie nicht zu unterscheiden.“

Von diesen drei „Gesetzen“ hat insbesondere das dritte – nicht nur innerhalb der Science-Fiction-Literatur – den Charakter eines Sprichworts erreicht.

 

Links zum Thema: Googles Research Department zu AI: https://ai.google/

Cyber Defense in Europa: gleiche Gefahr – unterschiedliche nationale Antworten

blitze Mit dem European Cyber Defense Report hat Deloitte relevante nationale Sicherheitsstrategien aus 29 europäischen Staaten, den USA, Russland sowie China analysiert und zudem Zukunftsszenarien entwickelt, die die Cybersicherheitslandschaft 2030 in Europa abbilden. Im ersten Teil der Studie stehen der systematische Vergleich und die Analyse öffentlich zugänglicher Strategiedokumente: Diese zeigen, dass Cyberbedrohungen – neben Terrorismus und organisierter Kriminalität – als Top-Risiken benannt werden.

Im Hinblick darauf, wie Cybersicherheit jeweils definiert und gehandhabt wird, gibt es länderübergreifend allerdings so viele Unterschiede, dass ein Vergleich kaum möglich ist. Besonders deutlich zeigt das die Diskussion um offensive Maßnahmen. Bestimmte Länder erklären deutlich, dass auch offensive Maßnahmen zur Cyberverteidigung gehören. Andere Länder erwähnen diese zwar, aber bleiben eine klare Aussage zur Rechtmäßigkeit und Wirksamkeit schuldig.

Nationale Strategien nicht immer auf neuestem Stand

Die Ansprüche an die nationalen Sicherheitsstrategien der europäischen Länder verändern und erhöhen sich mit der Vielzahl und Volatilität möglicher Bedrohungsszenarien. Strategien, dem zu begegnen, müssen hiermit Schritt halten.

Verteidigung: Schutz rangiert vor Reaktion

Nahezu alle Strategien haben die Sicherung der kritischen Infrastrukturen (97%) sowie die Gewährleistung sicherer und robuster Informationssysteme (93%) als Ziel. Kaum erwähnt wird hingegen eine schnelle Reaktion auf Cyberangriffe.

„Neben der Sicherung unserer Infrastrukturen und Systeme muss zunehmend auch die Fähigkeit zur adäquaten Reaktion im Falle eines Angriffs aus bzw. auf den Cyberraum in den Fokus genommen werden. Dazu bedarf es einer politischen, rechtlichen und fähigkeitsbezogenen Rahmensetzung. Mit der Errichtung des Kommandos Cyber und Informationsraum hat Deutschland hier bereits eine erste Grundlage geschaffen“, resümiert Katrin Rohmann, Industry Leader Government & Public Services bei Deloitte.

Zahlreiche Akteure, unklare Zuständigkeiten

Die Cybersicherheitsstrategien der Staaten benennen unterschiedliche Akteure. Deren Zahl variiert von zwei bis zweistellig. Im schlechtesten Fall kann daraus ein Verantwortungs- und Zuständigkeitsvakuum entstehen. Unweigerlich steigen mit der Zahl der Akteure potenziell der Koordinationsbedarf zur Lageeinschätzung und die Reaktionszeit im Ernstfall.

Zum Ende des ersten Teils des Reports werden Handlungsfelder identifiziert: Stärkere internationale Kooperationen, einheitliche Definitionen und klare Verantwortungszuweisungen sind erforderlich. Strategien müssen dynamisch mit der Gefährdung weiterentwickelt werden, dazu müssen die Treiber künftiger Entwicklungen identifiziert und beobachtet werden. Der zweite Teil des Reports greift diese Handlungsfelder auf und nutzt die Szenariomethodik, um mögliche Zukunftsbilder aufzuzeigen.

Durch moderne Cybersicherheit zu einem digitalen Leben in Europa: vier mögliche Szenarien

Um in Europa die Weichen für eine sichere, digitale Zukunft zu setzen und Antworten auf die Frage nach der Ausgestaltung der Cybersicherheitslandschaft 2030 zu finden, entstehen nach einer auf Künstlicher Intelligenz basierenden Analyse vier mögliche Zukunftsbilder – abhängig davon, ob ein national und international akzeptierter Rechtsrahmen besteht oder nicht und ob Cyberangriffe antizipiert und Angreifer wirksam verfolgt werden können:

  1. Goldener Käfig: In diesem Szenario ist Europa sicher und stabil und sieht sich mit wenig Disruption konfrontiert. Es gibt eine klar definierte und funktionierende regelbasierte Ordnung sowie ausreichende Effektivität bei der Antizipation von Cyberbedrohungen und der Attribution von Cyberangriffen.
  2. Selbstschutz: In dieser Welt ist Europa bürokratisch, extrem unsicher und technologisch fragmentiert. Obwohl es kleine thematische Inseln der Sicherheit gibt, ist Cybersicherheit außerhalb dieser Bereiche lückenhaft.
  3. Cyber-Oligarchie: In diesem Szenario beherrscht eine kleine Elite von Cyberexperten die Cybersicherheitslandschaft in Europa. Cybersicherheit wird nicht mehr vom Staat gesteuert. Stattdessen wird sie privat nach den „Gesetzen des Stärkeren” durchgesetzt.
  4. Cyber-Darwinismus: In dieser alternativen Zukunft ist Europa zu einem Dschungel geworden, der auf der Basis einer Laissez-faire-Mentalität arbeitet. Während kleine Inseln mit einem hohen Maß an (Cyber-)Sicherheit innerhalb von „gated communities“ existieren, ist die Außenwelt unsicher. Daraus resultiert ein Zwei-Klassen-Sicherheitssystem, das niedrige Sicherheitsklassen stark diskriminiert und ausschließt.

„Auch wenn sich im digitalen Zeitalter niemand hundertprozentig gegen Cyberangriffe schützen kann, sind Vorbereitung und eine auf die aktuellsten Entwicklungen abgestimmte Cybersicherheitsstrategie essenziell. Es besteht Handlungsbedarf. Wir müssen bei der Gestaltung der digitalen Zukunft Europas und dieser Thematik ein gemeinsames Verständnis entwickeln, Komplexität reduzieren, die Dinge begreifbar machen und Unsicherheiten ausräumen“, so Katrin Rohmann.

Inhaltlich verantwortlich für die Studie sind Katrin Rohmann, Industry Leader Government & Public Services bei Deloitte, und Peter Wirnsperger, Deloitte Partner und Cyber Risk Leader.