Schlagwort-Archiv: Künstliche Intelligenz

Ethik und Künstliche Intelligenz: Die Zeit drängt – wir müssen handeln

Künstliche Intelligenzen und Roboter werden in unserem Leben immer selbstverständlicher. Was erwarten wir von den intelligenten Maschinen, wie verändert ihre Präsenz in unserem Alltag und die Interaktion mit ihnen unser Selbstverständnis und unseren Umgang mit anderen Menschen? Müssen wir Roboter als eine Art menschliches Gegenüber anerkennen? Und welche Freiheiten wollen wir den Maschinen einräumen? Es ist dringend an der Zeit, die ethischen und rechtlichen Fragen zu klären, meint Prof. Dr. Arne Manzeschke in der „PC Welt“. … mehr …

 

“Innovationsturbo Künstliche Intelligenz – welche Ethik-Leitplanken brauchen wir?”

Die Telekom lud am 19.09 zum Telegraphen-Lunch in ihrer Hauptstadtrepräsentanz. An der Diskussion zum Thema “Innovationsturbo Künstliche Intelligenz – welche Ethik-Leitplanken brauchen wir?” nahmen Prof. Dr. Birgit Beck, Leiterin des Fachgebiets „Ethik und Technikphilosophie“, TU Berlin, Manuela Mackert, Chief Compliance Officer Deutsche Telekom, und Aljoscha Burchardt, vom deutschen Forschungszentrum für künstliche Intelligenz, Sachverständiger in der neuen Enquete-Kommission des Deutschen Bundestags, schreibt „Politik Digital“. … mehr

 

Warum künstliche Intelligenz Wissen und Regulierung braucht

Wolf Ingomar Faecks ist Senior Vice President und Industry Lead Automotive/Mobility/Manufacturing/Health bei  Publicis.Sapient EMEA/APAC.

Wolf Ingomar Faecks ist Senior Vice President und Industry Lead Automotive/Mobility/Manufacturing/Health bei Publicis.Sapient EMEA/APAC.

Noch ein Beitrag über die Möglichkeiten der Künstlichen Intelligenz? Oder eher einer über deren Risiken? Wolf Ingomar Faecks, im Management einer Digitalberatung, plädiert dafür, den Menschen klar zu machen, dass Künstliche Intelligenz dem Menschen das Denken nicht abnehmen kann und darf.

Das Hype-Thema „Künstliche Intelligenz“ (KI) besteht aus zwei Bestandteilen: „Künstlich“ und „Intelligenz“. Wie diese beiden Bestandteile derzeit in der medialen Berichterstattung durcheinandergemischt werden, reicht von kritikloser Bewunderung über sehr gemischte Gefühle bis hin zu kategorischer Ablehnung.

Wolf Ingomar Faecks, Senior Vice President und Industry Lead Automotive/Mobility/Manufacturing/Health, Publicis.Sapient EMEA/APAC, ist Experte für die digitale Business Transformation der Publicis Groupe. Er befasst sich seit Jahren mit den unterschiedlichen Facetten der KI. Im Interview erzählt er, warum die so genannten Clarke‘schen Gesetze* und insbesondere die These, dass „jede hinreichend fortschrittliche Technologie nicht von Magie zu unterscheiden sei“, so gut zu Künstlicher Intelligenz passen und warum KI zum Denken anregen sollte.

 Xethix: Die Geschwindigkeit in der technologischen Weiterentwicklung hat zugenommen und eine Regulierung findet meist erst dann statt, wenn etwas passiert ist. So werden Ängste geschürt. Wie ließe sich das besser machen?

Faecks: Nicht nur die Geschwindigkeit der technologischen Entwicklung nimmt zu. In immer kürzerer Zeit wird eine steigende Masse an Informationen produziert und verbreitet. Doch ein Mensch kann nur linear denken, nicht exponentiell. Das würden die Menschen aber sehr gern. Deswegen unterliegen viele der Fehleinschätzung, dass sie in exponentiellen Umfeldern mehr Zeit haben, alle diese Informationen aufzunehmen – und ihnen auch generell mehr Zeit zur Verfügung steht. Das stimmt aber nicht und so entsteht ein Informations-Gap zwischen Fakten, tatsächlichem Wissen und gefühltem Wissen. Daher laufen heute viele Personen Gefahr, Falschinformationen aufzusitzen. Und das ist dann wiederum die Ursache, warum so viele beim Thema Künstliche Intelligenz so diffuse Ängste verspüren.

Xethix: Der Informatiker und Philosoph Jaron Lanier hat in seinem neuen Buch die These formuliert, dass die Bösen keine Angst vor dem Einsatz von Künstlicher Intelligenz haben und fordert deswegen auch eine Regulierung, um die Guten zu schützen.

Faecks: Hier kommt das so genannte Clarke‘sche Gesetz ins Spiel, die Unterscheidung von Technologie und Magie. Wenn man zu viel über die Risiken redet, dann haben die Guten Angst, innovative Technologien einzusetzen, weil sie sie nicht verstehen. Doch das Problem ist nicht die Technologie, sondern eher, dass der Algorithmus mit den falschen Daten gefüttert wird.

Ein Algorithmus braucht ein Verständnis für das, was zwischen Input und Output passiert. Wenn ich nicht weiß, was die Maschine entscheidet, dann kann sie den Menschen nicht ersetzen. Der Mensch hat dann die Möglichkeit abzuwägen. Deswegen bevorzuge ich auch eher den Begriff Intelligent Augmentation (IA), statt Artificial Intelligence (AI). Maschinen können Prozesse dank vieler Informationen besser automatisieren und die Arbeit des Menschen ergänzen, eine echte eigene Denkleistung können sie nicht hervorbringen.

Jaron Lanier hat auch die These formuliert, dass sich schlechte Nachrichten mehr und schneller verbreiten. Daher müssen diejenigen, die Nachrichten verbreiten, auch besonders sorgfältig damit umgehen und benötigen Regulierungen. Regulierung per se ist nichts Schlimmes. Sie hilft dabei, ethischer zu handeln. Das gilt natürlich auch für den Umgang mit Künstlicher Intelligenz.

Xethix: Google hat 7 Prinzipien zum Umgang mit Künstlicher Intelligenz veröffentlicht. Denn das Thema „mobile first“ ist vorbei, jetzt ist „AI first“ die Ansage.

Faecks: Genau. Ray Kurzweil, Director of Engineering bei Google, beschäftigt sich seit langem mit dem Übergang von Mensch und Maschine und ist auch überzeugt: Man kann keine Plattform führen, ohne Verantwortung zu übernehmen. Ich persönlich finde die Thesen von Google gut. Aber werden sie auch umgesetzt und kontrolliert? Etwa über einen Beirat? Firmen sollten nicht Entscheidungen für die Menschen treffen, diese Entscheidungen sollten vielmehr in einem kritischen Diskurs stattfinden. Plattformanbieter könnten aber den Raum für solche Auseinandersetzungen schaffen, damit sich Menschen bilden und informieren können, um dann eigene Entscheidungen zu treffen.

*Sir Arthur Charles Clarke war ein britischer Physiker und Science-Fiction-Schriftsteller. Er hat im Rahmen seiner Werke die folgenden drei, als „Gesetze“ bezeichneten, axiomatischen Vorhersagen aufgestellt: „Wenn ein angesehener, aber älterer Wissenschaftler behauptet, dass etwas möglich ist, hat er mit an Sicherheit grenzender Wahrscheinlichkeit Recht. Wenn er behauptet, dass etwas unmöglich ist, hat er höchstwahrscheinlich unrecht.“ „Der einzige Weg, die Grenzen des Möglichen zu finden, ist, ein klein wenig über diese hinaus in das Unmögliche vorzustoßen.“ „Jede hinreichend fortschrittliche Technologie ist von Magie nicht zu unterscheiden.“

Von diesen drei „Gesetzen“ hat insbesondere das dritte – nicht nur innerhalb der Science-Fiction-Literatur – den Charakter eines Sprichworts erreicht.

 

Links zum Thema: Googles Research Department zu AI: https://ai.google/

Ethik und Künstliche Intelligenz: Mehr Bauchgefühl bitte!

Maschinelles Lernen, Künstliche Intelligenz – spätestens wenn die Dmexco ansteht, dreht unsere Branche regelmäßig durch. Wolfgang Bscheid, Geschäftsführer von Mediascale, hält ein Plädoyer für den ältesten Algorithmus des Menschen: unser Bauchgefühl. Ein Beitrag in „W&V“. … mehr

 

Die 7 Gebote: Google veröffentlicht ethische Grundsätze zu Künstlicher Intelligenz

AI (Artificial Intelligence, KI, Künstliche Intelligenz) hat in den letzten Jahren richtig Fahrt aufgenommen, mittlerweile kommen Teile davon auch schon beim Nutzer an, zum Beispiel als Unterstützung für diverse Aufgaben auf dem Smartphone. Das Problem ist, dass AI nicht nur für gute Zwecke eingesetzt werden kann, sondern letztendlich Daten jeglicher Art und mit jeglichem Ziel verarbeiten kann. AI ist keine Problemlösung für alle Probleme, kann aber eben einen sehr positiven Effekt in bestimmten Bereichen habe, ist im Blog der „Stadt Bremerhaven“ zu lesen. … mehr

 

Weltweite Studie „Elektronik der Zukunft“: Was Verbraucher über KI, Roboter und digitale Sicherheit denken

(Bildquelle: "obs/electronica/Christian Hartlmaier")

(Bildquelle: „obs/electronica/Christian Hartlmaier“)

81 Prozent der Verbraucher rund um den Globus wünschen sich, dass „elektronische Geräte der Zukunft“ das Leben vereinfachen. Was dabei künstliche Intelligenz (KI), Robotik und Digitalisierung dürfen und was nicht, wird von den Nutzern sehr differenziert betrachtet. So sind beispielsweise weltweit 71 Prozent der Verbraucher der Meinung, dass elektronische Geräte auch in Zukunft nur assistieren sollen und das eigene Denken der Menschen mit KI nicht ersetzen dürfen. Das sind Ergebnisse des electronica-Trend-Index (2. Auflage). Dafür wurden im Auftrag der „electronica“, Messe und Konferenz für Elektronik, 7.000 Verbraucher in den USA, China, Japan, Deutschland, Frankreich, Großbritannien und Italien von einem Marktforschungsinstitut im Juni 2018 bevölkerungsrepräsentativ befragt.

Navigationssysteme und Smartphones haben die intelligente Sprachsteuerung in den Privathaushalten bekannt gemacht.

Mit künstlicher Intelligenz und digitaler Vernetzung arbeiten Hersteller mit Hochdruck daran, den Siegeszug von smarter Elektronik auszubauen. Bei den Verbrauchern steht die Idee der Sprachsteuerung offenbar hoch im Kurs: Rund 60 Prozent der Konsumenten sind weltweit dafür, dass elektronische Geräte künftig in einen menschlichen Dialog treten können – etwa nach dem Vorbild bekannter Sprachassistenten wie Siri, Alexa oder Cortana. Besonders begeistert davon, sich künftig mit elektronischen Geräten unterhalten zu können, sind dabei die chinesischen (85 Prozent), amerikanischen (68 Prozent) und italienischen (66 Prozent) Konsumenten. Weltweit 17 Prozent lehnen sprechende Elektronik dagegen entschieden ab.

Was Roboter dürfen und was nicht

Zu „menschenähnlich“ sollten die digitalen Helfer nach übereinstimmender Meinung der Verbraucher allerdings nicht werden: Bei der Frage, wie Service-Roboter von morgen beschaffen sein sollten, sprechen sich 72 Prozent dafür aus, dass Roboter mit künstlicher Intelligenz eindeutig als Maschine erkennbar bleiben. Die stärksten Befürworter dafür sind Italiener (78 Prozent) und US-Amerikaner (77 Prozent). Aber auch in Japan, mit der im Vergleich schwächsten Zustimmung, gibt es in diesem Punkt eine klare Mehrheit von 69 Prozent der Befragten.

Roboter sollen selbständig lernen

Dagegen bewerten 72 Prozent der Befragten im weltweiten Durchschnitt positiv, dass Roboter künstliche Intelligenz einsetzen, um selbständig zu lernen und auf neue Situationen zu reagieren. Ebenso viele wünschen sich vom Roboter Entscheidungshilfen – allerdings sollte die Kontrolle in den Händen der Menschen bleiben.

Diese Grundeinstellung gilt generell für den Einsatz von künstlicher Intelligenz in elektronischen Geräten: Die große Mehrheit der Verbraucher möchte, dass die KI nur assistiert und nicht das eigene Denken ersetzt – der weltweite Durchschnitt dieser Meinung liegt nach der jüngsten Umfrage bei 71 Prozent. Allerdings ist diese Ansicht in einigen Ländern rückläufig: In Deutschland stimmten dieser Meinung im electronica-Trend-Index aus dem Jahre 2016 insgesamt 82 Prozent der Befragten zu – aktuell sind es noch 67 Prozent.

Geteilt ist dagegen die Meinung dazu, ob eine Maschine in der Lage sein soll, menschliche Gefühle zu erkennen und darauf zu reagieren: In den europäischen Ländern und Japan ist nur rund jeder Zweite dafür, in den USA knapp 60 Prozent – in China aber 85 Prozent.

 

 

Künstliche Intelligenz: Politik muss Grenzen setzen: KI-Diskussion erinnert an die der ersten Atombombe

Die Diskussion um das Thema Künstliche Intelligenz (KI) erinnert Dell-EMC-Chef Dinko Eror an die Kritik der ersten Atombombe. Er hält eine gesetzliche Regulierung für unabdingbar: Nicht alles, was technisch möglich ist, sollte auch erlaubt sein. Ein Bericht auf „CRN“. …mehr

 

 

„Beim Thema KI-Ethik reicht die Selbstverpflichtung der Industrie nicht aus“

Verständnis-Ethik-260x300Innovation ist wichtig, aber kein Selbstzweck, deshalb sollten sich Unternehmen und Wissenschaftler ethische Grenzen setzen. Notfalls müssen die Gesetzgeber nachhelfen, sagt Dinko Eror, Senior Vice President and Managing Director von Dell EMC in Deutschland.

Nicht alles, was technisch möglich ist, sollte auch erlaubt sein. Gerade im Umfeld der Künstlichen Intelligenz (KI) ist eine Diskussion entstanden, die stark an die Kritik der ersten Atombombe erinnert: Viele fürchten eine Entwicklung, die unumkehrbar ist und weitreichende Gefahren birgt.

Der Unternehmer Elon Musk etwa sieht in der KI „die größte Bedrohung für das Überleben der Menschheit“, und der in diesem Jahr verstorbene Physiker Stephen Hawking war bereits 2014 der Meinung, Menschen könnten aufgrund ihrer biologischen Limitierung mit KI nicht mithalten und würden am Ende „verdrängt“ werden. Eine Verselbstständigung der Technologie hatten Science-Fiction-Autoren schon Mitte des vergangenen Jahrhunderts thematisiert.

Eine solche Entwicklung hat eine besondere Tragweite, wenn Fehler entstehen. Amazons Gesichtserkennung etwa hat jüngst 28 Abgeordnete des US-Kongresses mit Häftlingen verwechselt. Überträgt man diese Fehlerquote von fünf Prozent auf die Ambitionen des US-Verteidigungsministeriums, werden ethische Zweifel schnell greifbar: Das Pentagon will unter anderem Drohnen und andere Waffen mit KI versehen, damit sie Ziele selbst identifizieren und „Entscheidungen selbst treffen“ können. Viele KI-Forscher betrachten solche Entwicklungen mit besonderer Skepsis – wenn nicht mit Abscheu; tausende von ihnen haben deshalb eine freiwillige Selbstverpflichtung unterschrieben, nicht an autonomen Waffensystemen zu forschen. Aber wie stehen die übrigen tausenden zu solchen Einsätzen?

Gefahr kommt auch aus einem ganz anderen Bereich: Mit KI, künstlichen neuronalen Netzen und erschreckend wenig Aufwand können mittlerweile mit sogar kostenlosen Apps täuschend echte Fake-Bilder und -Videos hergestellt werden. „Nicht auszudenken, was passiert, wenn durch ein Fake-Video eines Fake-Politikers ein Krieg entsteht“, gibt Dinko Eror zu bedenken.

Auch die Profilerstellung von beliebigen Internet- und Social-Media-Nutzern stellt für KI längst keine Hürde mehr dar. Die Technologie kann, in Verbindung mit der heutigen Rechenleistung, gigantische Datenmengen analysieren und etwa Muster erkennen. Unvergessen ist zum Beispiel die unerlaubte Auswertung der Daten zahlreicher Facebook- und Twitter-Profile durch Cambridge Analytica mit dem Ziel, die US-Wahlen 2016 zu beeinflussen – für viele der erste wirkliche Social-Media-Skandal.

Es gibt zahlreiche weitere Beispiele, die ethische Fragen aufwerfen – zudem dass die KI sich weiterentwickelt und jeden Tag schneller, leistungsfähiger und treffsicherer wird. Sogar IT-Unternehmen, die Vorreiter in Sachen KI, kommen deshalb mittlerweile ins Grübeln. Microsoft zum Beispiel betrachtet KI-basierte Gesichtserkennung als Bedrohung der fundamentalen Menschenrechte wie Privatsphäre und Meinungsfreiheit, so zumindest President Brad Smith in seinem Blog vor einigen Wochen.

Ist die Selbstverpflichtung von Industrie und Forschung also der richtige Weg, um ethische Innovationen – auch fernab von KI – sicherzustellen? „Nein. Die Wirtschaftsgeschichte hat gezeigt: Die Selbstverpflichtung von Industrie und Forschung führt nicht zu ethischen Innovationen“, erklärt Eror. „Sei es beim Dieselskandal, dem Rauchverbot, der Frauenquote oder der Nahrungsmitteltransparenz. Mögliche Absatzvorteile haben Unternehmen immer höher bewertet als ethisches Handeln. Ich bin mir sehr sicher, dass das auch in Zukunft so bleiben wird.“

Eine gesetzliche Regulierung ist deshalb unabdingbar. „Die angekündigte Strategie der Bundesregierung zur Künstlichen Intelligenz kommt zwar sehr spät, berücksichtigt aber Datenschutz und Informationssicherheit und betont an vielen Stellen die Notwendigkeit von ethischen Standards“, erklärt Eror, „das ist sehr zu begrüßen“. Auch die EU hat kürzlich ein KI-Maßnahmenpapier angekündigt, in dem ethische Rahmenbedingungen im Vordergrund stehen.

Die Frage bleibt, ob auch andere Regierungen ein Interesse daran haben, sich in diesem Sinne selbst einzuschränken. Die USA haben zwar bereits 2016 einen strategischen Forschungs- und Entwicklungsplan für KI vorgestellt und betonen dort sehr nachdrücklich das Thema „ethische KI“. Es bleibt aber offen, wie sie etwa ihre angekündigten aggressiven Verteidigungspläne darauf abstimmen wollen. China, ein Land, das nicht besonders zimperlich mit der Privatsphäre umgeht, wie die jüngste Maßnahme zur allgegenwärtigen Gesichtserkennung beweist, wird ethische Aspekte eher weniger in den Vordergrund stellen.

Seit vielen Jahren wird der Ruf nach einer neuen Wirtschaftsordnung laut. Sie soll, so die große Mehrheit der Deutschen, Turbokapitalismus und Wachstum um jeden Preis zugunsten von mehr Gerechtigkeit und Umweltschutz ablösen. „Angesichts des rapiden Fortschritts der Technik und des potenziellen Missbrauchs der KI ist es an der Zeit, auch die Unternehmens¬ethik ganz oben auf die Agenda zu setzen“, findet Eror.

Studenten sehen Künstliche Intelligenz kritisch

Wenn sie ihnen dabei hilft, den Stau auf der A 5 zu umgehen oder die nächste S-Bahn zu erwischen, dann stehen deutsche Studierende Künstlicher Intelligenz (KI) durchaus positiv gegenüber. Laut einer Erhebung der Frankfurter Stellenbörse Univativ, deren Angebot auf Studenten, Absolventen und Berufseinsteiger abzielt, glauben mit 53 Prozent mehr als die Hälfte von 800 Umfrageteilnehmern, dass das derzeit wohl spannendste Feld der Informatik ihnen das Leben erleichtert. Mit Blick auf den Einstieg ins Arbeitsleben können aber ebenfalls mehr als die Hälfte der befragten Studenten der neuen Technologie nicht so viel Gutes abgewinnen: 56 Prozent stehen ihrem dortigen Einsatz, etwa in Form von Robot Recruiting, kritisch gegenüber, so die „FAZ“. …mehr…

 

Abkommen gegen KI-Waffen

Technologiefirmen und Forscher haben sich zusammengeschlossen, und ein Abkommen gegen tödliche Waffensysteme mit Künstlicher Intelligenz unterzeichnet. Darin erklären sie, dass KI-Systeme auch im militärischen Bereich immer mehr an Bedeutung gewinnen werden. allerdings sei es „eine dringende Notwendigkeit für Bürger, politische Entscheidungsträger und Anführer zwischen akzeptablen und nicht akzeptablen Anwendungen von KI zu unterscheiden“. Die Unterzeichner erklären, niemals einem Computer die Entscheidung über Leben und Tod zu übertragen. Zudem merken sie an, dass die Verbreitung derartiger Waffensysteme „eine gefährliche Destabilisierung für jedes Land und Individuum wäre“. Unterschrieben haben das Dokument unter anderem Tesla-CEO Elon Musk, die Co-Gründer von Googles DeepMind Shane Legg, Mustafa Suleyman und Demis Hassabis, Skype-Gründer Jaan Tallinn und zahlreiche renommierte KI-Forscher, berichtet „futurezone“. …more

 

 

Bundeswehr will mit KI Kriege vorhersagen

Ein Bericht in der „Süddeutschen“: Aus der Antwort der Bundesregierung auf eine Kleine Anfrage der Linken geht hervor, dass das Verteidigungsministerium künftig KI-Systeme einsetzen möchte, um große Datenmengen auszuwerten, und Kriege und Krisen vorhersagen zu können. Die Studie ‚IT-Unterstützung Krisenfrüherkennung‘ soll demnach „strukturierte und unstrukturierte Daten aus öffentlichen, offenen und als Verschlusssachen eingestufte Quellen berücksichtigen“. Ein Sprecher des Ministeriums erläutert, dass die Ergebnisse der KI-Auswertung weiterhin von Menschen geprüft werden sollen. Zur Analyse der Daten testet man aktuell Watson, die KI-Plattform von IBM, eine Software zum konkreten Vorhersagen der Krisen fehlt noch. …mehr

 

 

 

 

 

 

Künstliche Intelligenz: Maschine statt Mensch – sieht so die Zukunft von Marketing und Vertrieb aus?

Einige große Firmen bauen immer mehr Stellen im Marketing ab. Zalando kündigte beispielsweise im März an, rund 250 Marketer zu entlassen. Werbemails würden verstärkt von Algorithmen versendet. Ist die Zukunft von Marketing und Vertrieb wirklich gefährdet und gilt das auch für den B2B-Bereich? Das frägt sich „Marconomy“ … mehr

 

Bundestag setzt Enquete Künstliche Intelligenz ein – „Chance des Dialogs nutzen“ 

Oliver Süme ist Vorstandsvorsitzender von eco – Verband der Internetwirtschaft e.V.

Oliver Süme ist Vorstandsvorsitzender von eco – Verband der Internetwirtschaft e.V.

Der Bundestag hat die Einsetzung der Enquete-Kommission „Künstliche Intelligenz“ beschlossen. Die Expertenkommission soll bis 2020 ethische Fragen zur künstlichen Intelligenz klären, außerdem will die Bundesregierung zeitnah eine KI-Strategie verabschieden.“

„Damit erkennt die Regierungskoalition den Stellenwert des Innovations-Themas KI an und bietet gleichzeitig ein Forum für die Diskussionen zu ethischen Fragestellungen in der Digitalisierung. Die Potenziale von KI für das Leben der Menschen, für die Entwicklung unseres Wohlstandes und die Gesellschaft als Ganzes – müssen in der Kommission angegangen werden. Wir begrüßen den Beschluss und hoffen, dass die neue Enquete-Kommission insbesondere die Chancen und Potenziale des technologischen Fortschritts erkennt, die Deutschland überhaupt erst zukunftsfähig und zur wirtschaftlichen Schlüsselbranche machen“, so sagt Oliver Süme, Vorstandsvorsitzender von eco, dem Verband der deutschen Internetwirtschaft.

Bereits im Koalitionsvertrag hatten CDU, CSU und SPD die Bedeutung von KI betont und Schritte angekündigt, die Forschung auf diesem Gebiet zu fördern. „Wir wollen Deutschland zu einem weltweit führenden Standort bei der Erforschung von künstlicher Intelligenz machen“, lautet das ambitionierte Ziel.

„Wir sind schon spät dran. Bei dieser wichtigen Schlüsseltechnologie muss das Ziel Deutschlands Kernkompetenz sein, um international auf Augenhöhe im Bereich der Künstlichen Intelligenz mitzuspielen. Die Enquete-Kommission muss jetzt die Chance des offenen Dialogs nutzen: die Weichenstellung muss schnell erfolgen und erste Meilensteine schon in der laufenden Legislaturperiode erreicht werden“  so Süme.

Dem Bundestagsbeschluss gemäß soll die Enquete-Kommission ein Ort sein, an dem Politik gemeinsam mit Expertinnen und Experten eine der zentralen Debatten über die Zukunft der KI als Teil unserer digitalen Gesellschaft aufgreift, konkrete Vorschläge für die politischen Entscheidungsträgerinnen und -träger erarbeitet und damit neue Impulse für die Verwendung von KI in unserem Land setzt. Die Enquete-Kommission soll auf Basis ihrer Untersuchungsergebnisse den staatlichen Handlungsbedarf, national, auf europäischer Ebene und international benennen.

„Der digitale Wandel betrifft alle Wirtschaftsbereiche vom kleinen Unternehmen bis zum internationalen Großkonzern. Zur Sicherstellung der digitalen Leistungsfähigkeit Deutschlands braucht es unter anderem eine starke Rechenzentrums-Infrastruktur in Deutschland. Eine solche Infrastruktur bietet im Zusammenspiel mit Software-Schlüsseltechnologien die Basis für innovative, sichere und vertrauenswürdige Anwendungen Künstlicher Intelligenz. Außerdem brauchen die Unternehmen dringend qualifizierte und gut ausgebildete Fachkräfte, dies gilt nicht ausschließlich für die Internetwirtschaft, sondern für alle Wirtschaftsbereiche“  so Süme.