Schlagwort-Archiv: Künstliche Intelligenz

Fünf KI-Trends für 2019

KI wird auch 2019 eine maßgebliche Rolle spielen. IntraFind Software ist Spezialist für Enterprise Search und Natural Language Processing, die auch auf KI und modernsten Machine-Learning-Verfahren basieren. Folgende fünf KI-Trends werden nach Ansicht des Unternehmens das kommende Jahr besonders prägen:

KI wird demokratischer.

In den vergangenen Jahren wurden in vielen Bereichen der KI wiederholt Durchbrüche erzielt. Viel zu wenige davon haben aber bislang den Alltag moderner Wissensarbeiter verändert. 2019 werden KI-Methoden nun aber demokratischer in Unternehmen zur Verfügung stehen. Mehr Mitarbeiter werden davon profitieren und Zugang zu KI-Anwendungen haben. Bisher wurden KI-Anwendungen außerdem vor allem durch die Brille der Forscher entwickelt. Inzwischen fließt nun auch immer mehr das Feedback der Anwender mit ein.

Machine Learning übernimmt mehr Aufgaben.

Machine-Learning-Verfahren, die in Unternehmenssoftware zum Einsatz kommen, entlasten Mitarbeiter zunehmend von Standardaufgaben und ermöglichen zahlreiche neue Anwendungsfälle und Geschäftsmodelle. So kann etwa Textanalysesoftware als intelligente Lesehilfe eingesetzt werden, indem sie die wichtigsten Entitäten und Passagen in seitenlangen Dokumenten selbstständig erkennt, extrahiert und übersichtlich auflistet. Davon profitieren vor allem Mitarbeiter, die es täglich mit einer Vielzahl an Texten zu tun haben. Die Unternehmen werden effizienter und sparen Ressourcen.

Conversational Systems assistieren bei der Arbeit.

Der Markt für NLP-basierte Software (Natural Language Processing) wächst. Das sorgt auch für Auftrieb bei den so genannten „Conversational Systems“, die als virtuelle Assistenten die Arbeit erleichtern. Beim Kundensupport werden zum Beispiel Anfragen zunehmend über virtuelle Assistenten aufgenommen, mit FAQ-Datenbanken abgeglichen und anschließend beantwortet. Auch im Unternehmen selbst kommen diese Assistenten als „Virtual Enterprise Assistant“ zum Einsatz. Sie verstehen und sprechen natürliche Sprache und sind in der Lage, bei Anfragen Informationen aus unterschiedlichen Datenquellen einzubeziehen.

Anwendungsgebiete werden vielfältiger und userbezogener.

KI-Anwendungen unterstützen generell tiefgreifendere Funktionen und kommen bei Unternehmen zunehmend in spezialisierten Anwendungsfällen zum Einsatz, etwa bei Vertragsanalysen im Rahmen von Due-Diligence-Prüfungen. Sie helfen dabei, konkrete Probleme zielgerichtet zu lösen und sind durch optimierte Lernverfahren in der Lage, sich noch besser an das Verhalten des Nutzers anzupassen.

Graphdatenbanken breiten sich aus.

Mit Graphdatenbanken lassen sich Daten intelligent verknüpfen. Damit liefern sie die technologische Grundlage für zahlreiche Anwendungen, mit denen Unternehmen die Vernetzung von Informationen automatisiert auswerten können – und kommen deshalb immer häufiger zum Einsatz. So erleichtern sie es, Experten im Unternehmen für bestimmte Aufgaben zu identifizieren, oder ermöglichen es, Zusammenhänge zu einem bestimmten Thema in Form von Knowledge-Graphen aufzuzeigen.

„Es gibt leider immer noch Anbieter, die beim Thema Künstliche Intelligenz falsche Erwartungshaltungen beim Nutzer wecken“, sagt Franz Kögl, Vorstand  IntraFind Software. „KI kann keine Wunderdinge vollbringen, aber Unternehmen sehr wohl an vielen Stellen helfen. Sie kann ihnen Einblicke ermöglichen, die dem menschlichen Auge entgehen würden, ihre Mitarbeiter von Standardaufgaben entlasten und ihnen den Zugang zu benötigten Informationen erleichtern. Davon werden die Unternehmen im nächsten Jahr verstärkt profitieren.“

Chatbots erkennen missbrauchte Kinder nicht

Ein Beitrag in „Pressetext“:  Der vom britischen National Health Service (NHS)  für Kinder empfohlene Chatbot „Wysa“  und der KI-Psychologe „Woebot“  geben deplatzierte Antworten auf die Fragen Hilfe suchender User, die von sexuellem Missbrauch und psychischen Störungen berichten. Laut Recherchen der „BBC“ sollen die KI-Systeme fatal reagiert haben, nachdem ein Zwölfjähriger im Test zugab, zum Geschlechtsverkehr gezwungen zu werden.  … mehr

 

„Ethik als Beschleuniger der KI verstehen“

Digitale Technologien und Künstliche Intelligenz müssten ethisch gestaltet werden, damit sie unsere Gesellschaft nicht überrollten, sagte Christiane Woopen, Sprecherin der Datenethikkommission der Bundesregierung, im Dlf. Weder Verfassungsgrundsätze noch unsere Demokratie dürften aufs Spiel gesetzt werden. Ein Beitrag in „Deutschlandfunk“. .. mehr…

 

Der gläserne Mensch wird durch KI noch transparenter

Deutschland liegt im Rennen um künstliche Intelligenz hinter anderen Nationen zurück. Investitionen von EU und Bundesregierung sind deshalb eine gute Idee. Deutschland sollte dabei aber nicht auf ethische Standards verzichten. So könnte künstliche Intelligenz „Made in Germany“ einen unerwarteten Wettbewerbsvorteil erlangen. Ein Beitrag in der „Süddeutschen“. .. mehr ..

 

Dr. Sepita Ansari Pir Seraei von Syzygy spricht im Interview über Ethik und KI

Dr. Sepita Ansari Pir Seraei ist Geschäftsführer der Digital-Marketing Agentur Syzygy.

Dr. Sepita Ansari Pir Seraei ist Geschäftsführer der Digital-Marketing Agentur Syzygy.

Der Umgang und die Beschäftigung mit Künstlicher Intelligenz gehört zum „daily business“ von Dr. Sepita Ansari Pir Seraei, denn als Geschäftsführer der Digital-Marketing Agentur Syzygy muss er sich mit allen Neuerungen auseinandersetzen, die das Online-Marketing verändern könnten. Im Interview erläutert er seine Position zu diesem oftmals sehr kontrovers gesehenen Thema.

Xethix: Was halten Sie von der KI-Strategie der Bundesregierung?

Dr. Sepita Ansari Pir Seraei: Die Idee der Bundesregierung Forschung, Entwicklung und Anwendung von KI auf ein führendes Niveau zu bringen, ist ein hehres und wichtiges Ziel, da die „Basis-Innovation“ unsere Wirtschaft und unser Leben verändern und verbessern wird. Sollten wir nicht an dieser Innovation partizipieren, werden wir im internationalen Wettbewerb im Bereich der Künstlichen Intelligenz weiterhin keine Rolle spielen und Anschluss an die Amerikanischen und Chinesischen Wirtschaftsunternehmen verlieren (GAFA, Baidu, uvm.) – das gilt übrigens für ganz Europa.

Die „Strategie“ der Bundesregierung liest sich zwar auf dem Papier recht detailliert, doch wird sie keinen größeren Effekt haben, solange die gesellschaftliche Akzeptanz für Daten und für künstliche Intelligenz gefördert wird, denn wie so häufig wurde die Gesellschaft bei dem Thema Künstlicher Intelligenz kommunikativ nicht mitgenommen. Unsere Deutschen Mitbürger haben nicht nur beim Thema KI Bedenken, sondern auch beim wichtigsten Baustein von KI, den Daten, wie viele Studien belegen.

Zudem ist die Infrastruktur für die Nutzung von Daten nicht gegeben und die politisch und medial viel zu heiß gekochte Datenschutzgrundverordnung wird es für kleinere und mittlere Unternehmen noch schwerer machen in dem Bereich der Künstlichen Intelligenz zu innovieren, da die Möglichkeiten der Datennutzung rechtlich erschwert werden und die größeren Netzwerke, wie z.B. Facebook/Instagram, Google/Youtube oder auch Amazon durch den Einwilligungszwang im Wettbewerb zu den deutschen Unternehmen einfacher an Daten herankommen.

Xethix:  Warum haben die Menschen so Angst vor KI?

Dr. Sepita Ansari Pir Seraei: Die Angst vor KI entsteht durch die Sorge, dass die eigenen Jobs zukünftig betroffen sind (und die Jobs unserer Kinder), aber natürlich auch durch den militärischen Einsatz von KI.

Die fehlende Kommunikation der Unternehmen, der Forscher, sowie der Politik verstärken (Bestätigen) dann diese Besorgnis.

 Xethix: Meist konzentriert sich diese Angst auf „emotionale KI“, diese ist aber nach Meinung vieler Experten noch lange nicht absehbar. Sehen Sie das auch so?

Dr. Sepita Ansari Pir Seraei: Emotionale KI / Emotional Recognition wird bereits z.B. in Chatbots eingesetzt, wo versucht wird, dass der Algorithmus „empathisch“ auf Nutzer reagiert – Letztendlich versucht der Algorithmus dabei nur auf das Verhalten der Menschen zu reagieren – Der Algorithmus hat quasi keine eigene Emotion, sondern „emotionale“ Muster. Zukünftig werden Algorithmen auf anderen Algorithmen treffen, um z.B. ein Friseur-Termin zu vereinbaren – Der Chatbot des Konsumenten macht mit dem Chatbot des Friseursalons einen Termin aus und die Termine werden dann beidseitig ins System gespeichert.

Angst vor emotionale KI oder generell KI ist immer unbegründet, da wir die Technologie für uns (positiv) nutzen sollten.

Xethix: Gehen wir mal von dem Fall aus, dass KI auch emotional agieren kann. Doch Algorithmen können immer nur mit den Informationen agieren, mit der sie befüttert wurden. Wer sollte entscheiden, mit welchen Informationen KI befüllt wird, sollte es hier auch ein „Vier-Augen-Prinzip“ geben?

Dr. Sepita Ansari Pir Seraei: Das ist genau die Gefahr, die auch die Bundesregierung sieht, dass wir in der KI abgeschlagen werden und die Algorithmen durch andere Hände gebaut/gesteuert werden. Erst wenn wir die Technologie (und die technologischen Märkte) beherrschen, können wir auch (ethisch) Einfluss nehmen.

Diese Gefahr ist akut – Wenn wir nicht mittel-/langfristig innerhalb der KI ein Wort mitsprechen, können wir auch nicht entscheiden ob es z.B. nicht immer externen (staatlichen) Zugang zum Algorithmus geben muss, sondern sind den Anweisungen/Regeln der führenden KI-Unternehmen unterworfen.

Xethix: Rein technisch wäre es möglich, Algorithmen per GPS l auf die territorial jeweils geltenden Ethiknormen umzukodieren, um unterschiedliche Wertvorstellungen national durchzusetzen. Zugleich stellte sich aber die Frage, ob und wie es möglich wäre, der Technik einen ethischen Standard zu geben, der global verbindlich sein könnte. Lässt sich dieses Dilemma lösen?

Dr. Sepita Ansari Pir Seraei: Meiner Meinung nach, wenn ich ihre Frage richtig verstanden habe, ist KI immer ein globales Thema. Wenn wir lokal bestimmen, welche Algorithmen per Grenzen laufen sollen, werden diese Gesetze umgangen. Als Beispiel können wir ad1 Amazon schwer vorgeben (und kontrollieren), wie sie innerhalb von Ländergrenzen die Algorithmen steuern  – zudem können wir ad2 auch den Konsumenten schwer vorschreiben, welche Portale er nutzen soll (damit er dann in bestimmte Länder-Algorithmen fällt) – diese Verbote funktionieren nur in einem Rahmen, wo rechtliche, bzw. wirtschaftliche Missstände vorliegen und auch da hat der Nutzer (aktuell) die technische Möglichkeit, diese Vorgaben zu umgehen.

 Xethix: Nach wie vor besteht ja auch die Hoffnung auf die wohlgesinnte KI: Wenn künstliche Intelligenz weit wirkungsvoller als heute Siri, Alexa, Jibo, Cortana und Candid als selbstbestimmter Kommunikationspartner des Menschen auftritt, kann sie diesem die Inputs für ethische Entscheidungen vorgeben?

Dr. Sepita Ansari Pir Seraei: Es gibt bei der künstlichen Intelligenz sehr viele positive Felder (Behandlung von Krankheiten, Autonomes Fahren, Kommunikation, Beratung, Analyse, …), die Konsumenten und Unternehmen die Arbeit erleichtern können und für (gesundheitliche) Wohlfahrt sorgen. Insbesondere die Assistenten werden für viel mehr Freizeit sorgen, da viele Arbeiten zukünftig verbal delegiert werden (Alexa, lass imow den Rasen mähen – OK Google, ich möchte nach Bremen mit meinem Auto, fahr das Auto vor und navigier mich über das nächste Starbucks usw. – Cortana, öffne Word, schreibe Artikel zu Ethik und KI, Überschrift Ethik und KI, erster Absatz: ….).

Problematisch ist immer noch, was mit „meinen“ Daten passieren – wer ist der Besitzer dieser Daten? Meiner Meinung nach, sollte der Besitzer der Daten immer der Konsument sein und wenn er diese an Dritte verkaufen möchte, ist das sein Recht. Aktuell sind die Daten in der Hand der „Datenkraken“, wie Google, Amazon und Facebook und das ist die Gefahr, dass diese Plattformen als zukünftiger Gate-Keeper nicht nur die Daten an Werbungstreibende weiterverkaufen, sondern zukünftig das Leben der Individuen bestimmen, bzw. kommunikativ manipulieren.

 Im Interview: Dr. Sepita Ansari Pir Seraei ist Geschäftsführer der Digital-Marketing Agentur Syzygy. Seit über 15 Jahren beschäftigt er sich mit dem Thema Online Marketing. Er ist Hochschuldozent an der Hochschule München, sowie an der Hochschule Würzburg-Schweinfurt, sowie stellv. Vorsitzender der Fokusgruppe Content-Marketing im Bundesverband Digitaler Wirtschaft (BVDW).  Syzygy ist einer der bekanntesten und besten Digital Marketing Agenturen im deutschen Markt. Von der ganzheitlichen Analyse, über Strategieentwicklung bis hin zur Implementierung stehen wir für maßgeschneiderte Lösungen, Nachhaltigkeit und eine transparente, partnerschaftliche Zusammenarbeit. Wir unterstützen unsere Kunden dabei in allen Phasen des Digitalen Marketings und haben uns insbesondere auf SEO, SEA, Content Marketing, Social Media und Analytics spezialisiert.

 

 

Maschinelles Lernen: IBM entwickelt KI, die ethischen Vorgaben folgt

Ein Bericht auf „Golem“. Ist ein Video für Kinder geeignet? Ein selbstlernendes Empfehlungssystem soll das anhand von vorgegebenen ethischen Werten herausfinden. IBM-Forscher arbeiten an der KI, die aufgestellte Regeln auf große Datenmengen anwenden kann – in Zukunft vielleicht auf das Internet.  … mehr

 

Statements zur KI-Strategie der Bundesregierung

Die Gesellschaft für Informatik e.V. (GI) bewertet die „Strategie Künstliche Intelligenz“ der Bundesregierung als einen sehr wichtigen und vielversprechenden ersten Schritt auf dem Weg, Deutschland und Europa zur KI-Weltspitze zu entwickeln.

Gleichwohl schlägt die GI Konkretisierungen im Zuge der Umsetzung deKommunikation_Social_Media_rikilo_Fotoliar Strategie vor, insbesondere bei der interdisziplinären Forschung, bei der Vermeidung militärischer KI-Forschung und bei der Stärkung des akademischen Mittelbaus.

Deutschland und Europa sollen in Zukunft führender Standort für Künstliche Intelligenz (KI) werden.

Dafür hat die Bundesregierung auf der Kabinettssitzung in Potsdam eine „Strategie Künstliche Intelligenz“ beschlossen. Sie will damit einen „Rahmen für eine ganzheitliche politische Gestaltung der weiteren Entwicklung und Anwendung Künstlicher Intelligenz in Deutschland“ setzen. Die Gesellschaft für Informatik e.V. (GI) und der GI-Fachbereich ‚Künstliche Intelligenz‘ (GI-FBKI) als größte nationale, gemeinnützige KI-Organisation in Europa begrüßen diese KI-Strategie, sehen allerdings Konkretisierungsbedarf für deren Umsetzung bei der interdisziplinären Forschung, bei der Vermeidung militärischer KI-Forschung und bei der Stärkung des akademischen Mittelbaus in der KI-Forschung.

Prof. Dr. Hannes Federrath, Präsident der GI: „Die Gesellschaft für Informatik und insbesondere der Fachbereich ‚Künstliche Intelligenz‘ begrüßen die Bestrebung der Bundesregierung sowohl Forschung und Entwicklung als auch Anwendung von KI in Deutschland und Europa auf ein weltweit führendes Niveau zu bringen. Wir unterstützen insbesondere die verantwortungsvolle und am Gemeinwohl orientierte Entwicklung und Nutzung von KI. Die Strategie hat alle wesentlichen Vorschläge aufgenommen, die die GI im Rahmen des Konsultationsprozesses eingebracht hat. Jetzt muss die Bundesregierung schnell in den Umsetzungsmodus kommen und die aufgezeigten Maßnahmen in konkretes Regierungshandeln überführen.“

PD Dr. Matthias Klusch, Sprecher des GI-FBKI: „Wir begrüßen ausdrücklich die Bestrebung der Bundesregierung, die KI in Forschung, Lehre und praktischer Anwendung unter der Bezeichnung „Artificial Intelligence (AI) made in Germany“ signifikant zu fördern. Insbesondere unterstützen wir die Absicht, dass die Förderung auf einer breiten wissenschaftlichen und technologischen Basis unter Berücksichtigung bereits in Deutschland bestehender, exzellenter Kompetenzen in der KI als Ganzes erfolgen soll und nicht auf das KI-Teilgebiet Maschinelles Lernen beschränkt wird. Neben dem Aufbau von weiteren Zentren für KI-Spitzenforschung in Deutschland, mit besonderer Position des Deutschen Forschungszentrums für Künstliche Intelligenz, ist auch eine breitere Förderung von Hochschulen notwendig, um die Exzellenz auch in der Breite und durch optimale Ausbildung von benötigten Fachkräften in der KI zu ermöglichen.

Herausforderungen für die KI-Forschung

Eine der zentralen, künftigen Herausforderungen für die KI-Forschung stellt die Entwicklung von Methoden für eine geeignete Integration von unterschiedlichen KI-Technologien dar, wie die formal-logische Inferenz von Wissen, automatisches Planen oder Lernen mit neuronalen Netzen, das sogenannte ‚Deep Learning‘. Das kann zur Entwicklung von neuen, innovativen KI-Systemen und Anwendungen führen, die in einer realen Umwelt mit und für den Menschen sicher und verständlich nachvollziehbar, situativ optimal lernen, planen und handeln. Dabei sollte sich die KI-Forschung interdisziplinär auch am notwendigen kritischen, gesellschaftlichen Diskurs über Risiken und Chancen ihrer Anwendung und wirtschaftlichen Verwertung in Bereichen wie Industrie und Arbeit 4.0, Gesundheitswesen und autonomes Fahren, aktiv beteiligen – schon allein um überzogen optimistischen oder dystopischen Vorstellungen in diesem Kontext entgegenzuwirken.“

Mehr verantwortungsvolle, interdisziplinäre und keine militärische KI-Forschung

Die GI begrüßt deshalb ausdrücklich auch die Pläne der Bundesregierung zu einer verantwortungsvollen und am Gemeinwohl orientierten Entwicklung und Nutzung von KI und fordert mehr interdisziplinäre Forschung.

Prof. Dr. Christina B. Class, Sprecherin des GI-Fachbereichs ‚Informatik und Gesellschaft‘: „Der zunehmende Einsatz von KI wird nicht nur die Arbeitswelt und Geschäftsbeziehungen verändern, sondern die gesamte Gesellschaft. Daher müssen nicht nur die Sozialpartner, sondern alle betroffenen Gruppen einbezogen werden. Ein sogenanntes ‚Ethics by, in and for design‘ ist nicht ausreichend, um allen Fragen zu begegnen. Forschungsförderung muss sich auch auf interdisziplinäre Fragen beziehen. Die Veränderungen, die auf uns zukommen, müssen in allen Bereichen bewusst gestaltet werden, um die Grundwerte unserer freiheitlich demokratischen Grundordnung zu bewahren. Wir hoffen, dass die Bundesregierung die Strategie um tragfähige Vorhaben in diesen Fragen ergänzt.“

Die Erforschung von KI-Anwendungsmöglichkeiten zum Schutz der äußeren Sicherheit und für militärische Zwecke im Rahmen der Ressortzuständigkeiten sieht die GI äußerst kritisch. So unterstützt der GI-Fachbereich ‚Künstliche Intelligenz‘ die Initiative gegen intelligente, autonome Waffensysteme mit Entscheidungsgewalt zur Tötung von Menschen, sieht darin auch einen weiteren wichtigen Beitrag zu einem möglichen Markenkern der „AI made in Germany“ und fordert eine solche Berücksichtigung in der Konkretisierung der KI-Strategie der Bundesregierung.

Notwendiger Ausbau informatischer Bildung zu KI und in der Breite

Die Bundesregierung will, dass allen Schülerinnen und Schülern, die ab dem Schuljahr 2018/2019 eingeschult werden, bis zum Ende ihrer Schullaufbahn „ein umfassender Kanon digitaler Kompetenzen“ vermittelt wird. Die GI begrüßt diesen Anspruch ausdrücklich. Damit die allgemeinbildende Schule dem jedoch gerecht werden kann, braucht es allerdings mehr als den „Digital-Pakt“, der in erster Linie auf die nötige digitale Infrastruktur abzielt. Der Ausbau der informatischen Bildung, auch aber nicht nur zu Künstlicher Intelligenz, in den allgemeinbildenden und den berufsbildenden Schulen ist einer der wichtigsten Schlüssel für die Zukunftsfähigkeit unseres Landes, da diese Aufgabe nicht von anderen Fächern nebenbei erfüllt werden kann.

Prof. Dr. Torsten Brinda, Sprecher des GI-Fachbereichs ‚Informatik und Ausbildung/ Didaktik der Informatik‘: „Es ist unerlässlich, dass dabei ein wesentliches Augenmerk auf die Informatik als Leitwissenschaft der Digitalisierung gerichtet wird, und dass flächendeckend und verpflichtend alle Schülerinnen und Schüler entsprechende Kompetenzen erwerben. Das ist in der erforderlichen inhaltlichen Tiefe in der Breite fächerintegriert nicht möglich – es erfordert einerseits ein Fach „Informatik“ für alle und andererseits entsprechende Investitionen in die dafür erforderliche Ausbildung von Informatik-Lehrkräften. Der Bund muss den Ländern dafür gezielt Anreize setzen. Nur so können kommende Generationen zu mündigen und verantwortungsvollen Gestaltern des digitalen und gesellschaftlichen Wandels ausgebildet werden.“

Wissenschaftlichen Mittelbau in der KI stärken und Brain-Drain vermeiden

Die KI-Strategie sieht vor, ein Programm zur wissenschaftlichen Nachwuchsförderung und Lehre im Bereich KI aufzulegen; insbesondere sollen 100 KI-Professuren neu geschaffen werden. Das ist sehr zu begrüßen! Dabei ist sehr zu hoffen, dass diese Stellen nicht nur international konkurrenzfähig bestens und permanent ausgestattet werden, sondern auch inhaltlich die KI als Ganzes exzellent abdecken können und sich nicht, wie auf dem aktuellen Stellenmarkt bereits stark tendenziell sichtbar, nur rein auf maschinelles Lernen oder verwandte Felder wie Data Science beschränken.

Ansonsten besteht das sehr hohe Risiko, dass im internationalen Vergleich unser wissenschaftlicher Mittelbau in der deutschen KI-Forschung bereits auf kurze und mittlere Sicht extrem geschwächt wird – und damit auch ein ansteigendes Abwandern von Fachkräften und Experten in der KI ins Ausland („Brain-Drain“) einhergeht. Spitzenforschung braucht einen starken akademischen Mittelbau von Nachwuchswissenschaftlern: Sie sind das Rückgrat deutscher Spitzenforschung und wesentlicher Erfolgsfaktor für den Wissenschafts- und insbesondere den Informatik-Standort Deutschland.

Dr. Kerstin Lenk, Sprecherin des GI-Beirats für den wissenschaftlichen Nachwuchs: „Gerade im akademischen Mittelbau sind die Arbeitsverhältnisse oft prekär. Das ist ein generelles Problem. Um die Abwanderung des hoch qualifizierten wissenschaftlichen Nachwuchses in die Wirtschaft oder das Ausland kurzfristig zu verlangsamen und langfristig zu stoppen, sind konkrete Maßnahmen erforderlich. Befristete Arbeitsverträge, schlechte Arbeitsverhältnisse und Vergütung machen Wissenschaft für viele Nachwuchstalente zur unattraktiven Risikokarriere.“

Die Gesellschaft für Informatik e.V. (GI) ist mit rund 20.000 persönlichen und 250 korporativen Mitgliedern die größte und wichtigste Fachgesellschaft für Informatik im deutschsprachigen Raum und vertritt seit 1969 die Interessen der Informatikerinnen und Informatiker in Wissenschaft, Wirtschaft, öffentlicher Verwaltung, Gesellschaft und Politik. Mit 14 Fachbereichen, über 30 aktiven Regionalgruppen und unzähligen Fachgruppen ist die GI Plattform und Sprachrohr für alle Disziplinen in der Informatik. 

Der GI-Fachbereich ‚Künstliche Intelligenz‘ (GI-FBKI) ist Träger der von der GI geförderten wissenschaftlichen Arbeit auf allen Teilgebieten der Künstlichen Intelligenz. Der Fachbereich veranstaltet eine jährliche Fachtagung KI, auf der insbesondere Arbeiten aus seinen aktuell 11 Fachgruppen und Arbeitskreisen zum Fachgebiet Künstliche Intelligenz vorgestellt werden. Ferner gibt der Fachbereich die Zeitschrift „Künstliche Intelligenz“ im Springer Verlag heraus, die neben fachlichen Aufsätzen zur KI auch über Aktivitäten im Fachbereich berichtet. Der GI-FBKI ist mit über 1.000 Mitgliedern eine der größten und wichtigsten nationalen KI-Verbände in Europa und Teil der europäischen KI-Dachorganisation EurAI (European Association for Artificial Intelligence). Weitere Informationen finden Sie unter www.kuenstliche-intelligenz.de

KI-Pionier: „Maschinen könnten uns in allen Fähigkeiten übertreffen

Leben wir in Zukunft in einem Blade Runner-Szenario? Oder werden wir durch künstliche Intelligenz eine zweite Renaissance erleben? Es liegt an uns, sagt Toby Walsh im „derStandard“. .. mehr …

https://derstandard.at/2000087838663/KI-Pionier-Maschinen-koennten-uns-in-allen-Faehigkeiten-uebertreffen

Künstliche Intelligenz: Wettlauf ohne Ethik

Angesichts von Braindrain, Datenarmut und einem sich abzeichnenden Duopol aus den USA und China droht sich die Bundesregierung – statt an die KI-Weltspitze – in eine Sackgasse zu manövrieren. Will sie ihre KI-Ambitionen nicht aufgeben, muss sie Kooperationen mit EU-Partnern eingehen – allen voran mit Frankreich – und dabei gleichzeitig ein Umdenken weg vom bloßen Wettbewerb, hin zu den ethischen Konsequenzen der KI einläuten, ist in „Die Freiheitsliebe“ zu lesen. … mehr …

 

Ethik und Künstliche Intelligenz: Die Zeit drängt – wir müssen handeln

Künstliche Intelligenzen und Roboter werden in unserem Leben immer selbstverständlicher. Was erwarten wir von den intelligenten Maschinen, wie verändert ihre Präsenz in unserem Alltag und die Interaktion mit ihnen unser Selbstverständnis und unseren Umgang mit anderen Menschen? Müssen wir Roboter als eine Art menschliches Gegenüber anerkennen? Und welche Freiheiten wollen wir den Maschinen einräumen? Es ist dringend an der Zeit, die ethischen und rechtlichen Fragen zu klären, meint Prof. Dr. Arne Manzeschke in der „PC Welt“. … mehr …

 

“Innovationsturbo Künstliche Intelligenz – welche Ethik-Leitplanken brauchen wir?”

Die Telekom lud am 19.09 zum Telegraphen-Lunch in ihrer Hauptstadtrepräsentanz. An der Diskussion zum Thema “Innovationsturbo Künstliche Intelligenz – welche Ethik-Leitplanken brauchen wir?” nahmen Prof. Dr. Birgit Beck, Leiterin des Fachgebiets „Ethik und Technikphilosophie“, TU Berlin, Manuela Mackert, Chief Compliance Officer Deutsche Telekom, und Aljoscha Burchardt, vom deutschen Forschungszentrum für künstliche Intelligenz, Sachverständiger in der neuen Enquete-Kommission des Deutschen Bundestags, schreibt „Politik Digital“. … mehr

 

Warum künstliche Intelligenz Wissen und Regulierung braucht

Wolf Ingomar Faecks ist Senior Vice President und Industry Lead Automotive/Mobility/Manufacturing/Health bei  Publicis.Sapient EMEA/APAC.

Wolf Ingomar Faecks ist Senior Vice President und Industry Lead Automotive/Mobility/Manufacturing/Health bei Publicis.Sapient EMEA/APAC.

Noch ein Beitrag über die Möglichkeiten der Künstlichen Intelligenz? Oder eher einer über deren Risiken? Wolf Ingomar Faecks, im Management einer Digitalberatung, plädiert dafür, den Menschen klar zu machen, dass Künstliche Intelligenz dem Menschen das Denken nicht abnehmen kann und darf.

Das Hype-Thema „Künstliche Intelligenz“ (KI) besteht aus zwei Bestandteilen: „Künstlich“ und „Intelligenz“. Wie diese beiden Bestandteile derzeit in der medialen Berichterstattung durcheinandergemischt werden, reicht von kritikloser Bewunderung über sehr gemischte Gefühle bis hin zu kategorischer Ablehnung.

Wolf Ingomar Faecks, Senior Vice President und Industry Lead Automotive/Mobility/Manufacturing/Health, Publicis.Sapient EMEA/APAC, ist Experte für die digitale Business Transformation der Publicis Groupe. Er befasst sich seit Jahren mit den unterschiedlichen Facetten der KI. Im Interview erzählt er, warum die so genannten Clarke‘schen Gesetze* und insbesondere die These, dass „jede hinreichend fortschrittliche Technologie nicht von Magie zu unterscheiden sei“, so gut zu Künstlicher Intelligenz passen und warum KI zum Denken anregen sollte.

 Xethix: Die Geschwindigkeit in der technologischen Weiterentwicklung hat zugenommen und eine Regulierung findet meist erst dann statt, wenn etwas passiert ist. So werden Ängste geschürt. Wie ließe sich das besser machen?

Faecks: Nicht nur die Geschwindigkeit der technologischen Entwicklung nimmt zu. In immer kürzerer Zeit wird eine steigende Masse an Informationen produziert und verbreitet. Doch ein Mensch kann nur linear denken, nicht exponentiell. Das würden die Menschen aber sehr gern. Deswegen unterliegen viele der Fehleinschätzung, dass sie in exponentiellen Umfeldern mehr Zeit haben, alle diese Informationen aufzunehmen – und ihnen auch generell mehr Zeit zur Verfügung steht. Das stimmt aber nicht und so entsteht ein Informations-Gap zwischen Fakten, tatsächlichem Wissen und gefühltem Wissen. Daher laufen heute viele Personen Gefahr, Falschinformationen aufzusitzen. Und das ist dann wiederum die Ursache, warum so viele beim Thema Künstliche Intelligenz so diffuse Ängste verspüren.

Xethix: Der Informatiker und Philosoph Jaron Lanier hat in seinem neuen Buch die These formuliert, dass die Bösen keine Angst vor dem Einsatz von Künstlicher Intelligenz haben und fordert deswegen auch eine Regulierung, um die Guten zu schützen.

Faecks: Hier kommt das so genannte Clarke‘sche Gesetz ins Spiel, die Unterscheidung von Technologie und Magie. Wenn man zu viel über die Risiken redet, dann haben die Guten Angst, innovative Technologien einzusetzen, weil sie sie nicht verstehen. Doch das Problem ist nicht die Technologie, sondern eher, dass der Algorithmus mit den falschen Daten gefüttert wird.

Ein Algorithmus braucht ein Verständnis für das, was zwischen Input und Output passiert. Wenn ich nicht weiß, was die Maschine entscheidet, dann kann sie den Menschen nicht ersetzen. Der Mensch hat dann die Möglichkeit abzuwägen. Deswegen bevorzuge ich auch eher den Begriff Intelligent Augmentation (IA), statt Artificial Intelligence (AI). Maschinen können Prozesse dank vieler Informationen besser automatisieren und die Arbeit des Menschen ergänzen, eine echte eigene Denkleistung können sie nicht hervorbringen.

Jaron Lanier hat auch die These formuliert, dass sich schlechte Nachrichten mehr und schneller verbreiten. Daher müssen diejenigen, die Nachrichten verbreiten, auch besonders sorgfältig damit umgehen und benötigen Regulierungen. Regulierung per se ist nichts Schlimmes. Sie hilft dabei, ethischer zu handeln. Das gilt natürlich auch für den Umgang mit Künstlicher Intelligenz.

Xethix: Google hat 7 Prinzipien zum Umgang mit Künstlicher Intelligenz veröffentlicht. Denn das Thema „mobile first“ ist vorbei, jetzt ist „AI first“ die Ansage.

Faecks: Genau. Ray Kurzweil, Director of Engineering bei Google, beschäftigt sich seit langem mit dem Übergang von Mensch und Maschine und ist auch überzeugt: Man kann keine Plattform führen, ohne Verantwortung zu übernehmen. Ich persönlich finde die Thesen von Google gut. Aber werden sie auch umgesetzt und kontrolliert? Etwa über einen Beirat? Firmen sollten nicht Entscheidungen für die Menschen treffen, diese Entscheidungen sollten vielmehr in einem kritischen Diskurs stattfinden. Plattformanbieter könnten aber den Raum für solche Auseinandersetzungen schaffen, damit sich Menschen bilden und informieren können, um dann eigene Entscheidungen zu treffen.

*Sir Arthur Charles Clarke war ein britischer Physiker und Science-Fiction-Schriftsteller. Er hat im Rahmen seiner Werke die folgenden drei, als „Gesetze“ bezeichneten, axiomatischen Vorhersagen aufgestellt: „Wenn ein angesehener, aber älterer Wissenschaftler behauptet, dass etwas möglich ist, hat er mit an Sicherheit grenzender Wahrscheinlichkeit Recht. Wenn er behauptet, dass etwas unmöglich ist, hat er höchstwahrscheinlich unrecht.“ „Der einzige Weg, die Grenzen des Möglichen zu finden, ist, ein klein wenig über diese hinaus in das Unmögliche vorzustoßen.“ „Jede hinreichend fortschrittliche Technologie ist von Magie nicht zu unterscheiden.“

Von diesen drei „Gesetzen“ hat insbesondere das dritte – nicht nur innerhalb der Science-Fiction-Literatur – den Charakter eines Sprichworts erreicht.

 

Links zum Thema: Googles Research Department zu AI: https://ai.google/

Ethik und Künstliche Intelligenz: Mehr Bauchgefühl bitte!

Maschinelles Lernen, Künstliche Intelligenz – spätestens wenn die Dmexco ansteht, dreht unsere Branche regelmäßig durch. Wolfgang Bscheid, Geschäftsführer von Mediascale, hält ein Plädoyer für den ältesten Algorithmus des Menschen: unser Bauchgefühl. Ein Beitrag in „W&V“. … mehr