Was genau ist ChatGPT? Woher kommt es und welche Ideen und Absichten stehen dahinter? Veranstaltung vom 5. Juni 2023
Hier geht es zur Podcastaufnahme der Veranstaltung
Wir laden Sie herzlich zu unserer ersten Veranstaltung in unserer Reihe "KI-Dialoge" ein, in der wir eine spannende Einführung in das Thema ChatGPT und Künstliche Intelligenz geben werden. Tauchen Sie mit uns ein in die faszinierende Welt der KI und erfahren Sie mehr über die Hintergründe, Chancen und Risiken dieser bahnbrechenden Technologie.
Während der Veranstaltung werden wir uns intensiv mit ChatGPT beschäftigen und die grundlegenden Fragen klären: Was genau ist ChatGPT? Woher kommt es und welche Ideen und Absichten stehen dahinter? Wir möchten Ihnen vermitteln, wie ChatGPT entwickelt wurde und welche Potenziale diese KI-Technologie in sich birgt.
Dabei werden wir auch auf die Chancen und Risiken eingehen, die mit ChatGPT verbunden sind. In einer offenen Diskussion möchten wir den Bedarf an Regulierung erkunden. Wo sollten klare Leitlinien gesetzt werden und wo ist eine unregulierte Entwicklung wünschenswert? Hierbei betrachten wir auch die Haltung von Microsoft, einem der Vorreiter in der Entwicklung von ChatGPT. Welche Motivation steckt hinter dem Engagement von Microsoft und wie begegnen sie möglichen missbräuchlichen Anwendungen von ChatGPT?
Ein weiterer wichtiger Aspekt ist die Transparenz. Wir möchten Ihnen aufzeigen, wie Sie als Nutzerinnen und Nutzer des Endproduktes einschätzen können, wie die KI "gefüttert" wurde. Die Frage nach dem Verständnis der zugrunde liegenden Daten und Trainingsmethoden ist entscheidend, um die Auswirkungen von ChatGPT besser einschätzen zu können.
Nicht zuletzt wollen wir auch die Auswirkungen von ChatGPT auf unser demokratisches System beleuchten. Welche Anforderungen ergeben sich daraus und wie können wir sicherstellen, dass diese Technologie im Einklang mit unseren demokratischen Werten eingesetzt wird?
Seien Sie dabei und nehmen Sie an unserer Veranstaltung teil, um tiefer in die Thematik einzutauchen und Ihre Fragen zu stellen. Wir freuen uns auf einen inspirierenden und erkenntnisreichen Austausch mit Ihnen!
Wir haben zwei renommierte Expert*innen eingeladen, um mit uns zu diskutieren:
- Thomas Langkabel, National Technology Officer bei Microsoft Deutschland, wird uns einen umfassenden Einblick geben, was ChatGPT genau ist, woher es kommt und welche Ideen und Absichten dahinter stehen. Er wird auch die Motivation von Microsoft zur Entwicklung von ChatGPT erläutern und darauf eingehen, wie sie auf den potenziell missbräuchlichen Einsatz von ChatGPT reagieren.
HINWEIS: Thomas Langkabel konnte kurzfristig nicht an der Veranstaltung teilnehmen.
- Dr. Meike Zehlike, Senior Researcher und Beraterin für Ethical AI, wird die Chancen und Risiken von ChatGPT beleuchten. Zudem wird sie den Bedarf an Regulierung diskutieren und erläutern, welche Aspekte reguliert werden sollten und welche unreguliert bleiben können. Auch die Bedeutung von Transparenz wird thematisiert, damit Nutzerinnen und Nutzer besser verstehen können, wie die KI "gefüttert" wurde.
Die Veranstaltung wird von Mina Saidze moderiert, der Gründerin von Inclusive Tech, Forbes 30 under 30-Mitglied, Data Lead und Tech-Evangelistin. Mina Saidze ist bekannt für ihr Engagement im Bereich der Technologie und ihr besonderes Interesse an inklusiven Lösungen.
Titel und Text der Veranstaltung sind mit Hilfe von ChatGPT entstanden
Eine gemeinsame Veranstaltung im Stiftungsverbund von
- Heinrich Böll Stiftung Baden-Württemberg
- Petra-Kelly-Stiftung Bayern
- Bildungswerk Berlin
- Heinrich-Böll-Stiftung Brandenburg
- Heinrich-Böll-Stiftung Hamburg
- Heinrich-Böll-Stiftung Mecklenburg-Vorpommern
- Stiftung Leben & Umwelt | Heinrich-Böll-Stiftung Niedersachsen
TRANSKRIPT
Der Text wurde bereinigt, um den Lesefluss zu verbessern.
MINA SAIDZE: Vielen Dank, Petra, dass ich die Ehre habe, die Moderation der KI-Dialoge der Heinrich Böll Stiftungen und Petra Kelly Stiftung führen zu können. Und als Alumna der Heinrich-Böll-Stiftung erfüllt mich das auch mit besonderem Stolz. Und was ich auch wunderbar finde an der heutigen Veranstaltung ist, dass wir Frauen sind, die hier den Diskurs dominieren. Denn, wenn wir uns die Realität anschauen, arbeiten nur rund 17 % der Frauen in Deutschland in IT-Berufen. Und umso mehr freue ich mich auch darüber, dass Frau Dr. Meike Zehlike hier heute bei uns zu Gast ist und mit uns zu dem Thema ChatGPT verstehen, der richtige Weg? diskutieren wird. Und da wir auch eine kleinere Runde heute sind, möchte ich euch alle auch gerne dazu auffordern, eure Fragen zwischendurch zu stellen. Ich werde auch einen Blick darauf haben im Chat und wenn es thematisch hineinpasst, werde ich diese auch im Gespräch aufgreifen. Und ich freue mich auch, dass so viele Leute zahlreich erschienen sind, auch zu später Stunde. Ich weiß, dass einige von uns auch ja ein bisschen durch sind. Es ist Montag und man kommt dann von der Arbeit, Universität oder hat dann auch noch die Kinder im Hintergrund. Aber ihr habt euch trotzdem die Zeit dafür genommen, mit uns hier mehr über Künstliche Intelligenz, insbesondere ChatGPT, zu erfahren und deswegen sollten wir auch diese nutzen.
MINA SAIDZE: Ich möchte euch auch Meike Zehlike vorstellen, die eine renommierte Expertin im Bereich der KI-Ethik ist. Sie arbeitet derzeit als Senior Research Scientist bei Zalando. Und darüber hinaus ist sie auch Dozentin an der Humboldt Universität zu Berlin, wo sie eine Vorlesung zu dem Thema Trustworthy Machine Learning gab. Sie berät auch Gewerkschaften wie die IG Metall und die zugeordneten Betriebsräte. Was ich auch nochmal spannend finde: Die gewerkschaftliche Perspektive auf diese Debatte und ihre Mission ist es, dass die Wissenschaft auch am Diskurs rund um Technologie eine Stimme hat. Und dafür sorgt sie, indem sie ihre Forschungsergebnisse auch in die Praxis hineinträgt und den Diskurs auch für Menschen, die nicht in der Tech-Bubble tätig sind, für alle öffnet. Und das macht sie, indem sie auch in zahlreichen Formaten vertreten ist durch das regelmäßige Verfassen von Gastbeiträgen, Podcasts und sogar Fernsehauftritten. Und für ihre Arbeit ist sie bereits zahlreich ausgezeichnet worden, unter anderem mit dem renommierten Google Women Tech Maker Award. Herzlich willkommen, liebe Meike! Ich freue mich sehr, dass du die Zeit für uns heute hier gefunden hast.
DR. MEIKE ZEHLIKE: Ja, danke für die Einladung.
MINA SAIDZE: Du arbeitest ja schon jahrelang am Thema Künstliche Intelligenz. Und merkst du in deinem persönlichen Umfeld, wie sich die Wahrnehmung deiner Arbeit und deiner Rolle auch geändert hat?
DR. MEIKE ZEHLIKE: Ja, total. Also, gerade was das Thema KI-Ethik angeht war das damals, als ich damit angefangen habe, das war 2016, da war ich in Deutschland, glaube ich, da konnte man die Leute an zwei Händen abzählen. Also, es war auf jeden Fall eine einstellige Zahl von Leuten, die sich damit beschäftigt haben in der Forschung.
Und ich weiß auch noch, also ich habe ja zu dem Thema promoviert und als ich dann quasi meinen ersten Promotionsvortrag in meinem Graduiertenkolleg damals gehalten habe über das Thema, da war ganz schön viel Skepsis am Start und es ist auch bezweifelt worden, ob ich überhaupt Forschung mache. Und genau, dann hatte ich halt eben ziemlich Glück, weil zwei Jahre später das Thema ja medial total explodiert ist und dieses, also gerade das Thema Bias durch Machine Learning etc. das war ja dann überall in den Medien. Jetzt halt eben wieder mit der ganzen Generativen KI, die jetzt mehr und mehr Zugang bekommt, so dass auch quasi nicht-technisch versierte Menschen oder jetzt also Leute, die halt nicht programmieren können oder so, dass die das auch nutzen können. Und insofern ist das natürlich jetzt total in aller Munde und alle finden das total wichtig. Und ich kann mich inzwischen auch vor Anfragen gar nicht mehr retten. Und das freut mich einerseits, dass es so ein großes Interesse dazu gibt, weil ich glaube, dass das auch eine, also an sich, eine tolle Technologie ist, die uns viele Chancen bietet. Und gerade wenn es eben Leute gibt, die sich auch für den verantwortungsvollen Einsatz interessieren, dann ist das natürlich umso besser.
MINA SAIDZE: Was mich auch interessieren würde, Du spezialisiert dich unter anderem auf KI-Ethik und ich kenne das auch aus meiner persönlichen Erfahrung, dass es manchmal auch belächelt wurde und gar nicht ernst genommen wurde, weil der Fokus viel mehr auf den harten Bereich von Data Science lag: Das heißt Machine Learning Engineering, Devops. Und jetzt auf einmal merken wir durch den gesellschaftlichen als auch medialen Diskurs, dass das Thema immer mehr an Auffahrt gewonnen hat. Und ich würde gerne aus deiner Perspektive hören, wie du aus deiner praktischen Arbeit gelernt hast, wie Leute KI- Ethik auch innerhalb von Organisationen priorisieren?
DR. MEIKE ZEHLIKE: Ja. Das ist eine schwere Frage. Ich finde, da sind wir in Deutschland noch relativ am Anfang. Ich habe den Eindruck, dass es da schon ein großes Interesse gibt so von eigentlich allen Seiten, auch von Seiten der Unternehmen. Und gleichzeitig ist, glaube ich, bis eben ChatGPT und diese generativen Modelle diesen großen Zugang geschaffen haben durch Möglichkeiten im Internet diese Tools zu nutzen, dass es da jetzt gar nicht so wahnsinnig viel sogenannte hochkritische Anwendungen jetzt schon gab, die KI gestützt waren, also im Vergleich auch zu den USA. Und insofern sind die Leute da eher, so habe ich den Eindruck, also gerade auch jetzt aus meiner Arbeit mit der IG Metall zusammen, dass das eher so Was-wäre-wenn-Diskussionen häufig sind. Also gerade, wenn es beispielsweise um KI im Personalwesen geht. Ja, also das Interesse ist da, würde ich sagen. Aber es ist jetzt auch noch nicht so, dass man quasi schon sagen kann oh, hier ist ja schon das ganze Kind in den Brunnen gefallen und wir müssen jetzt ganz dringend reagieren oder so, sondern eher so, dass die Leute sich da relativ vorsichtig rantasten bei den Anwendungen, wo man auch das Gefühl hat, okay, also da können wir potenziell auch jemandes Leben ganz schön verändern. Und genau, also das Thema empfinde ich eher so, sowohl medial, aber auch so bei den Unternehmen, dassdas eigentlich als relativ wichtig eingestuft wird. Gleichzeitig ist es dann aber wiederum ,scheint es, immer schwer zu sein, dafür jemanden zu finden, der dann Geld gibt. Also ich meine, gut, bei Zalando ist das jetzt noch nicht passiert, aber die ganzen Tech-Unternehmen aus den USA haben ja, glaube ich, Anfang des Jahres bis jetzt und zum Teil auch schon letztes Jahr ihre ganzen KI-Ethik-Teams entlassen. Und da frage ich mich auch, wie das so weitergeht oder ob das jetzt irgendwie mal so ein kurzes: Oh Gott, war doch alles zu teuer. Aber dann stellen sie Leute doch wieder ein. Also, ich kann mir nicht vorstellen, dass das Thema jemals irrelevant wird. So wie das hier weitergeht mit der Geschwindigkeit, mit der sich KI jetzt entwickelt.
MINA SAIDZE: Das ist auch eine treffende Beobachtung, wenn wir uns jetzt auch OpenAI, ChatGPT um Microsoft anschauen. Sobald Microsoft deklariert hatte in der Öffentlichkeit, dass sie sich an OpenAI finanziell beteiligen werden, ist im Rahmen, das ist auch gerade gesagt worden, wir entlassen jetzt auch das KI-Ethik-Team, und ich habe oft das Gefühl, dass diese Big Tech Unternehmen dann immer denken, dass sie ihre großen Wachstums-Ambitionen gar nicht schaffen können, wenn ein KI -Ethik-Teams´ da nochmal gegen prüft und dass diese eher als Verhinderer einer beschleunigenden Entwicklung gesehen werden. Und das halte ich persönlich auch total für fatal als Technologin genauso wie du, dass wir eben denken, dass wir im Sinne von Profitinteresse, schnellem Wachstum eben dann nicht die gesellschaftlichen und sozialen Fragestellungen bei der Entwicklung von Technologie berücksichtigen. Und wir sprechen ja auch immer über ChatGPT, also Anwendung. Und du hast mir ja auch schon im Vorgespräch gesagt, dass du es manchmal ermüdend findest, dass Leute immer wieder auf CahtGPT verweisen und für unsere Zuhörerinnen und Zuhörer, die nicht aus dem Technologiebereich kommen: Wie kann ich ChatGPT im gesamten Generative AI Boom einordnen. Und was ist Generative AI überhaupt?
DR. MEIKE ZEHLIKE: Ich muss kurz mal überlegen, wo ich anfange. Denkst du, das macht Sinn, überhaupt mal darüber zu reden, wie KI funktioniert? Oder ist das zu viel, also zu Basic?
MINA SAIDZE: Du kannst mal kurz eine Analogie geben und stell´ dir mal vor, ich bin deine Omma. Naja, auch wenn das vom Alter vielleicht nicht hinhaut. Und ich schaue dich an. Mensch Meike, was ist das, was du den ganzen Tag im Internet machst? Was ist KI und was ist ChatGPT? Kannst du mir das mal erklären?
DR. MEIKE ZEHLIKE: Okay, gut, dann mache ich das. Also genau. KI im Gegensatz zu traditionellem Programmieren. Ich habe mir da mal so eine Kochrezept Analogie überlegt, die ich auch ganz gerne bei den Betriebsräten benutze. Und zwar ist das so, dass also im traditionellen Bereich ist es so, ich habe irgendwie so ein paar Zutaten, das ist irgendwie der Input und dann habe ich halt den Algorithmus, also das ist das Kochrezept und dannwerfe ich die beiden irgendwie zusammen und dann kommt am Ende was zu essen raus. Und bei KI im Vergleich oder beim maschinellen Lernen ist es im Gegensatz dazu so, dass ich quasi den Input habe, das sind die Zutaten und ich habe halt den Output, also das Essen. Und dann sage ich jetzt zum Computer, okay, jetzt rechne mir mal aus, wie wahrscheinlich der Algorithmus funktioniert, also wie das Kochrezept aussieht, damit ich am Ende dieses Essen rauskriege. Und weil das jetzt anhand eines Essens wahrscheinlich ein bisschen schwierig ist, gebe ich dem ganz, ganz viele Beispiele davon, von Input-Zutaten und Output-Essen. Also ich sagte ihm okay, das ist Spaghetti mit Tomatensoße. Das hier ist auch Spaghetti mit Tomatensoße. Und das ist jetzt auch Spaghetti mit Tomatensoße und die Zutaten sind jeweils so und so und dann am Ende würde das Ding mir dann halt aufgrund von statistischen Wahrscheinlichkeiten dieses Kochrezept halt versuchen auszurechnen. Das heißt also, bei KI sind wir am Ende des Tages als Ziel, was wir finden wollen, ist sozusagen ein Algorithmus, der zu den Daten passt, die wir haben. Und das kann man auf verschiedene Art und Weise machen. Also, man kann das einerseits so machen, wie ich gerade erklärt habe, das ist dann sogenanntes überwachtes Lernen. Also, da habe ich halt diese Input-Output-Paare. Und das große Problem beim überwachten Lernen ist aber, dass das relativ teuer ist, diese riesigen Mengen an Trainingsdaten zu erstellen. Weil irgendjemand muss ja sagen, diese Zutaten gehören zu Spaghetti mit Tomatensoße. Wenn man da jetzt eben Billionen von Datenpunkten hat, was bei ChatGPT der Fall ist, dann ist es eben einfach zu teuer. Dann gibt es halt eben dieses sogenannte unüberwachte Lernen. Und da ist es dann so: Ich habe eine große Menge an Daten-Punkten und kann dann mit verschiedenen Algorithmen, also verschiedenen statistischen Optimierverfahren, versuchen, Muster in diesen Datenpunkten zu erkennen. Diese generative KI funktioniert im Prinzip heutzutage als unüberwachtes Lernen. Das heißt, die haben so zwei neuronale Netze in sich drin. Das eine ist ein sogenannter Encoder, das nimmt eben so eine riesige Datenmenge und versucht in dieser Datenmenge dann.
MINA SAIDZE: Aber ganz kurz. Ich bin ja die Oma, deine, also deine Oma jetzt. Und ich frage: Meike, was ist denn ein neuronales Netz? Ist das ein Tennisnetz?
DR. MEIKE ZEHLIKE: Ja, also bei neuronale Netze sind eine bestimmte Möglichkeit, um dieses, ich würde jetzt ehrlich gesagt mal die Details weglassen, aber es gibt verschiedene Möglichkeiten, um dieses Kochrezept, was wir am Anfang hatten, so auszurechnen. Und es gibt verschiedene Dinge, die es ganz am Anfang gab, so was, das heißt Regressionsmodelle. Da hat man quasi eine bestimmte mathematische Funktion und versucht dann so verschiedene kleine Parameter da drin zu lernen. Da hat sich dann rausgestellt, naja, das ist nicht so, das ist nicht so effizient und neuronale Netze sind ein anderes Mittel, um das zu lernen. Und das Gute an denen ist, dass die sehr, sehr komplexe statistische Annäherungen lernen können. Also, die sind halt nicht so, können nicht nur so was einfaches wie okay, ich lerne eine lineare Funktion durch so eine Punktwolke durch irgendwie und ich muss dann nur den Anstieg lernen oder sowas, sondern ich habe halt, ich kann etwas sehr sehr komplexes damit lernen. Und die heißen neuronale Netze, weil die inspiriert sind von so Neuronen im Gehirn. Aber warum das im Detail so ist, ist eigentlich auch egal. Also der Witz ist aber, dass die eben relativ komplexe Probleme lösen können. So gut, also jetzt wissen wir, was neuronale Netze sind und dann, wenn man die zwei neuronalen Netze miteinander nimmt, dann hat man eben ein Netz, was in der Lage ist, aus einer ganz, ganz großen Datenmenge Muster zu erkennen. Und diese Muster gibt das erste neuronale Netz dann an das zweite wieder. Und dieses zweite neuronale Netz versucht dann aus diesen Mustern, das kennt also die Inputdaten nicht, es kennt nur diese Muster, die das andere dem jetzt zeigt. Daraus versucht es dann wiederum Neues zu generieren. Und das ist der Generative Part, also der generative Teil ist dann, dass es also diese Muster nimmt und versucht daraus jetzt wieder ein Bild zu generieren, was realistisch aussieht oder auch ein Text, der realistisch aussieht.
MINA SAIDZE: Oder sogar auch Code.
MINA SAIDZE: Ich habe auch schon im Chat geguckt und es sind auch schon einige Fragen eingetrudelt: Leider finde ich die Erklärung mit der Rezeptgeschichte nicht verständlich. Kurz zusammengefasst mit der Rezeptgeschichte zur Künstlichen Intelligenz. Stell´ dir vor, du hast Input und Output. Dein Input sind die Zutaten. Der Output ist das Gericht, was du am Ende des Tages hast. Und in der Realität ist der Input eben unterschiedlichste Datensätze, die du hast, die du da reinwirfst. Und wie beim Kochen im echten Leben, ist es ja auch so, dass die Kartoffeln gewaschen werden müssen oder die Möhren ein bisschen dreckig sind. Und genauso ist das mit Datensätzen, dass die nie sauber sind, sondern dreckig und vorbereinigt sein müssen. Das heißt, dass Ausreißer entfernt werden müssen, dass die Namenskonvention geprüft werden müssen, die auf einen Standard gebracht werden. Und dann wird das Ganze gekocht, prozessiert und am Ende entsteht eben Gericht. Und um auf dein Beispiel der Regression zurückzugehen. Ich habe einen Wert, den ich beobachte. Basierend auf den historischen Datensatz. Ich habe ganz viele Werte, die ich beobachtet habe, in der Vergangenheit und möchte in der Zukunft vorhersagen, wie sich zum Beispiel der Umsatz in dem Unternehmen entwickelt. Und je geringer die Diskrepanz ist zwischen dem beobachteten und erwarteten Wert, desto akkurater ist das Ganze. Und das können wir mit der Hilfe von maschinellem Lernen erreichen. Und ansonsten haben wir auch noch weiterführende Veranstaltungen, wo die Grundbegrifflichkeiten von Künstlicher Intelligenz erklärt werden.
MINA SAIDZE: Du hast ja gesagt, wir können mithilfe von Generative AI Texte, Bilder, Video, Audio generieren. Aber wir können sogar auch Code damit generieren, was vielen ja gar nicht bewusst ist. Und wie findest du das persönlich? Auch als jemand, der Code auch schreibt. Dass wir in der Lage sind, mithilfe von Generative AI Code zu generieren. Und was bedeutet das eigentlich auch für Berufsfelder in der IT-Industrie wie für Programmiererinnen als auch Datenanalystinnen und Datenwissenschaftlerinnen?
DR. MEIKE ZEHLIKE: Genau, da würde ich auch gerne noch mal die Frage ein bisschen auseinandernehmen. Also, erst mal ist es nicht sehr überraschend, dass ChatGPT auch coden kann. Es ist ja ein Sprachmodell und am Ende des Tages sind Programmiersprachen eben auch Sprachen. Die haben auch eine ähnliche Art und Weise, wie Sprachen an sich funktionieren. Und deswegen ist das jetzt erst mal ja eben gar nicht so überraschend, so dass die das auch können. Und habe ich jetzt Angst irgendwie, dass hier demnächst alle Programmierer arbeitslos werden? Eher nicht. Und zwar aus dem Grund: Erstens finde ich das so für diese kleinen Tasks, gerade so Programmier-Tasks finde ich das super, weil da halt viele Sachen einem abgenommen werden, die man sonst halt irgendwie immer wieder codet. Und in bestimmten Sprachen gab es halt lange, beispielsweise in C, ich weiß nicht, wie das heute ist, weil ich ewig kein C benutzt habe, aber da gab es halt so bestimmte Datenstrukturen nicht in den Bibliotheken, die musste man sich immer selber bauen. Wenn ich damals einen Chatbot gehabt hätte, der das für mich gemacht hat, super. Und dann könnte man das halt vielleicht sogar benutzen, um bestimmte Fehler, die auch in bestimmten Programmiersprachen total häufig vorkommen, irgendwie zu analysieren. Also, ich sehe da eher so das Potenzial. Also, das ist ja was, wo ich aus den Medien halt so das Gefühl habe, dass da viele Leute Angst davor haben. Also, da glaube ich, sind wir eher ein bisschen weiter davon entfernt. Und es liegt ja auch daran, dass gar nicht so richtig klar ist, wie gut diese Modelle eigentlich funktionieren. Also ganz häufig gibt es ja jetzt auch schon Artikel darüber, dass das ChatGPT-Modell und auch andere Sprachmodelle halt anfangen irgendwie zu halluzinieren. Ich meine, am Ende des Tages ist es halt ein statistisches Modell. Das wird mir halt immer irgendwie die am plausibelsten klingende Antwort geben. Und sie wird es auf eine Art und Weise tun, die quasi demagogisch sehr hochwertig ist. Das heißt also, im Prinzip ist es so ein Bullshitter auf einem sprachlich sehr hohen Niveau und der ist dann sehr überzeugend, das ist eigentlich gar nicht so richtig toll. Wenn an dem Problem nicht wirklich gearbeitet wird, dann frage ich mich, ob das überhaupt so eine große - Also, mir fallen immer die englischen Worte ein, sorry. Deswegen bin ich hier manchmal so am Überlegen - so eine große Zuwendung wirklich erfahren wird, weil das Problem ist nämlich, in den Bereichen, wo diese Sprachmodelle tatsächlich wirklich Potenzial haben, Menschen bei der Arbeit zu unterstützen, da müssen die halt auch wirklich zuverlässig sein. Also, wenn ich beispielsweise sagen will, okay, ich will das Teil benutzen, um mir was aus dem Internet raussuchen zu lassen. Dann muss ich mich auch darauf verlassen können, dass das, was da als Antwort kommt, dass das stimmt und dass die Quellen existieren. Und das ist im Moment alles gar nicht so und wenn sich das nicht ändert? Und da bin ich noch ein bisschen skeptisch, also, ob sich das so schnell ändert. Dann wird es halt für all diese interessanten Fälle, wo man auch tatsächlichen Produktivitätsgewinn haben kann, wahrscheinlich gar nicht so relevant sein. Denn es gibt halt sehr, sehr viele Fälle, wo man sich einfach darauf, also, die müssen 100 % verlässlich sein und nicht einfach nur ganz gut. Das ist wie beim autonomen Fahren, da ist das auch so, da kann man halt auch nicht sagen, ja, das Auto funktioniert ganz gut, aber in 20 % der Fälle fährt es leider gegen die Wand. Und deswegen hat sich das bisher nicht durchgesetzt. Und ich glaube, dass das bei generativer KI auch so ähnlich sein wird. Also, damit wir jetzt mit diesen Sprachmodellen wirklichen Produktivitätsboost sehen, müssen die Dinger wirklich gut funktionieren und wirklich zuverlässig funktionieren. Man kann sich jetzt nicht vorstellen, dass hier demnächst, keine Ahnung, also, Menschen, die meinetwegen Flugzeug-Autopiloten programmieren, die werden auch weiter Jobs haben. Wenn ChatGPT irgendwie den kleinen Fehler machen würde, na, dann wäre das Ding schon gestorben. Und gerade was jetzt eben auch die Frage nach Produktivität, Produktivitätssteigerungspotenzial angeht, ist das natürlich eben auch ein wirklich kritischer Punkt. Weil, wenn ich eigentlich, also, ich bin zwar schneller beim Programmieren, aber ich brauche doppelt so lange, um zu gucken, ob der Code, der da geschrieben wurde, überhaupt richtig ist. Hm, schwierig. Ich sehe das im Moment zumindest total unkritisch. Es gibt einige Sachen, die ich bei ChatGPT kritisch sehe, wo man auch gucken muss, aber insgesamt ist es eben so und das ist ja auch mein Forschungsfeld. So muss man einfach sich die Frage stellen. Um welche Bereiche geht es überhaupt? Was wollen wir für Tools entwickeln? Was sollen die können und was sind die Anforderungen? Und dann eben dort halt die Ressourcen, also auch Geld-Ressourcen reinzustecken. Und damit meine ich jetzt gar nicht mal nur akademische Forschung, sondern auch für die Unternehmen, dass die halt wirklich sich überlegen, was sind denn wirklich interessante Anwendungsfälle. Und es gibt da halt auch viele Sachen, die eben einfach gescheitert sind, weil entweder die Anwendungsfälle halt die falschen waren aus meiner Sicht. Also, dafür, finde ich, ist Alexa ein super Beispiel oder eben auch, weil es einfach nicht gut genug war. Und dafür ist eben autonomes Fahren ein recht gutes Beispiel.
MINA SAIDZE: Super spannend deine Gedanken dazu und du hast recht. Also, unsere eigene Urteilsfähigkeit als Individuum wird immer wichtiger denn je, weil wir ja mithilfe von Generative AI auch diese Information skalieren können, was wir auch in Zeiten des Ukrainekrieg sehen, wo Russland gezielt Cyberangriffe und Desinformation auf sozialen Netzwerken verbreitet mithilfe von künstlicher Intelligenz. Und dass wir uns auch dieser Gefahr bewusst sind.
MINA SAIDZE: Ich sehe auch, dass wir viele Fragen im Chat haben und möchte mich auch beim engagiertenPublikum heute Abend bedanken. Sabine Keitel schreibt: Ist durch die Halluzinierung nicht eher die Verbreitung von Desinformation die Gefahr? Die falschen Inhalte werden vermutlich unentdeckt in Webseiten übernommen und prägen das Netz.
DR. MEIKE ZEHLIKE: Ja, ganz genau. Das ist eine der Gefahren, die ich beim aktuellen Zugang von ChatGPT und generell halt bei so generativen Modellen sehe. Also, das wird eigentlich auch von vielen Leuten, die sich jetzt in dem Bereich auskennen und auch bei der Regulierung zum Teil mit dabei sind, gesehen, die sagen eigentlich alle, die großen Probleme im Moment mit diesen generativen Modellen sind Fake News und Hate Speech, weil man das halt in einem großen Stil skalieren kann. Und, und das ist halt auch das Problem, dass die meisten Leute, und das ist natürlich auch total verständlich, warum das so ist. Weil, also wir haben in der Bevölkerung eine ganz schlechte Literacy dazu. Also, mit Literacy meine ich: Es gibt ganz wenig Verständnis darüber, wie KI funktioniert, was es generell kann, was es nicht kann. Und auch jetzt gerade im Speziellen von ChatGPT, was das Ding tatsächlich tut. Und ich würde da gerne meine kleine Anekdote erzählen, und zwar habe ich mich mit meiner Schwester unterhalten, die auch eine sehr intelligente Frau ist. Ich will das jetzt nicht so darstellen, dass das quasi für ganz viele eigentlich verständlich ist, sondern es ist wirklich ein kompliziertes Thema. Naja, also es war auf jeden Fall so, dass sie einen Text schreiben musste und sie hat dann in ihrem Feld irgendwas mit Umwelt und so. Weiß ich gar nichts darüber und sie hat ChatGPT gefragt. Schreib mir doch mal eine Zusammenfassung mit Quellenangaben irgendwie zu diesem und jenem Thema und auch eine Erklärung, wie das funktioniert. Und dann haben wir uns darüber unterhalten, habe ich sie gefragt. Glaubst du denn, dass es stimmt? Und sie meinte so: Naja, das klang plausibel, auch mit dem Wissen was sie hat. Aber sie war in diesem Thema jetzt auch noch nicht so richtig drin. Und dann habe ich sie gefragt: Hast du denn geguckt, ob die Quellen existieren, die das Ding dir vorgeschlagen hat? Und dann hat sie gesagt: Ja, hat sie gemacht, aber sie hat die jetzt erst mal nicht gefunden. Und da habe ich gesagt: Hm, das ist eher ein schlechtes Zeichen. Und dann hat sie gemeint und ich glaube, dass das eben ein Missverständnis ist, was bei vielen erst mal da ist. Aber wieso? Das Ding sucht sich doch Sachen aus dem Internet raus, und das macht es nämlich genau nicht. Das ist ein statistisches Tool, was eine Antwort generiert aufgrund einer statistischen Wahrscheinlichkeit, die eben am wahrscheinlichsten ist. Das heißt also, das baut sozusagen einfach eine Antwort zusammen, die so ähnlich aussieht wie viele, viele Antworten, die das Ding vorher schon gesehen hat, zusammen mit noch ein paar anderen Faktoren. So, das lass ich jetzt mal weg. Aber auf jeden Fall ist das eigentlich das, was das Ding macht. Das sucht nicht im Internet irgendwelche Sachen für euch raus, sondern das antwortet auf eure Fragen mit einer Sequenz an Wörtern, weil letztendlich kann das Ding halt auch nicht semantisch irgendwie was verstehen. Im Groben gesagt. Es baut also quasi eine Sequenz von Wörtern zusammen, die zu der Frage, die gestellt wurde, wahrscheinlich am besten passt. Und dann sind halt solche Halluzinationen auch nicht weiter verwunderlich, so, weil wenn ich das Ding halt nur genug nerve. Das ist nämlich auch ganz interessant. Da gibt es auch Studien dazu. Also, je länger ich mit dem Chatbot rede, desto wahrscheinlicher ist es, dass es halluziniert. Weil nämlich eben, je detaillierter das wird, desto weniger weiß das Ding dann eben wieder, weil da die Trainingsdaten halt geringer sind, die das gesehen hat. Und dadurch kommen solche Sachen zustande. Und ich glaube, dass es halt wirklich hilft, wenn Leute besser verstehen, wie das Tool unter der Oberfläche funktioniert, weil dass das dann auch so ein bisschen entzaubert und die Leute auch nicht Angst davor haben. Oh Gott, KI übernimmt jetzt hier die Welt, also wird auch erst mal nicht passieren, da bin ich mir relativ sicher. Sogar würde ich fast meine Oma darauf verwetten. Bei den anderen Sachen weiß ich nicht. Worauf ich hinaus will ist, wir brauchen in der Bevölkerung ein wirklich besseres Verständnis darin, wie KI funktioniert. Und das fängt in der Schule schon an. So, also es gibt überhaupt keine Statistik-Ausbildung in Deutschland. Ich habe wirklich durch die Uni, ich habe nie Statistik gelernt, ich habe das in der Promotion dann gemacht, als ich das halt gebraucht habe. Also, das ist die zentrale Technologie und alles da drin ist Statistik, alles. Also, es gibt bisher, es gibt so ein bisschen Konzepte von Semantik und Lalalala. So und neuronale Netze sind ja irgendwie inspiriert von Neuronen und dies und das. Also, man kann da so ein bisschen sagen, okay, da fließt auch anderes Zeug mit ein, aber am Ende des Tages sind das alles statistische Optimier-Prozesse und die meisten Leute in Deutschland lernen das nicht in der Schule und das ist ein Riesenproblem.
MINA SAIDZE: Und das finde ich auch richtig krass. Also, ich schreibe auch in meinem Buch FairTech darüber, dass wir eine digitale Bildungsreform in Deutschland brauchen und das, was du angesprochen hast, mit Literacy, Data und AI Literacy, das Verständnis zu haben, was Daten sind, woher sie kommen, was Künstliche Intelligenz ist, die Anwendungsfälle zu verstehen und auch es korrekt einordnen zu können, ist so wichtig. Und wenn wir uns auch die junge Generation anschauen, dann hängen die alle am Handy rum. Aber die wissen dann gar nicht, warum ihnen ein bestimmter Match auf Tinder angezeigt wird oder warum ein bestimmtes Paar Schuhe auf Zalando ihnen vorgeschlagen wird. Und deswegen ist es so wichtig, dass wir auch lernen, diese Sprache zu sprechen. Nicht weil unbedingt jeder coden muss oder Statistikerin werden muss, sondern vielmehr, dass wir interdisziplinäre Zusammenarbeit ermöglichen können und auch die Berührungsängste von Technologie wegnehmen.
MINA SAIDZE: Ja, ich habe das Gefühl, dass durch ChatGPT, insbesondere Personen, die in den Kreativberufen tätig sind, wie im Journalismus, Content Marketing, Suchmaschinenoptimierung, das Gefühl haben, da kommt auf einmal etwas, was zu einem gewissen Teil auch meine Tätigkeit übernehmen kann. Und deswegen würde ich auch gerne auf die Fragen des Publikums eingehen. Rita und Jo fragen: Wie sieht es mit kreativen Berufen aus? Also, beispielsweise ChatGPT als Romanschreiber und jemand anderes schreibt: Was sind die Anwendungsbereiche mit dem größten Potenzial und was sind die Jobs, die am ehesten ersetzt werden könnten?
DR. MEIKE ZEHLIKE: Ich gehe vielleicht erst mal auf den Teil Kreativberufe ein, Also, zu dem Teil muss ich sagen, ich bin ja wie gesagt eher so im Bereich Ethik und KI unterwegs. Das heißt, ich habe mir relativ viel philosophisches Wissen angeeignet. Ich bin aber jetzt nicht für absolut alles in diesem Thema, also beispielsweise jetzt, wie wird sich das auf den Arbeitsmarkt auswirken. Da habe ich jetzt keine Forschung zu gemacht.
MINA SAIDZE: Und dafür haben wir auch unsere zweite Veranstaltung, wo wir uns dem Thema dezidiert widmen werden, und zwar am 20. 06.: Kollege ChatGPT, wie arbeiten wir zukünftig? - unter anderem mit Oliver Suchy vom DGB Bundesvorstand. Und da wären wir ja auch schon beim Thema Gewerkschaften. Und du berätst ja unter anderem die IG Metall und die dazugehörigen Betriebsräte. Und das würde mich auch wahnsinnig interessieren, weil Betriebsräte in Deutschland sich jetzt auf einmal mit Technologie befassen müssen und verstehen müssen, welche Implikationen die Einführung dessen für die Mitarbeitenden hat. Und, es gibt ja auch sogar offene Briefe oder Petitionen, die eine klare Positionierung oder Meinung dazu haben. Und du sprichst ja auch mit ihnen direkt und ich würde auch gerne deine Perspektive und deinen Erfahrungsschatz dazu hören.
DR. MEIKE ZEHLIKE: Ich mache das vielleicht mal alles zusammen, auch mit der vorherigen Frage noch. Also für Kreativberufe ist es zumindest von dem, was ich aus anderer Leute Forschung weiß, eher so, dass die das so einschätzen, dass diese generativen KI-Modelle noch für eine zusätzliche Kreativität genutzt werden. Also, die Leute benutzen das quasi als neues Tool, so wie Fotografie damals, um ihre eigene Kunst weiterzuentwickeln. Und es gibt halt eben viele Leute, die das bereits irgendwie in ihre eigene Kunst einbauen, das ist der positive Aspekt. Der negative Aspekt ist auch schon durch die Presse gegangen, dass da irgendwie ungefragt auf Millionen von Bildern von Leuten trainiert wurden, die damit Werbungen von sich selbst im Internet machen wollten und sich dann herausgestellt hat, dass man jetzt also irgendwie im Stil von auch lebenden Künstlern noch irgendwelche Bilder erzeugen kann, ohne dass die jemals gefragt wurden oder dass sie halt irgendwelches Geld sehen dafür. Das finde ich schon ein Problem. Also, ich will mich nur so ein bisschen dagegen wehren, immer so alles mit einem Satz beantworten zu können. Das geht nämlich nicht. Generative KI in der Bilderkennung und in der Bildgenerierung ist auch eine andere generative, regenerative KI als ChatGPT und diese Large Language Models. Das ist sowohl technologisch anders als auch das, was sie eben können und was sie tun. Und dementsprechend bin ich mir auch nicht so sicher, ob die die gleichen Auswirkungen haben, zum Beispiel was kreatives Schreiben angeht, würde ich da eher wieder sagen: Hm, schwierig. Kommt drauf an, was man schreibt, wenn man Datenjournalist oder wenn man Journalist einfach ist. Da ist es ja wieder so, ich muss mich darauf verlassen können, dass die Fakten stimmen. Ganz schwierig mit ChatGPT. Also, ich glaube, wofür man so was super nutzen kann ist: Schreib mir mal den Satz um, dass es nicht genauso klingt wie der Vorsatz. Irgendwie so ein Zeug. Also, quasi so Sachen, wo man früher dann dasaß und dachte: Oh, ich habe hier gerade so eine Schreibblockade, so was zu überwinden, finde ich persönlich, dass das sehr gut funktioniert. So, aber mir jetzt wirklich einen Text von dem Ding schreiben zu lassen und dann lese ich den einmal durch, mache noch ein paar Komma-Korrekturen und das war's. Das wird, glaube ich, auch nicht funktionieren, weil ich muss ja sicher sein, dass die Fakten, die da genannt werden, dass die tatsächlich stimmen und es kostet so viel Zeit. Zumindest im Moment noch. Da sehe ich jetzt in den nächsten paar Jahren erst mal nicht so eine Gefahr und dann zur Frage von den Betriebsräten. Also, wir haben uns da in der Vergangenheit vor allen Dingen sehr viel damit beschäftigt, eben KI im Personalwesen und in der Personalentwicklung. Also, ich und die IG Metall zusammen und da ging es halt viel um die Frage, wenn jetzt irgendwie im Recruitment das eingesetzt werden soll, da gibt es halt irgendwie alle möglichen Tools, die dann versprechen, dass sie den besten Kandidaten herausfinden oder die beste Kandidatin von allen, die da sind, und das wiederum ist halt ein ganz eigenes Feld. Und da muss ich wirklich relativ radikal sagen, dass also sämtliches, was ich bisher auf dem Markt gesehen habe, irgendwie was verspricht, mit KI den besten Jobkandidaten zu finden, dass man das eigentlich alles nehmen kann und einfach in die Tonne treten kann, weil da teilweise mit so unwissenschaftlichen Methoden gearbeitet wird und die Modelle, die trainiert werden, auf so einen blödsinnigen Annahmen beruhen. Also, ich habe wirklich bisher nichts gesehen und ich glaube auch, dass es da Potential gibt für KI so nervige Prozesse abzukürzen oder auch so eine Flut von Lebensläufen meinetwegen vorzusortieren. Das ist auch wiederum eine ganz andere Technologie als das, was wir jetzt von den generativen Sachen kennen. Das sind völlig unterschiedliche Aufgaben. Ich sage das auch deswegen immer mal wieder, wir sind ja eigentlich bei Generativer KI, aber auch diese Angst halt so ein bisschen zu nehmen davor: Oh Gott, also KI wird hier demnächst irgendwie bestimmen, was wir zu tun haben. Also, so wird ja geredet zum Teil in der Presse und da mal ein bisschen die Kirche im Dorf lassen und sich einfach nicht solche Sorgen machen. So, da gibt es halt echt viel von diesen Doomsday Leuten, die kriegen so viel Aufmerksamkeit in den Medien. Das finde ich wirklich anstrengend, weil die halt auch einen Haufen Zeug erzählen. Also erstens reden die halt die ganze Zeit nur darüber, was alles furchtbares passieren kann. B: Sagen sie aber auch gar nicht, was man stattdessen machen sollte. Gerade bei so Leuten, also zum Beispiel, dieser offene Brief da mit Sam Altman. Das finde ich echt überhaupt nicht glaubwürdig. Weil der Mann sagt, einerseits so okay, alles auf Stopp, sagt aber nicht, was man machen soll. Fordert in den USA, dass KI unbedingt reguliert werden soll. Und wenn die Europäer dann sagen okay, dann regulieren wir mal. Dann sagt er: okay, aber dann ziehen wir uns aus Europa zurück mit ChatGPT. Da denke ich mir so: Äh, what? Das ist total unglaubwürdig und deswegen, da passiert halt irgendwie ganz viel Aufmerksamkeitsgeheische. Dieses ganze Angst-Narrativ und irgendwie morgen geht hier die Welt unter und so. Ist auch schon so oft erzählt worden bei Technologien. Ich glaube auch als der Videorekorder erfunden wurde, gab es auch so ähnliche Presseartikel. Und ja, die Weber haben irgendwie auch einen Aufstand gemacht als der automatische Webstuhl kam. Ich glaube jetzt nicht, dass hier irgendwie morgen die Welt zu Ende ist und ich bin auch noch skeptisch, ob KI die neue Dampfmaschine wird. Es hat schon Potenzial, aber es müssen halt die richtigen Probleme gelöst werden und die richtigen Probleme zu lösen, da sind wir im Moment nicht dran. Also zumindest nicht mit ChatGPT. Da gibt es dann andere Modelle. Klimawandel, das sind alles Dinge, um die man sich mit KI, glaube ich, wirklich toll kümmern kann und wo man viel Potenzial machen kann. Also, Pandemien, Medikamentenentwicklung. So, es gibt supertolle Anwendungen für KI und deswegen finde ich dieses ganze: Oh Gott, oh Gott, oh Gott, finde ich einfach echt daneben.
MINA SAIDZE: Und die Medien tragen auch hier eine gesellschaftliche Verantwortung, klar und verständlich diese Inhalte zu vermitteln, ohne diese Untergangsstimmung zu verbreiten. Aber ich weiß auch, dass sie es tun, weil Clickbaiting wunderbar funktioniert, um mehr Seitenaufrufe und ergo mehr Online-Werbeeinnahmen zu generieren. Und deswegen entstehen dann auch solche Schlagzeilen wie: Diese zehn Jobs sind demnächst gefährdet. Und wenn man sich das genau durchliest, sind diese Jobs gar nicht per se gefährdet, sondern es wird sie weiterhin geben. Nur die Art und Weise, wie die Menschen ihren Job ausführen, wird sich ändern. Eine Studie des MIT, die im März dieses Jahres veröffentlicht wurde, hat auch aufgezeigt, dass Mitarbeitende, die ChatGPT verwenden können, ihre Produktivität um 37 % erhöhen. Und früher hat man ja in der industriellen Revolution über die sogenannte Blue CollarProduktivität gesprochen. Und jetzt sind wir im Zeitalter, wo intellektuelle Fließbandarbeit automatisiert werden kann. Und ich finde das so ein bisschen ähnlich wie damals mit Excel in den 90er Jahren, wo es dann auf einmal hieß, wir brauchen gar keine Buchhalterinnen mehr und wir haben das Jahr 2023, wir brauchen immer noch Leute in der Buchhaltung.
MINA SAIDZE: David Beck hat zu Anfang geschrieben. Wie ordnen Sie Warnungen wie die von letzter Woche vom Center for AI Safety ein, die auch von CEOs von einigen der größten KI-Unternehmen mit unterschrieben wurden? Ein gutes Zeichen, dass sich diese Menschen auch Sorgen machen?
DR. MEIKE ZEHLIKE: Ich muss sagen, dass ich die die Warnung jetzt nicht kenne. Vielleicht können wir da mal kurz sagen, was genau konkret da jetzt die Warnung ist.
MINA SAIDZE: Ich habe das auch nicht so wirklich mitbekommen, wenn ich ehrlich bin.
[Vermutlich meint David Beck dieses Statement: Statement on AI Risk; darauf beziehen sich Mina Saidze und Meike Zehlike ebenfalls, ein Statement, dass u. a. von Sam Altman, CEO, OpenAI, unterzeichnet wurde.]
DR. MEIKE ZEHLIKE: Ganz generell ist es, glaube ich, nicht so. Also, ich finde vor allen Dingen diesen offenen Brief mit diesem Moratorium, den Musk und irgendwie noch ein paar andere unterschrieben haben, den fand ich relativ unsinnig. Das heißt aber nicht, dass ich eben keine Gefahren sehe, die von KI ausgehen. Ich meine, das eine, womit ich mich halt in der Vergangenheit viel beschäftigt habe, sind eben diese Sachen Diskriminierung, Bias, irgendwelche sozialen Konzepte und strukturelle Diskriminierung, die auf einmal in Mathematik gegossen werden und dann gesagt wird, dass das quasi Mathematik und deswegen neutral ist und das kann gar nicht diskriminierend sein - lauter solche Sache, ne. Und natürlich ist halt ein anderes Problem das, was wir schon kurz besprochen haben, eben diese Generierung von Fake News und Hate Speech und dieses ganze Zeug. Und das hat ja oder auch einfach nur banale Rankingalgorithmen. Also, wenn ich bei bei LinkedIn auf Jobsuche bin und mir werden irgendwie, weil ich eine Frau bin, diese ganzen, und das ist ja auch tatsächlich passiert, weil ich eine Frau bin, werden mir diese ganzen High Salary Jobs nicht angezeigt. Das ist dann schon richtig doof. Und das ist auch, das hat ja wahnsinnig großen Einfluss auf mein Leben. Also, das ist ja nicht nur so: hm, okay, die hat jetzt ein bisschen Pech gehabt, sondern, das heißt dann für eine große Gruppe von Menschen, in dem Fall Frauen, dass die weniger Geld verdienen werden. Ich meine, das tun sie sowieso halt irgendwie aus verschiedenen Gründen schon, aber das wird dann da noch mal zementiert. Und dann kommt ja noch dazu, dass ich das gar nicht rauskriege, weil ich weiß ja nicht, wie der LinkedIn-Werbealgorithmus für Jobs funktioniert. Und schon gar nicht weiß ich irgendwie, was mir eigentlich zugestanden hätte. Und deswegen will ich jetzt nicht so dastehen, als würde ich alles toll finden. Ich finde schon, dass wir das halt sehr kritisch uns angucken müssen und so, aber es ist eben auch nicht so, dass morgen die Welt untergeht. Und das finde ich schon wichtig, dass man eben aufhört, sowas zu machen.
MINA SAIDZE: Wir haben noch Zukunftsoptimismus, definitiv, weil wir ja auch diese Technologien mitgestalten. Und Santiago Amaya schreibt: ChatGPT ist nur eine von vielen Anwendungen, die KI nutzen. Wenn es darum geht, AI Ethics zu etablieren, müssten alle Anwendungen unter die Lupe oder gibt es Vorschläge, allgemeine Regeln für alle KI-Anwendungen? Danke und viele Grüße aus El Salvador. Wir haben eine recht internationale Gruppe hier heute mit uns.
DR. MEIKE ZEHLIKE: Ja genau. Also, die Frage ist auch, wie vieles, nicht ganz so einfach zu beantworten. Ein guter Freund von mir und Kollege ist Philipp Hacker. Der ist Rechtswissenschaftler für Technik im Allgemeinen. Aber vor allen Dingen hat er jetzt auch gerade in dieser ganzen Debatte viel die EU beraten, auch zum Thema AI Act und der hat das halt ganz gut erklärt.
MINA SAIDZE: Kannst du ganz kurz in zwei bis drei Sätzen nochmal sagen, was der EU AI Act ist, weil wir auch einige Personen hier mit dabei haben, die davon vielleicht noch nicht gehört haben. Danke dir.
DR. MEIKE ZEHLIKE: Genau. Also die EU hat 2021 angefangen, Gesetze auf den Weg zu bringen, wo sie das erste, also als erstes Staatengebilde überhaupt auf der Welt, angefangen hat, sich zu überlegen, wie man solche Systeme regulieren könnte. Da kommt jetzt einiges an Gesetzgebung. Also, dast ist nicht nur der EU AI Act. Da kommen auch noch andere Sachen wie der Digital Services Act, Digital Markets Act usw. Auch die werden sich mit KI-Themen beschäftigen müssen. Aber der zentrale ist eben dieser sogenannte AI Act, der solche KI-Systeme in Risikoklassen unterteilt. Und im Moment gibt es in diesem AI Act gibt es vier Risikostufen. Das eine ist quasi ganz niedriges Risiko. Dann kommt so ein mittleres Risiko, dann kommt ein hohes Risiko und dann kommt ein richtig, ganz schlimmes Risiko. Und alle, die in dieser vierten Kategorie sind, sind erstmal per se verboten. Das sind also automatische Waffensysteme. Dann noch ein paar andere Sachen, habe ich jetzt vergessen, aber so in der Kategorie automatische Waffen, sowas ist da alles irgendwie oben drin. Dann gibt es diese High Risk Systeme, die sollen dann sehr, sehr stark reguliert werden. Da fallen halt so Sachen rein wie diese Tools, die im Bereich Personalwesen zum Beispiel benutzt werden sollen oder auch in der Medizin, so Diagnoseverfahren. Also alles, wo halt das Leben von Menschen wirklich sehr stark beeinträchtigt oder einfach wenn es daneben geht, dann hat es halt wirklich live changing consequences und dann gibt es in den unteren zwei Stufen. Also, de facto meint Philipp auch, dieser Rechtswissenschaftler, von dem ich gerade gesprochen habe. Er meint, es gibt eigentlich de facto nur zwei Stufen, nämlich entweder: kein Risiko oder hohes Risiko. Alle anders ist irgendwie entweder irrelevant oder verboten. Und in dieser niedrigen Stufe sind halt Sachen drin wie beispielsweise Spamfilter. Die funktionieren ja auch mit KI. Und so was in dem Bereich und Philipp sagt halt, dass es zwei Ebenen gibt, auf denen man regulieren kann. Das ist einmal die Modellebene, also die technische Ebene und dann auf der Anwendungsebene. Also, da muss man sich dann quasi fragen, okay, wenn dieses Modell in diesem Bereich, sagen wir mal Medizin, Arztbrief schreiben oder so eingesetzt werden soll, dann müsste dies und das und jenes passieren. So kann man das regulieren. Das Problem ist jetzt halt, dass sich also gerade im Bereich generative KI, also Philipp schätzt das so ein, und die Einschätzung teile ich auch. Also, die EU hat sich dort dafür entschieden, das auf der Modellebene zu regulieren und auch bei der Regulierung muss man natürlich gucken, dass man jetzt nicht irgendwie sämtliche Innovation ausbremst. Und wenn man aber anfängt, auf der Modellebene regulieren zu wollen, dann heißt das sozusagen: Ich muss mir alle - es gibt ja 1 Million Anwendungsfälle für generative KI - Ich muss mir also quasi als kleines oder mittelständisches Unternehmen in Deutschland, also es gibt ja auch so ein deutsches Open AI Unternehmen...
MINA SAIDZE: Aleph Alpha, die ihren Sitz in Heidelberg haben. Schaut euch das Unternehmen unbedingt an!
DR. MEIKE ZEHLIKE: Genau, aber das ist halt ein relativ kleines Unternehmen, dass die jetzt irgendwie so Risk Assessment machen sollen für all ihre möglichen Anwendungsfälle in ihrem Modell, ist eigentlich nicht so richtig sinnvoll. Das heißt also, meiner Meinung nach, wäre das besser, auf der Anwendungssebene zu regulieren, und dann, und da komme ich jetzt auch auf die Frage zurück. Wenn man auf der Anwendungsebene reguliert, dann reguliert man eigentlich wieder domänenspezifisch. Dann gibt es also auch wiederum, glaube ich, Sachen, die jetzt universell sind, wo man sagen könnte, na gut, meinetwegen, alle müssen dann irgendwie so ein Risk Assessment machen im Bereich Medizin oder sowas. Aber wie das dann im Speziellen für die Domäne aussehen soll, das halte ich eher für domänenspezifisch. Und da muss man dann halt eben eher so gucken. Und beim Ethischen ist es genauso. Es gibt ein paar fundamentale Sachen, wo man sagen kann: okay, also das ist aus ethischer Sicht und sowieso ist es, glaube ich, als Ethiker, also zumindest in meiner Arbeit ist es jetzt gar nicht mal so sehr, dass ich irgendwie sage, das ist ethisch, dass es unethisch, sondern eher, dass ich sage oder auch was ich arbeite sozusagen, ist, zu sagen: okay, das ist irgendwie ein philosophisches Konzept von Gerechtigkeit meinetwegen, also Verteilungsgerechtigkeit habe ich viel gemacht. Und ich übersetze genau dieses Konzept genau so wie es ist in Mathematik. Und denke mir nicht irgendwas dazwischen aus, was irgendwas macht, was man aber eigentlich philosophisch nicht beschreiben kann. Und das ist eine andere Sache. Das ist etwas, was, glaube ich, universell gut ist, wenn man so was macht. Also, dass man Algorithmen baut, wo man dann sagen kann, die funktionieren genau nach dieser Idee von Gerechtigkeit. Und dann baue ich meinetwegen noch ein anderes Modell, das funktioniert dann nach einer anderen Idee, weil es gibt ja sehr viele Ideen davon, was gerecht ist in welcher Situation. Und das Recht spiegelt es ja auch wider, unser Recht, wenn es um Verteilungsgerechtigkeit geht oder so. Und das Wichtige ist, glaube ich, und das ist auch so ein Appell an vielleicht irgendwie Leute, die sich hier mit KI-Entwicklung beschäftigen bei den Teilnehmenden, dass man diese technischen Entscheidungen, die man trifft, dass man da halt irgendwie dafür sorgt und sich dessen bewusst ist, dass es also a) dass es immer ein Wertekonzept gibt, was das impliziert. Also, man kann quasi nicht wertfrei eine technische Entscheidung treffen. Und b), dass man diese technischen, diese wertfreien, also, diese Werte, die man da drin hat, dass die auch zu dem passen, was ich wirklich möchte und dass es da nicht so quer durch den Gemüsegarten geht. Das ist nämlich auch so ein bisschen das Problem gewesen am Anfang zumindest von dem Forschungsfeld, was sich mit Fairness und solchen Sachen im Bereich KI beschäftigt hat, dass die sich teilweise wirklich die wildesten Definitionen einfach ausgedacht haben und irgendwie gedacht haben: Ja, okay, das klingt irgendwie fair für mich, aber jetzt dann nicht gesagt haben, aber meinetwegen philosophisch oder soziologisch oder irgendwie passt es halt in dieses Framework. Und das finde ich auch noch mal wichtigen Punkt, also, dass wir da, wie du sagst, interdisziplinäre Forschung ist eigentlich oder interdisziplinäre Arbeit an sich ist da das Zauberwort, weil es gibt ja Leute, die sich seit langer Zeit mit solchen Fragen von: Was ist eine gerechte Gesellschaft, was, wie wollen wir leben, was ist ein gutes Leben und lauter so Sachen, das müssen ja nicht jetzt irgendwie die Techies alles von vorne machen, sondern die können einfach mal mit den Leuten reden, die das schon seit Ewigkeiten sich damit beschäftigen.
MINA SAIDZE: Ich finde, das ist ein sehr spannender Punkt. Also, wenn wir auch über unser Werteverständnis nachdenken, auch über unser europäisches, ist das, was in Europa ein Angriff auf unsere Bürgerrechte, auch ein Eingriff in unsere Privatsphäre ist, in China erlaubt, Also, auch die unterschiedlichen Wertevorstellungen, die zum Beispiel Europa im Vergleich zu China hat. Und gleichzeitig haben wir ja China, die sich als KI-Supermacht bis 2030 etablieren wollen. Und was bedeutet das für die neue Weltordnung im digitalen Zeitalter? Und das ist etwas, was mir auch persönlich Sorge bereitet. Und das ist auch ein Thema, dem wir bei der dritten Veranstaltung auch einen Fokus widmen werden.
MINA SAIDZE: Was ich toll finde an der Runde ist auch, dass wir einige Leute aus dem Bildungswesen haben und Ralf Otsen schreibt: Als Lehrerin sehe ich ChatGPT kritisch. Schülerinnen verlassen sich, ohne selbst zu denken, auf dieses Programm, benutzen es unerlaubt in Klausuren. Für die große Masse, die Nachrichten eher unkritisch gegenüberstehen und Plausibilität nicht näher prüfen, sehe ich Gefahr, Fake News und Wahrheit nicht mehr unterscheiden zu können. Und eine andere, die noch am Bildungswesen angeknüpft ist, ist von Rona Beker. Wie würden Sie vorschlagen, dass man das Wissen über KI mehr in den Schulalltag implementieren kann, vor allem in nichtwissenschaftlichen Fächern?
DR. MEIKE ZEHLIKE: Ich sag erst mal was zum ersten Punkt. Ich sehe es genauso. Und das ist natürlich etwas, was man, glaube ic, als Schüler nicht kapiert. Aber ChatGPT verhindert ja auch, dass ich lerne zu schreiben, wenn ich immer schreiben lasse. Das heißt, wenn ich immer ChatGPT nutze, werde ich nie lernen, wie ich einen zusammenhängenden Text schreibe, der wirklich meine Gedanken strukturiert wiedergibt. Und das ist durchaus ein Problem. Da ist halt immer so ein bisschen die Frage. Ich habe da auch einen ganz interessanten Artikel heute gelesen im New Yorker zu genau dieser Frage: Ist der Trade off das wert? Und im New Yorker stand dann so ein Beispiel, wo Sokrates sich darüber beschwert, dass die Schrift die Leute dazu verleiten wird, dass sie sich nicht mehr Dinge merken können. Und bis zu einem gewissen Grad stimmt es. Also wir haben quasi diesen Trade off zwischen: Wir können ganz viel Wissen speichern auf Papier und jetzt später eben digital versus wir können uns weniger merken, als das vielleicht zu Sokrates Zeiten der Fall war. Also, dieser Trade off war vernünftig, würde ich sagen. Ob das jetzt bei ChatGPT genauso ist, bleibt eher abzuwarten. Und natürlich ist es so, dass, wenn ich als Schüler eben mich niemals hinsetze und selber was schreibe, dann werde ich es halt auch nicht lernen. Das ist natürlich immer ein bisschen schwierig, das so Menschen im Teenageralter zu vermitteln.
Ich sehe das auch, dass es ein Problem ist. Ich glaube, eine Sache ist natürlich, dass man den Leuten das erklären muss. So, und das ist aber so ein bisschen wie damals im Internet, also man musste den Leuten ja auch beibringen, dass nicht alles, was im Internet steht, fundiert ist. Und da hat die Schule zu meiner Zeit ein bisschen was gemacht. Es gab ein paar Lehrer, die dazu beigetragen haben, aber das muss, meiner Meinung nach, überhaupt erst mal in den Schulunterricht. Ich glaube, da geht es jetzt gar nicht mal so sehr um konkrete Konzepte im Moment, also zumindest aus meiner Sicht. Ich glaube, soweit ich weiß, gibt es immer noch keinen flächendeckenden Informatikunterricht in Deutschland.
Wir sind gar nicht an dem Punkt, wo wir uns über verschiedene Konzepte unterhalten müssen, sondern wir müssen überhaupt erst mal irgendwas machen und dann kann man immer noch gucken, ob das funktioniert. Weil, ich glaube schon, dass viele Leute auch, also Menschen an sich haben, zumindest mein Eindruck, ja häufig auch, wenn sie das Thema interessiert, schon Bock zu lernen. Und wenn man ihnen dann sagt: Ey, pass mal auf, wenn du jetzt immer nur ChatGPT nimmst, um deine Klausuren zu schreiben, dann lernst du hier gar nichts. Und die, weiß ich nicht, die Grenzen meiner Sprache sind die Grenzen meiner Welt. Das hat schon Auswirkungen auf lange Sicht. Das ist insgesamt einfach ein Riesenproblem, so dass das wir unseren Kindern eigentlich quasi die Zukunft verbauen. Da kann man wirklich sagen, das ist wirklich ein viel größeres Problem als die Frage, ob ChatGPT die Welt übernimmt.
MINA SAIDZE: Und dabei geht es ja gar nicht nur um Künstliche Intelligenz, sondern auch um Digitale Medienbildungskompetenz. Wenn ich mit jungen Menschen spreche und die frage: Wo hast du das gelernt? Dann antworten Sie mir: Och, das habe ich auf Instagram, TikTok oder Facebook gesehen und gelernt. Dann frage ich sie: Was ist die Quelle? Dann kommt wieder Instagram, Facebook oder TikTok. Und das sind Plattformen. Aber nicht die Quelle. Und auch die Verifizierung von Inhalten wird umso wichtiger. Und da verschwimmt auch die Grenze zwischen der Wahrnehmung von Plattform und Quellen, dass es identisch behandelt wird. Und dadurch sehen wir ja auch, dass die Medienbildung insbesondere bei der jüngeren Generation massiv nachgelassen hat. Und ich glaube, das ist auch etwas, was wir von den skandinavischen Ländern lernen können, wo Digitale Medienbildungskompetenz auch mit im Schulplan verankert ist, genauso wie das Schulfach Empathie. Seit den 90er Jahren, wenn ich eine Volksschule in Dänemark besuche, und ich glaube auch, dass Empathie eine Superkraft wird im Zeitalter der Künstlichen Intelligenz und deswegen auch an die Lehrerinnen und Lehrer hier, die mit dabei sind: Ihr leistet wirklich einen wertvollen Beitrag für die Gesellschaft und wir finden es großartig, dass ihr euch damit befasst und macht bitte weiter so!
Da schreibt jemand: Ich arbeite teilweise als Hörbuchsprecher und in der Branche heißt es KI kann unseren Job sehr bald größtenteils übernehmen. Einige Sprecher verkaufen wohl schon ihre Stimme zur Auswertung durch KI und Beate Benning-Groß fragt auch hierzu,wie das Urheberrecht generell berücksichtigt wird, insbesondere wenn es auch darum geht, die KI-Modelle mithilfe von Trainingsdatensätzen zu trainieren.
DR. MEIKE ZEHLIKE: Was die Frage nach dem Urheberrecht angeht, da weiß ich ehrlich gesagt eigentlich nichts dazu, außer das, was ich schon gesagt habe. Ich finde, dass man da mal drüber reden müsste. Gleichzeitig ist das Urheberrecht, so wie es jetzt ausgestaltet ist, auch für das digitale Zeitalter, finde ich, immer nicht so richtig gut geeignet aus verschiedenen Gründen. Einerseits, weil es halt relativ easy ist, die Sachen zu kopieren. Da müsste man generell mal was machen, aber dafür bin ich echt die falsche Ansprechperson. Deswegen würde ich die Frage mal an eben beispielsweise meinen Kollegen Philipp Hacker weitergeben oder eben andere Leute, die sich damit beschäftigen. Und was den konkreten Fall angeht von Stimmimitationen durch KI. Das kann ich mir tatsächlich vorstellen, dass das ein Fall ist, der dazu führen könnte. Muss man dann auch mal fragen, mal gucken, wie sich das entwickelt und wie gut KI tatsächlich ist im Vergleich zu einem Schauspieler. Und weil KI ist ja, habe ich ja schon gesagt, es ist am Ende des Tages halt immer eine statistische Annäherung und ist in erster Instanz nicht in der Lage, da jetzt auch eine eigene Interpretation mit reinzubringen bringen, es sei denn, ich trainiere sie explizit darauf. Ist mir jetzt aber nicht bekannt bei solchen Sprachmodellen. Aber tatsächlich ist es so, dass die Frage nach Imitationen von einem bereits gesprochenen Text mit einer anderen Stimme, der dann meinetwegen auch von der KI erst mal vorgelesen werden kann, das scheint tatsächlich schon relativ gut zu funktionieren und ich kann mir auch vorstellen, warum das dann sofort ein Geschäftsmodell ist, die eigene Stimme zu verkaufen.
MINA SAIDZE: Vor allem für Medienhäuser. Ich habe das bei RTL gesehen, dass sie auch genau in diesem Bereich arbeiten, wo auch im Hörbuch Sprecherinnen und Sprecher Texte einsprechen, um dann in der Lage zu sein, online Artikel anbieten zu können und gleichzeitig auch eine Audiodatei, die automatisch generiert wird, das heißt Text to speech, die Anwendung. Und natürlich ist da auch der Inklusionsaspekt vorhanden. Wenn ich aufgrund von Sehschwierigkeiten nicht in der Lage bin, einen längeren Text online zu lesen und ich dann auch eine Audiodatei habe und mir das anhören kann und das eben auch nicht roboterhaft klingt, dann ist es doch auch etwas Schönes. Und ich glaube, da müssen wir auch über das Thema digitale Zugänglichkeit und Inklusion nachdenken, dass es eben auch gewisse Vorteile mit sich bringt. Und deswegen möchte ich auch eben, dass wir einen Perspektivwechsel einnehmen, warum Unternehmen in diesem Bereich investieren oder auch Start-ups dort Forschung betreiben. Und wir haben noch eine andere Frage aus dem Bildungswesen, diesmal von Bernhard Rasch von der Universität Rostock: Halten Sie es für möglich, KI-Anwendungen zu entwickeln, die als persönliche Lernbegleiter Schülerinnen und Lehrende dauerhaft unterstützend begleiten?
DR. MEIKE ZEHLIKE: Für möglich halte ich sehr, sehr viel und dementsprechend auch das. Und insofern fände ich das zum Beispiel, also, jetzt wieder aus der Perspektive derjenigen, die sich solche Fragen stellt, mit einer ethischen Perspektive. Das, finde ich zum Beispiel, ist ein sehr gut motivierter Ansatz für solche Dinge, also, für jetzt solche generativen KI-Systeme, die auch dann mit einem Schüler oder mit einer Studentin interagieren können. Und, also ich hatte ja ganz am Anfang mal gesagt, dass meiner Meinung nach Alexa so ein Produkt ist, was nie so richtig geflogen ist. Und ich glaube, ein wichtiger Grund, warum das so war, da gibt es auch Sozialforschung dazu, ist, dass Alexa nie gebaut wurde für Leute, die tatsächlich zu Hause sind. Das heißt also, das ist ein Home Assistant, der aber eigentlich nicht wirklich Dinge tut, die Leute brauchen, die solche state home parents sind. Oder es tut mir leid für das Denglish. Wenn es mir auf Deutsch einfällt, dann sage ich es auch auf Deutsch. Also, ihr wisst, was ich meine. Es ist quasi entwickelt worden mit einem Publikum im Sinn, diese Alexa hat vor allen Dingen Funktionen für Leute, die gar nicht zu Hause sind. Und ich glaube, dass das einer der Gründe war, warum das nie so richtig gebraucht wurde. Das hat kein Problem erfüllt oder kein Problem gelöst. Aber so was wie beispielsweise individuelle Lernbegleitung, auch gerade in Zeiten von Fachkräftemangel und auch diesem Großen Divide, den wir in Deutschland haben zwischen Zugang zu Bildung. Also, dass man halt, wenn man aus einem bildungsfernen Elternhaus kommt, hat man ja im Prinzip schon verloren in der Schule. So, und vielleicht kann man sowas halt durch solche Technologien ausgleichen, aber was man dann eben machen muss, ist es auch für genau solche Gruppen zu entwickeln. Das wird halt nicht einfach so quasi hinten runterfallen. Also, ja, wir haben hier so einen Chatbot entwickelt, der wahnsinnig profitabel ist und am Ende des Tages uns aber eigentlich nur mit noch mehr Werbung zulallert . Aber übrigens kann der auch zufällig irgendwie gut solche assistierenden Lernsysteme, das wird nicht passieren, sondern man muss für die Sachen, für die sich das wirklich lohnt, kann man versuchen, solche Technologien sich anzueignen und dann zu gucken, wo die Probleme sind und ob man diese Probleme gescheit lösen kann. Und dann, das muss man dann sehen. Also, ich glaube, dass das jetzt auch im Moment noch nicht so richtig einschätzbar ist, zu sagen, also generative KI wird sich in den nächsten zehn Jahren so und so entwickeln. Also, wir sind wirklich am Anfang davon, glaube ich. Und ich glaube, dass da noch sehr viele solcher Technologiesprünge in den nächsten Jahren kommen werden. Und dementsprechend bleibt es so ein bisschen abzuwarten. Aber die Frage ist für mich gar nicht mal so sehr, ob was geht, weil ich glaube, dass halt relativ viel geht. Die Frage ist halt immer, wie viel Geld geben wir aus und was ist es uns wert? Wo sitzt halt auch unser Fokus. Und leider ist es ja im Kapitalismus halt oft so, dass gerade die gewinnen, die halt das meiste Geld zahlen. Und da kann man zum Beispiel gucken, dass man versucht, das einerseits mit Regulierung vielleicht ein bisschen zu steuern, aber auch mit so Anreizen für Unternehmen, dass sie sich für bestimmte Projekte mehr interessieren, dann auch so, weil wenn irgendwas profitabel ist, dann werden Unternehmen das, glaube ich, auch machen.
MINA SAIDZE: Das, finde ich, ist ein ganz, ganz wichtiger Punkt auch, ob sich überhaupt die Frage von Regulierung ergibt, wenn wir David gegen Goliath haben, mächtige Tech-Unternehmen, die den Markt dominieren versus kleinere Start-ups, die versuchen, in dem Bereich Fuß zu fassen. Und was mich auch interessieren würde, Meike, ist, welche Rolle sollten die Regierungen, Unternehmen und die Forschungsgemeinschaft bei der Gestaltung von Regulatorien für künstliche Intelligenz, insbesondere Generative AI und ChatGPT, einnehmen?
DR. MEIKE ZEHLIKE: Aus meiner bescheidenen Sicht würde sich das, glaube ich, gar nicht so sehr ändern, als im Vergleich zu vielen anderen Technologien auch. Also die Regierung reguliert halt irgendwie weiter vor sich hin, die Forschung erforscht irgendwelche Neuerungen und idealerweise redet sie darüber in einer Art und Weise, die nicht nur Leute aus ihrer eigenen Bubble verstehen. Deswegen mache ich ja auch viel sowas hier. Und wie wir gemerkt haben, bin ich auch da gerne mal dabei, einfach so Sachen anzunehmen, dass das jeder weiß, wo du dann dankenswerterweise gesagt hast: Erklär doch mal, was das ist. Und auch die Zivilgesellschaft, also, was die Zivilgesellschaft, glaube ich, machen sollte, ist, sich einzumischen im Sinne von das ist das, was wir wollen, also und das ist was, was wir nicht wollen. Ansonsten könnte das eben sein, dass er so ein bisschen am Bedarf vorbei reguliert wird und oder dass eben halt die Lobby für die großen Konzerne da halt nur einen stärkeren Einfluss auf die Regierung haben. Und dafür wiederum ist es, glaube ich eben aus zivilgesellschaftlicher Sicht sinnvoll, solche Veranstaltungen zu besuchen und sich so insoweit zu bilden, dass man in der Lage ist, so ein bisschen mitzureden und sich davon eben nicht einschüchtern zu lassen, wenn halt mal wieder so ein Sam Altman oder wie sie alle heißen, irgendwie sagt, ja, also demnächst ist hier alles zu spät oder so, weil das eben so sehr von den tatsächlichen Problemen ablenkt. Ich glaube eigentlich, dass halt auch der Otto Normalbürger und die Otto Normalbürgerin ziemlich gut verstehen, was sie selber wollen von Technologie und auch, was sie nicht in Ordnung finden. Es ist immer die Frage, ob man denen das auf eine Art und Weise erklärt, dass man eben kein Doktor in Informatik braucht, um den Kram zu verstehen. Und da haben sowohl die Forschungsgemeinschaft als auch die Regierung eine große, große Verantwortung. Und gerade die Forschungsgemeinschaft, finde ich, sollte das auch noch mehr wahrnehmen und da nicht so sehr in ihrer eigenen Blase rumturnen, sondern, weil dann eben genau so was passiert wie mit diesem Moratorium. Cool, dann kommen da halt irgendwie ein Haufen Leute und sagen so, jetzt hier alles auf Rot. Als jemand, der sich auskennt, wundert man sich: Also, ich dachte: Was soll das jetzt? Aber viele Leute haben das als eine wirkliche Bedrohung empfunden und genau deswegen der Appell: Lest ein bisschen Artikel darüber, schaut auch so ein paar YouTube-Videos. Also, es gibt ja auch nicht nur Schrott auf den Plattformen, sondern auch sehr viele, sehr gute, sehr gute Sachen. Und Mischt euch ein in die Debatte und habt keine Angst davor, dass gesagt werden könnte: Ja, ihr seid ja irgendwie Fortschrittsfeinde. Oder ihr versteht eigentlich gar nicht so richtig, wie das funktioniert. Das passiert nämlich auch ganz gerne bei den Betriebsräten. Wenn da auch Leute, die jetzt am Band stehen dabei sind, dann wird auch gerne versucht, gerade solche Leute einzuschüchtern und zu sagen, aber ihr versteht eigentlich gar nicht, wie das funktioniert. Und das ist jetzt wirklich wichtig für unseren Fortschritt und La la la la la.
MINA SAIDZE: Du kriegst gerade auch ganz viel Applaus aus dem Publikum. Emojis fliegen in der Luft. Darauf wollte ich dich noch mal hinweisen auf deinen Appell und ja also Applaus. Wirklich wunderbar.
MINA SAIDZE: Da wir auch bei der Heinrich Böll Stiftung ein anderes Herzensthema haben neben der verantwortungsvollen Gestaltung der Digitalisierung auch Nachhaltigkeit, haben Rita und Jo eine sehr gute Frage gestellt. Und zwar: Gibt es schon Abschätzungen dazu, wie viel Künstliche Intelligenz den Energieverbrauch hochtreiben wird. Die Informations- und Kommunikationstechnologie trägt heute schon zu mindestens 7 % zum Weltenergieverbrauch bei. Und das ist etwas, was wir auch immer in unserer Debatte vergessen, dass neben dieser monströsen rechnerischen Leistung eben auch Nachhaltigkeit berücksichtigt werden muss. Und ich würde auch gerne deine Sichtweise dazu kennen.
DR. MEIKE ZEHLIKE: Ja, total. Also, das kann ich nur unterschreiben und da gibt es auch, zumindest in meiner Bubble, de facto keine Diskussion darüber. Man nimmt einfach an, Energie ist irgendwie so da oder so und dass die kommt, darum kümmern sich andere Leute, die studieren noch nicht mal das gleiche wie die Informatiker, sondern eben die studieren halt irgendwie Mechatronik oder sogar Electrical Engineering. Und was heißt das auf Deutsch? Elektrotechnik. Das ist auch wiederum ein Punkt, worauf Philipp auch schon hingewiesen hat, dass die Regulierung im Moment solche Aspekte wie Nachhaltigkeit, Wasserverbrauch für das Training von dem Modell, das wird in der Regulatorik überhaupt nicht berücksichtigt. Und, ich glaube, dass es aber essenziell wichtig ist und dass dies auch zur Qualitätsmessung von dem Modell beitragen sollte, weil im Moment wird halt wirklich so getan, als hätten wir einfach ganz viele Ressourcen. Ich meine, dieses Trainieren von diesen riesigen Modellen, das kostet unfassbar viel Energie. Also, ich glaube, dieses ChatGPT III-Modell, worauf ChatGPT basiert, das hat, glaube ich, genauso viel verbraucht wie eine Kleinstadt im Jahr. Es war absurd viel, und da muss man sich dann schon irgendwann mal fragen: Was brauchen wir wirklich? Wofür lohnt sich das, das Zeug zu trainieren? Und wo kann man sagen: So, das ist jetzt vielleicht nicht so notwendig und auch das kann man ja wiederum steuern, nämlich über CO2-Zertifikate. Da ist es dann eben wieder so, dass Unternehmen wahrscheinlich sich dann für die Modelle entscheiden werden, wo sie sich selber den größten Benefit davon erhoffen, um sich zu entscheiden, welches Modell nehmen wir jetzt und welches lassen wir lieber sein? Das bringt uns irgendwie nicht so viel. Und auch da wiederum ist es eben so, das, glaube ich, schon die Gesellschaft, die Zivilgesellschaft halt so einen Demand auch erzeugen kann. Also, ich halte jetzt nicht so viel von: Der Markt regelt alles alleine und der bewusste Konsument hat ganz viel Macht. Das glaube ich tatsächlich nicht. Aber er hat auch nicht gar keine Macht. Es gibt schon ein gewisses und die Biobewegung hat es ja auch gezeigt. Es gibt durchaus was, wo man als Einzelperson oder eben als auch bewusster Konsument dann gucken kann, was ist jetzt hier eigentlich Spielerei? Muss ich das jetzt wirklich benutzen und was hilft mir tatsächlich jetzt irgendwie meinetwegen in meiner Arbeit oder ich bin dadurch irgendwie kreativer und solche Sachen sind ja auch wirklich legitim. Auch das glaube ich, dass ich das dann noch so über die Zeit zurecht schaukeln wird. Und da wird man dann auch sehen irgendwie, an welcher Stelle ist es wirklich ein Mehrgewinn für die Menschheit. Und dann wird sich so eine Technologie, glaube ich, auch durchsetzen. Und wenn es dann irgendwann nicht mehr so ist, dann wird die auch wieder verschwinden. Also, das war eigentlich ja mit sehr vielen Sachen in der Welt so und ich glaube nicht, dass KI da irgendeine Ausnahme bilden wird, sondern die Sachen, die wirklich sinnvoll sind, werden sich durchsetzen. Und wenn sie irgendwann nicht mehr sinnvoll sind oder es nie waren, dann werden sie auch wieder verschwinden.
MINA SAIDZE: Wir haben noch zwei Fragen im Chat. Eine würde ich ganz kurz beantworten von Carolin Helfmann, die schreibt, dass sie auch im Bereich der Öffentlichen Einrichtungen tätig ist. Und was sie beschäftigt, ist das Thema Datenschutz und IT-Sicherheit. Und das eben auch sensibel mit den Daten umgegangen werden muss, die zum Beispiel in ChatGPT eingegeben werden. Und lustigerweise hatte ich genau dazu heute ein Gespräch mit einer Anwältin, die sich auf Datenschutz und IT-Sicherheit spezialisiert und gerade sehr viele Anfragen zu ChatGPT bekommt, weil ich vor derselben Problematik stand. Ich bin keine Rechtswissenschaftlerin, aber muss mir eben auch dessen bewusst sein. Was kann ich mit ChatGPT machen und was nicht. Insbesondere, wenn es um Unternehmensdaten geht. Und da habe ich jetzt herausgefunden, wenn ich ein Public Cloud Anbieter verwende, wie beispielsweise Amazon Webservices oder Microsoft Assure, dass ich eine sogenannte Instanz verwenden muss und diese Instanz innerhalb der EU gehostet sein muss. Ich weiß, sehr viel technischer Sprech, aber auf jeden Fall kann ich da nicht direkt auf ChatGPT zugreifen. Das was jeder gerade nutzt, weil ich ja dann die öffentliche API verwende. Und es im schlimmsten Fall zu einem Leak von unternehmenssensiblen Informationen kommt. Was man bei Samsung sogar beobachten konnte, wo Entwicklerinnen einfach patentgeschützten Code durchgejagt haben, ist da nach außen gedrungen ist. Und um das zu vermeiden, gibt es aber alternative Lösungen. Das heißt, wenn es um unternehmenssensible Informationen geht, würde ich nicht einfach ungefragt ChatGPT nutzen. Am besten auf die IT und das Data-Team zugehen, gucken, ob das in einer sicheren Cloud-Umgebung genutzt werden kann, wo die sogenannte Instanz innerhalb der EU gehostet ist. Das heißt, die Datenspeicherung und Prozessierung befindet sich innerhalb dessen, damit das ganze datenschutzkonform vonstatten geht. Und könntest du ganz kurz die Frage von Keta beantworten: Ich war überrascht, als sie eben ausführten, dass ChatGPT nicht das Internet durchsucht, um Informationen zu sammeln. Wird das bald möglich sein?
DR. MEIKE ZEHLIKE: Also nein, da müssen Sie ehrlich gesagt die Open AI-Leute fragen. Das weiß ich nicht. Also, ich sage mal, wenn man das machen wollen würde, zufällig habe ich mich in meiner Promotion viel mit Suchen und Suchalgorithmen und so beschäftigt. Ich glaube nicht, dass es in den nächsten Monaten kommt. Ob das in den nächsten Jahren kommt, ist eine Entscheidung von Open AI und Microsoft und das würde sehr viel Geld kosten. Weiß ich auch nicht. Schade, dass Thomas nicht da ist, der wüsste das jetzt genau. Aber das Ding ist also, einfach jedes, das kann ich vielleicht noch mal sagen, jedes KI-Modell, egal, was es ist, egal ob das generativ ist oder nicht, ob das nur, weiß ich nicht, grüne Bälle von roten Würfeln unterscheiden kann, so was ganz kleines, ist ob das irgendwie Krebsarten erkennen soll, irgendwas. Das beruht alles auf Statistik. Das heißt also, dass im Hintergrund immer ein sogenanntes statistisches Optimierverfahren läuft. Und dann am Ende wird die Antwort ausgewählt, die die wahrscheinlichste ist. Und da ist es eben egal, ob ich quasi sage: okay, am wahrscheinlichsten ist auf diesem Bild eine Katze oder am wahrscheinlichsten ist diese Region irgendwie von Krebs befallen oder am wahrscheinlichsten ist irgendwie diese Quelle zu diesem Text, den ich hier gerade generiert habe. Und die Frage, ob man das jetzt tatsächlich noch mit einer Internetsuche koppelt, weil das wäre eigentlich toll. Das würde ja vielleicht dazu führen, dass das Ding mit diesen ganzen Halluzinationen aufhört, sondern erstmal sagt: okay, mit der Frage gehe ich jetzt erstmal zum Internet, guck, was mir das Internet ausspuckt, dann fasse ich das irgendwie gescheit zusammen und muss dann irgendwie noch halbwegs verifizieren, dass die Quellen, die ich da gefunden habe, jetzt nicht totaler Unsinn sind und aus irgendeinem Bereich kommen, wo man so denkt: Nee, das ist wahrscheinlich Quatsch.
MINA SAIDZE: Und das wollen wir ja nicht. Unsinn wollen wir ja nicht. Wir wollen mehr Sinn.
DR. MEIKE ZEHLIKE: Genau, Aber da kommt letztendlich der Test, den man haben müsste, um zu sagen ChatGPT geht daher und sucht mir Sachen aus dem Internet raus. Das heißt, da fehlen, also, alle diese Schritte fehlen dazwischen, so dass was es bisher kann, ist nur, ich verstehe einen Text und dann generiere ich eine Antwort, die wahrscheinlich zu der Frage passt.
MINA SAIDZE: Liebe Meike, vielen, vielen Dank für deine Zeit und Expertise und ich möchte mich auch beim engagierten Publikum bedanken, dass ihr so viele schlaue Fragen gestellt habt. Also, ohne euch wäre das halb so bereichernd hier heute Abend gewesen. Also, vielen lieben Dank. Ich als Moderatorin musste heute gar nichts machen. Dank euch. Ich durfte diese schlauen Fragen aus dem Chat ablesen. Und wenn ihr Lust habt, dabei zu sein und die KI-Dialoge mit uns gemeinsam fortzusetzen, dann möchte ich euch auch herzlichst einladen, am 20. 06. zu erscheinen. „Kollege ChatGPT“, wie arbeiten wir zukünftig? Unter anderem mit Oliver Suchy, DGB Bundesvorstand als auch am 26.6. Regulierung von ChatGPT effektiv gestalten. Und da werden wir Sergey Lagodinsky vom Europäischen Parlament als auch Daniel Abou vom KI-Bundesverband mit dabei haben. Merkt euch das beides vor. Und großer Applaus auch noch mal an dich, Meike. Für deine Arbeit, für deine Inspiration und für deine Appelle. Also, ich klatsche dir von meinem Wohnzimmer aus und da möchte ich mich auch noch mal herzlichst bei der Heinrich Böll Stiftung bedanken, die diese gemeinsame Veranstaltung in Kooperation mit dem Stiftungsverbund der Heinrich Böll Stiftungen und der Petra Kelly Stiftung ins Leben gerufen haben und diesem Thema die nötige Wichtigkeit widmen und unseren Bürgerinnen und Bürger dabei helfen möchten, im Zeitalter der Digitalisierung, Teilhabe im wahrsten Sinne des Wortes zu leben. Vielen lieben Dank und ich wünsche euch einen wunderschönen Abend.
DR. MEIKE ZEHLIKE: Dankeschön für die Einladung. Hat mich gefreut, hier zu sein. Und ja, ich komme auch gerne wieder. Danke dir. Tschüss auch.
Dieser Artikel erschien zuerst hier: www.boell-bw.de