Folge 2: Transkripte

Folge 2: "Ist nachhaltige KI (schon) möglich?" – Transkripte auf Deutsch und Englisch

Aus Kapazitätsgründen, wurde das deutsche Transkript automatisch erzeugt und das englische automatisch übersetzt.

Max: Hallo, Lena. Schön, dass du heute da bist. Ich freue mich sehr auf das Thema. Ja. Würdest du dich einmal kurz vorstellen und auch das Thema, das du mitgebracht hast?

 

Lena: Ja. Also, ich heiße Lena Schröder. Ich bin 23 Jahre alt und ich habe letztes Jahr meinen Bachelorabschluss in Cognitive Science gemacht. Und wie schon gesagt, bin ich heute hier, um meine Bachelorarbeit vorzustellen. Ich habe sie über das Thema Sustainable AI, also nachhaltige KI, geschrieben und habe mich da mit der Frage beschäftigt, ob es überhaupt möglich ist, nachhaltige KI zu entwickeln und wie so die Chancen und Risiken generell von KI im Bereich von Nachhaltigkeit sind.

 

Max: Genau für alle, die die erste Folge noch nicht gehört haben, stelle ich mich auch selbst noch kurz vor. Ich bin Max, ich arbeite an der Uni, ich mache hier ein Volontariat für Wissenschaftskommunikation und habe dieses Jahr die Förderpreise von denen du einen gewonnen hast, betreut. Und deswegen habe ich auch deine Abschlussarbeit gelesen. Also mich hat ein Thema sofort abgeholt, weil ich dachte, als ich die Überschrift gelesen ist KI, also nachhaltige KI schon möglich und dachte okay, das wird so eine Arbeit vielleicht aus der Informatik sein. Da hat jemand einen Algorithmus verbessert und deshalb verbraucht der Computer jetzt ein bisschen weniger Strom und ist nachhaltiger in Anführungszeichen. Ja, mal gucken wir mal und dann war ich total überrascht, weil du ja so ein wie so eine Überblicksarbeit eigentlich geschrieben hast über das ganze Thema und mir auch noch mal bewusst geworden ist. Nachhaltigkeit, das bedeutet viel mehr als ich dachte. Nicht nur ein bisschen CO2 einsparen und auch KI und wie KI angewendet wird, wo KI und unter welchen Bedingungen KI angewendet wird, das ist auch noch mal ein viel größeres Thema, als das so auf dem Schirm hatte. Deswegen ja vielen Dank, dass du das mitgebracht hast. Ich bin super gespannt. Hast du dir das Thema selbst ausgesucht? Und wenn ja, was hat dich motiviert, das zu nehmen?

 

Lena: Ja, ich hatte das Glück, dass ich mir das selbst aussuchen durfte. Also Cognitives Science ist wirklich sehr breit gefächert und ich bin da so ein bisschen in die Philosophie und Ethik von KI Richtung abgedriftet gegen Ende meines Studiums und so bin ich halt auch auf das Thema überhaupt aufmerksam geworden, weil wir das in einem Seminar so ein bisschen hatten. Und ja, mich hat auch vor allem die Aktualität des Themas sehr abgeholt und vor allem auch durch die Klimakrise, welche ein ernsthaftes Problem ist, wurde mir auch bewusst, wie KI da mit einfließt und oft wird halt auch KI so als die Lösung aller Probleme angesehen. Aber ich habe mich halt auch gefragt, was ist, wenn das eigentlich gar nicht so ist? Also was mit den ganzen negativen Sachen von KI? Warum ignorieren wir die? Warum tun wir nichts dagegen? Und deswegen wollte ich auch in meiner Bachelorarbeit da genauer hinsehen und ein bisschen unangenehme Fragen stellen.

 

Max: Kannst du das noch mal so ein bisschen einschätzen, was so ein bisschen der Status quo gerade ist. Gibt es vielleicht auch gerade krasse Veränderungen, die in dem Bereich KI und auch Nachhaltigkeit passieren?

 

Lena: Also der Status Quo ist so meiner Empfindung nach, dass immer mehr Unternehmen auf Nachhaltigkeit achten. Es wird immer wichtiger im KI-Bereich. Aber also das ist erst mal ein gutes Zeichen. Aber die Frage ist halt, ist das, was als nachhaltig angepriesen wird, auch wirklich nachhaltig oder ist es nicht nur Greenwashing und ja, ich habe den Einsatz von KI irgendwie immer schon ein bisschen kritisch gesehen.Und das nicht nur wegen der Umwelt, sondern auch wegen ethischen Problemen wie Transparenz oder Datenschutz und ja, ich glaube, das ist einfach ein Thema, was uns die nächsten Jahre noch sehr beschäftigen wird. Also KI und auch Nachhaltigkeit.

 

Max: Sollen wir dann einfach direkt mal mit deiner Arbeit einsteigen?

 

Lena: Gerne.

 

Max: Also ich habe meine Zettel hier und es raschelt immer ein bisschen. Aber. Genau. Ich habe es ja vorhin auch schon gesagt. Ich fand, deine Arbeit ist super gut strukturiert und deswegen können wir quasi mit deinem Einstieg einfach einsteigen. Was ist überhaupt KI und was ist - das ist wahrscheinlich noch mal eine größere Frage - aber was ist überhaupt Nachhaltigkeit?

 

Lena: Ja, das sind beides Definitionen, die mir schwer gefallen sind, zu beantworten oder zu definieren. Vor allem bei KI gibt es sehr viele unterschiedliche Meinungen darüber, was KI ist und es gibt keine einheitliche Definition unter Wissenschaftler:innen. Und ich habe versucht, in meiner Bachelorarbeit die Definition so generell wie möglich zu halten. Es lässt sich festhalten, dass KI ein Teilgebiet der Informatik ist und maschinelles Lernen und Deep Learning beinhaltet. Das wird auch oft zusammen mit KI genannt, aber eigentlich ist es nur ein Untergebiet der künstlichen Intelligenz. Und in künstlicher Intelligenz geht es vor allem um die Entwicklung von Algorithmen, die versuchen, die Entscheidungsprozesse des menschlichen Gehirns zu imitieren. Die künstliche Intelligenz kann aus verfügbaren Daten lernen und im Laufe der Zeit immer genauere Klassifizierung oder Vorhersagen treffen. Also wird der Begriff KI benutzt, um Applikationen zu beschreiben, die menschliche kognitive Fähigkeiten nachahmen. Doch es ist auch wichtig zu betonen, dass KI mehr ist als nur ein Algorithmus, weil KI hat auch eine materielle Seite, also sozusagen die Herstellung und Produktion von KI. Und diese wird sehr oft vergessen.

 

Max: Als ich deine Arbeit gelesen habe, bin ich noch an einer Sache hängengeblieben. Du hast einmal gesagt, KI lässt sich auch verstehen als Register der Macht. Das war eine Definition von Kate Crawford. Kannst du dazu noch mal ein bisschen was sagen, inwieweit KI auch Macht und Interessen ausdrückt und materialisiert?

 

Lena: Ja, voll. Also künstliche Intelligenz findet man ja vor allem so bei den Big Tech Konzernen zurzeit. Also Google, Facebook, Amazon, Microsoft und Apple. Und diese haben beinahe eine Monopolstellung und dadurch natürlich viel Macht und dadurch, dass sie die Hauptentwickler von KI sind, haben sie natürlich auch die Entscheidungsfreiheit, das in die KI einzubauen, was sie wollen, die Daten zu benutzen, die sie wollen und so bleibt halt auch die Frage offen, ob sie am Ende nachhaltige Entscheidungen treffen werden, um überhaupt KI zu entwickeln.

 

Max: Ja, das war so mein erster Aha Moment in der Arbeit, wo ich dachte okay, es geht um deutlich mehr als vielleicht nur so der technische Aspekt der KI, sondern auch unter welchen Bedingungen machen wir das?

 

Lena: Also mir war es sehr wichtig, auch so die Hintergründe von KI zu zeigen. Auch wie viel menschliche Arbeit da eigentlich drinsteckt. Die ganzen natürlichen Ressourcen, die in KI laufen, die Hardware und auch das ganze CO2, das durch KI ausgestoßen wird.

 

Max: Wir wollen später ja auch noch mal über die Chancen und Risiken von KI sprechen und er ist schon ein bisschen Spoiler alert. Ich habe hier meine Notizen liegen und die Risiken füllen auf jeden Fall deutlich mehr Seiten als die Chancen. Aber da sprechen wir gleich noch mal drüber. Und genau können wir jetzt nochmal zur zur Nachhaltigkeitsdefinition springen?

 

Lena: Also erst mal kann man sagen, dass das Konzept Nachhaltigkeit besser definiert ist als KI und unter Wissenschaftler:innen auch einheitlich gedacht wird. Generell kann man Nachhaltigkeit als Entwicklung beschreiben, welche die Bedürfnisse der Gegenwart erfüllt, ohne die Möglichkeit zu verwehren, dass auch zukünftige Generationen noch ihre Bedürfnisse erfüllen können. Also kann man sagen, dass Nachhaltigkeit mehr ist als die Verringerung von ökologischen Kosten. Unter Wissenschaftlerinnen wird Nachhaltigkeit auch meistens in drei Zweige aufgeteilt, also sie unterscheiden zwischen ökologischer, ökonomischer und sozialer Nachhaltigkeit. Ökologische Nachhaltigkeit meint damit, dass Umwelt und eine nachhaltige Nutzung von Ressourcen gewährleistet ist. Und um diese zu gewähren, müssen die Nutzung und die Regeneration von Ressourcen auf gleichem Level sein. Die ökonomische Nachhaltigkeit beschreibt, dass die natürlichen Ressourcen nicht unendlich sind und dass es eine gegenwärtige Produktionsgrenze gibt, die auch nicht überschritten werden darf, weil sonst die Ressourcen für die kommenden Generationen schon aufgebraucht sind. Und die soziale Nachhaltigkeit verbindet soziale mit ökologischen Problemen. Und sie hat das Ziel, dass jeder Mensch die Möglichkeit hat, seine oder ihre Bedürfnisse zu erfüllen. Also Nachhaltigkeit ist viel mehr, als nur irgendwie die Umwelt zu retten.

 

Max: Ähm, ja. Dann gehen wir einfach zu deinem nächsten Kapitel über. Ähm, das hat die Frage beantwortet, wie Nachhaltigkeit und KI überhaupt zusammenhängen. Und du machst da eine ganz wichtige Unterscheidung. Und ja, vielleicht magst du sie einmal erklären. Ja.

 

Lena: Also ich fang erst mal mit dem Zusammenhang von Nachhaltigkeit und KI an. Dazu kann ich sagen, dass die Beziehung von den beiden durch ein Spannungsverhältnis charakterisiert ist, also wir vergessen oft, dass KI Modelle und Algorithmen Hardware brauchen, um überhaupt zu existieren. Und diese Herstellung der Hardware ist abhängig von komplexen globalen Netzwerken und die Produktion kostet sehr viel Energie und ist erst mal nicht etwas, was man wirklich nachhaltig nennen würde. Und außerdem ist die Herstellung von diesen KI Systemen abhängig von der Ausbeutung natürlicher Ressourcen, günstiger menschlicher Arbeit und auch der Gewinnung von Daten. Durch die Klimakrise ist KI immer häufiger als ein nützliches Werkzeug gesehen worden, um einen Beitrag zu nachhaltiger Entwicklung zu leisten und so auch CO2 Emissionen zu verringern. Und obwohl KI vielversprechende Lösungsansätze bieten kann, darf man natürlich nicht die sozialen und auch ethischen Bedenken von KI vernachlässigen. Denn selbst für Wissenschaftlerinnen ist KI manchmal gar nicht mehr transparent. Durch die ganzen Daten, die da drin hängen und die algorithmische Argumentation, die benutzt wird. Also kann man erst mal festhalten, dass Nachhaltigkeit und KI eine zweiseitige Beziehung haben. Man kann zum einen KI benutzen, um Probleme im Bereich Nachhaltigkeit anzugehen, was zu einer Verbesserung führen kann. Aber die Anwendung birgt natürlich auch Risiken, weil der Entwicklungsprozess viel Energie kostet und Hardware benötigt. Und dieses Spannungsverhältnis ist auch einer der Gründe, warum Amy van Wynsberghe, an der ich mich in meiner Arbeit sehr viel orientiert habe, das Konzept von nachhaltiger KI, also Sustainable AI, eingeführt hat.

 

Max: Ja genau das die diese Unterscheidung eigentlich schon aufgemacht. Kannst du da noch mal mehr zu sagen, in welche beiden Richtungen das geht?

 

Lena: Also van Wynsberghe definiert nachhaltige KI als ein Forschungsbereich, der sowohl für die Technologie von KI als auch für die Anwendung von KI gilt. Und sie unterscheidet zwischen zwei Zweigen, und zwar einmal KI für Nachhaltigkeit und der Nachhaltigkeit von KI. KI für Nachhaltigkeit verfolgt das Ziel, durch die Anwendung von KI irgendeine Form von Nachhaltigkeit zu erreichen. Und welche Form, das ist erst mal egal. Und der zweite Zweig Nachhaltigkeit von KI hingegen beschäftigt sich mit der nachhaltigen Entwicklung von KI und misst die Nachhaltigkeit von KI, in dem der CO2 Fußabdruck abgenommen wird oder die Rechenleistung gemessen wird.

 

Max: Genau. Und dann hast du ja auch gesagt, es gibt so was wie echte Nachhaltigkeit. Ja, und die muss bestimmte Kriterien erfüllen. Was sind das für Kriterien?

 

Lena: Also es gibt zu nachhaltiger KI verschiedene Ansätze und ich habe dann noch den Ansatz von Heilinger et al gefunden, der hat eine Matrix mit vier Dimensionen aufgestellt, um zu bewerten, ob eine KI als echt nachhaltig eingestuft werden kann und laut seiner Definition ist eine KI wirklich nur echt nachhaltig, wenn sie alle vier Kriterien erfüllt.

 

Max: Genau und die Tabelle auch gesehen und war erst mal mit einem kleinen Fragezeichen.

 

Lena: Ja, die ist ganz komisch so vorzustellen.

 

Max: Ja, genau, ich habe die Begriffe ja alle schon mal vorher in der Arbeit gelesen und dann werden die da aufsortiert. Aber was die Tabelle im Endeffekt aussagt, das ist ja eigentlich ganz spannend und wichtig.

 

Lena: Also die Kriterien gehen einmal zu sozialer, nachhaltiger KI und KI für soziale Nachhaltigkeit und ökologische, nachhaltige KI und ökologische Nachhaltigkeit von KI. Und genau wenn eine KI alle vier Kriterien erfüllt, dann darf sie als echt nachhaltig eingestuft werden und andernfalls spricht Heilinger et al. von unechter Nachhaltigkeit.

 

Max: Also so Richtung Greenwashing?

 

Lena: Ja, genau.

 

Max: Ich versuche das noch mal zusammenzufassen und du stoppst mich einfach, wenn du sagst Nein, das stimmt so nicht. Also KI muss unter ökologisch nachhaltigen Bedingungen produziert werden, auch unter sozial nachhaltigen Bedingungen, also vernünftige Arbeitsbedingungen, Arbeitsschutz zum Beispiel Lieferketten, Transparenz usw. Und gleichzeitig muss der Einsatz von KI, also wofür die KI im Endeffekt benutzt wird, auch Nachhaltigkeitsziele verfolgen und dann eben genauso ökologische und soziale. Das sind diese vier Punkte. Und er sagt nur wenn alle vier Punkte, wenn da ein Haken dran ist, dann können wir sagen, das ist echte Nachhaltigkeit. Alles andere, wenn du benutzt die vielleicht für Nachhaltigkeitsziele, aber die ist unter unfairen Bedingungen produziert. Dann ist das Greenwashing?

 

Lena: Genau.

 

Max: Okay. Hey, ich hab’s verstanden.

 

Lena: Sehr gut.

 

Max: Danke. Ich würde aber einfach direkt mal überleiten zu den Chancen von KI.

 

Lena: Ja, also einen Bereich, in dem KI vor allem angewendet wird, ist für ökologische Nachhaltigkeit. Denn KI Applikationen sind unter anderem ein Instrument, um viele Informationen zu sammeln und dann diese zu analysieren. KI ist in der Lage, Vorhersagen zum Beispiel über die Windkraft Produktion, den öffentlichen Verkehr oder extreme Wetterereignisse zu machen, indem sie dann in den gesammelten Daten Muster erkennen kann. Und ein Beispiel, in dem die Vorhersage von KI bereits angewandt wird, ist in Solar Photovoltaik Now Casting. Also das ist sozusagen das sind Stromversorgungssysteme, die überwacht werden und abhängig sind von grids und ja, diese Betreiber von diesen Stromversorgungssystemen sind abhängig von kurzfristigen Prognosen der Stromerzeugung, um so ihre grids zu kontrollieren, die große Mengen an Sonnen und Windenergie enthalten. Und die KI kann dann dort als Unterstützung für die Betreiber fungieren, weil sie Korrelationen zwischen der Stromerzeugung und dem Wetter durch die Analyse der historischen Daten lernen kann. Und dann kann dieses Wissen angewendet werden, um zu prognostizieren, wie viel Strom in der Zukunft erzeugt werden muss, um so eine nachhaltige Nutzung von Strom zu ermöglichen.

 

Max: Genau. Und du meinst, du hast aber noch ein zweites? Ja, ein zweites Beispiel.

 

Lena: Ich habe noch ein Beispiel aus dem Bereich von Marketing mitgebracht, wo KI als Chance dienen kann, wenn es um das Erreichen von mehr ökologischer und ökonomischer Nachhaltigkeit geht, nämlich die Strategie des nudgings. Das kennen wir wahrscheinlich auch alle aus dem Supermarkt, dass es, wenn zum Beispiel gesunde Lebensmittel auf Augenhöhe platziert werden und ungesunde weiter unten, weil man so das Verhalten von Menschen beeinflussen kann. Wenn sie eher das Gesunde sehen, dann kaufen sie das. Durch nudging kann man das Verhalten von Menschen berechenbar ändern. Während aber die anderen Optionen noch erhalten bleiben, also man kann sie beeinflussen, während noch die Entscheidungsfreiheit besteht. Das wird auch heutzutage immer mehr in der digitalen Welt angewendet. Und ein Beispiel dafür ist KI gesteuertes Klima-nudging, was zum Beispiel in Googles Flugservice Google flight angewandt wird. Und da verschafft Google mithilfe von KI den Nutzern Informationen bezüglich der CO2 Emissionen eines Fluges, was dann den Nutzern erlaubt, die verschiedenen Flüge zu vergleichen und so den klimafreundlichsten Flug zu wählen. Das wird zum Beispiel auch mit Farben gemacht. Also das wird dann in Grün angezeigt, die anderen in Rot. Ja, und so kann nudging online dazu führen, dass Menschen nachhaltigere Entscheidungen treffen und so zumindest in geringerem Maße CO2 eingespart wird.

 

Max: Vielleicht hört man schon, es wird geblättert, weil jetzt kann man nämlich lange Seiten: die Risiken das waren ja auch so viele Risiken, dass die in einzelne quasi Kategorien sortiert hast. Willst du einfach mal loslegen?

 

Lena: Ja, also die Risiken von KI betreffen nicht nur Nachhaltigkeit, sondern auch die Gesellschaft, die Wirtschaft und Individuen. Die Risiken finden sich zurzeit vor allem im Nachhaltigkeit von KI Zweig, denn dieser ist immer noch unterentwickelt und wird in der Entwicklung von KI oft überhaupt nicht berücksichtigt. Das wohl bekannteste Risiko von KI in Bezug auf Nachhaltigkeit ist der Energieverbrauch und die CO2 Emissionen von KI. Denn dadurch, dass KI abhängig ist von Daten, welche ebenfalls dann viel Energie für die Datenverarbeitung und Speicherung benötigen, hat sie einen negativen Einfluss auf die Umwelt. Ich habe in meiner Bachelorarbeit auch eine sehr spannende Studie gefunden von Strubell et al. Die herausgefunden hat, dass der Prozess des Trainings und dann das Laufenlassen eines einzigen Natural Language Processing Models 660.000 Pfund CO2 Emissionen ausgestoßen hat. Und das entspricht ja Lebenszeit von fünf durchschnittlich amerikanischen Autos oder 125 Rundflügen von New York nach Peking. Das fand ich einfach richtig krass. Diese Menge an CO2, die von einem Modell ausgestoßen wird.

 

Max: Und das ist ja auch, glaube ich gesagt, Es gibt auch aktuell eine Steigerung in diesen Kosten.

 

Lena: Ja, also man kann diese Studie jetzt nicht auf jedes KI Modell anwenden oder darauf beziehen. Aber klar, für jede KI die existiert wird Energie benötigt und man kennt auch nicht jedes KI Modell, das existiert. Also die Summe der CO2 Emissionen im Hintergrund ist einfach immens und damit steigt auch der Energieverbrauch wie überhaupt die Datenspeicherung an, der war 2019 noch bei 2 % des globalen Energieverbrauchs. Und es wird geschätzt, dass es 2030 schon 6 % sind. Also es ist generell einfach ein großer Anstieg im Energieverbrauch zu sehen.

 

Max: Da hört es ja nicht auf. Es gibt ja noch einige weitere Risiken.

 

Lena: Ein Risiko ist auch noch die materielle Seite hinter KI. Durch die intensive Nutzung und die Gewinnung von zum Beispiel Nickel oder Kobalt sowie die Nutzung von Plastik für die Geräte und die Verpackung ähm, ja, wird eine Gefahr für ökologische Nachhaltigkeit dargestellt und für uns Konsumenten sind das Prozesse über die wir eigentlich gar nicht nachdenken. Aber das macht sie auch nicht weniger real, weil sie existieren und darunter leidet dann nicht nur die Umwelt, sondern auch die Menschen, die in den Minen arbeiten und dann diese Ressourcen abbauen für KI. Diese Arbeiter haben wirklich sehr schlechte Arbeitsbedingungen und arbeiten unter gefährlichen Konditionen und dabei verdienen sie kaum etwas.

 

Max: Du hast ja auch geschrieben, das sind sogar sogenannte conflict materials. Also ähm, Rohstoffe, um die häufig Konflikte entstehen und die dann auf illegale Weise zum Beispiel abgebaut werden in Konfliktzonen. Wo es dann natürlich noch schwieriger ist, für gute Arbeitsbedingungen zu sorgen oder das überhaupt irgendwie nachverfolgbar zu machen, was genau passiert und wie genau die Bedingungen sind.

 

Lena: Ja, genau.

 

Max: Ein weiteres Risiko, was du angesprochen hast, war der Missbrauch von KI für nicht nachhaltige Zwecke. Da fand ich, gab es auch einen spannenden Effekt, aber ich lass die einfach erst mal starten. Ja.

 

Lena: Also ein Beispiel für die Anwendung von KI für nicht nachhaltigen Zweck ist zum Beispiel in der fossilen Brennstoffindustrie. Dafür wird KI immer häufiger eingesetzt, um die Gewinnung von Öl und Gas zu erleichtern. Aber auch in der autonomen Fahrzeugtechnologie findet KI immer häufiger Einsatz, zum Beispiel autonomes Fahren. Und das kann zwar eine Chance bieten, den individuellen öffentlichen und auch den Frachtverkehr zu transformieren. In Bezug auf Effizienz und könnte so auch zu einer Energiereduktion führen. Aber es ist möglich, dass es dann auf lange Sicht eigentlich den Energieverbrauch steigert, weil es eine niedrigere Schwelle gibt, überhaupt den Verkehr, also Individualverkehr, zu nutzen, weil durch autonomes Fahren, das Autofahren gemütlicher und einfacher wird und das nennen Forschende auch den Reboundeffekt, also dass eine Steigerung der Effizienz nicht unbedingt in einer Reduktion der negativen Auswirkungen resultiert, sondern sogar zu größeren negativen Auswirkungen führen kann, weil potenzielle Einsparungen in einen höheren Konsum transformiert werden.

 

Max: Ich versuche das auch noch mal zu zusammenfassen.

 

Lena: Ähm, ich kann es auch machen. Also ja, nur weil etwas effizienter wird und weil dadurch vielleicht negative Auswirkungen eingespart werden könnten, heißt es nicht, dass es dann auch auf lange Sicht wirklich nachhaltiger ist, weil durch geringere Schwellen wie dann zum Beispiel das Autofahren einfacher wird, wenn man selbst nicht mehr fahren muss, werden die Menschen es noch mehr nutzen, was dann wieder zu höheren CO2 Emissionen führt.

 

Max: Das fand ich total spannend also und auch total paradox. Wenn mir jetzt jemand erzählt, na ja, wenn man was entwickelt, dadurch keine Ahnung hat, wird weniger CO2 beim Auto ausgestoßen und ich sagen ja toll, das ist ja nachhaltiger. Oder sagen wir, es verbraucht weniger. Nun, dann würde ich sagen ja super, ist doch super für Nachhaltigkeit. Aber das ist natürlich so, dann wird das Autofahren günstiger und somit einfacher. Und dann sagt man öfter na gut, dann nehme ich ja das Auto kostet ja nichts. Und dadurch fahren aber Leute viel mehr und im Endeffekt hast du einen negativen Effekt. Also es hat angefangen mit das Auto verbraucht jetzt weniger. Eigentlich super und hört aber auf mit jetzt fahren viel mehr Leute, weil es ja günstiger ist und du hast eigentlich dann mehr Verbrauch insgesamt.

 

Lena: Ja, paradox. Ich finde das eine verrückte Vorstellung.

 

Max: Ja und genau. Und das kann eben auch bei KI Anwendungen der Fall sein. Genau. Ein weiterer Punkt, den ich auch super spannend fand, sind diese Risiken von Big Tech Companies. Sagt man das so? Ja okay KI Kapitalismus und oh vor dem Wort hab ich ein bisschen Angst das korrekt auszusprechen: Technological solutionism. okay. Ich schneide es raus und immer wenn ich das sagen muss, nehme ich jetzt die Variante und schneide die da einfach rein. Genau. Also das sind ja drei Punkte. Sind ein bisschen viel, aber kannst du zu denen ein bisschen sagen, Was ist Big Tech und was das Problem bei Big Tech? Und dann springen wir einfach zu den anderen.

 

Lena: Genau. Also der KI Markt wird derzeit von Big Tech dominiert. Das sind Google, Amazon, Facebook, Apple und Microsoft, also die fünftgrößte KI Firmen. Und diese haben auch innerhalb des Marktes beinahe eine Monopolstellung. Dadurch liegt bei diesen Firmen die Macht zu entscheiden, welche Daten über für KI genutzt wird und auch für welche Zwecke die KI letztendlich dann genutzt wird. Und dabei stellt sich halt die Frage, ob Big Tech die Menschen und den Planeten über ihren Profit stellen werden. Also ob es ihnen nicht einfach völlig egal ist was mit der KI passiert, nur wenn sie dann viel Geld verdienen. Und das Problem dieser Monopolisierung der Big Tech Firmen findet sich dann auch in dem Konzept KI Kapitalismus wieder. KI Kapitalismus ist ein sehr komplexer Begriff. Ähm, aber ich versuch ihn einfach mal ein bisschen zumindest zu erklären. Also KI Kapitalismus ist entstanden, weil KI variable Einflüsse auf die Wirtschaft und die Gesellschaft hat und sozusagen ähnliche oder sogar gleiche Strukturen zum normalen Kapitalismus aufweist. Und vier Charakteristika sind typisch für KI Kapitalismus, nämlich einmal die Vermarktung von Daten, die Gewinnung von Daten, dann, dass eine hohe Anzahl von Menschen mit KI Talent, also Spitzenprogrammierer:innen bei den Big Tech Firmen arbeiten und dass diese Firmen auch sehr hohe computionelle Kapazitäten haben.

 

Max: Ich glaube, das kam später auch noch mal in deiner Arbeit, dass Daten wie Rohstoffe sind, ja, dass die wie Rohstoffe gehandelt werden, dass die wie Rohstoffe eine bestimmte Qualität haben, wie aktuell die sind.

 

Lena: Also doch, wer die meisten Daten hat oder die besten hat auch die meiste Macht.

 

Max: Also und das ist wie so ein Kapitalal für die Firmen. Ja, es ist auf jeden Fall eine krasse Vorstellung. Also da springen wir dann später noch mal ein bisschen zurück, wie man das vielleicht anders denken kann. Ja, wie man mit diesem Rohstoff Daten umgehen kann, das fand ich auch ganz spannend. Jetzt gerade sind wir noch voll in den Risiken. Es hört nicht auf, muss wahrscheinlich gleich auch noch mal blättern. Einen weiteren Aspekt, den ich sehr spannend fand, war der Loginmechanismus, der KI und Infrastruktur in Verbindung bringt und auch so das Abhängigkeitsverhältnis, in das man sich als Gesellschaft begibt, wenn man KI eben großflächig einsetzt. Kannst du dazu noch mehr sagen?

 

Lena: Ja, also wir als Menschheit haben eine Tendenz zu technological solutionism. Also das bedeutet, dass wir Technologien und damit auch KI als Heilmittel für wirkliche Probleme der Welt sehen und dabei aber größtenteils die Kosten von diesen Systemen ignorieren. Dadurch wird natürlich immer mehr Technologie oder KI angewendet und da habe ich auch eine spannende, einen spannenden Artikel von van Wynsberghe gefunden, wo sie sagt, dass wir KI als Infrastruktur verstehen müssen, da wir ja immer abhängiger werden von diesen digitalen Services, die uns KI bietet und dadurch, dass wir KI überhaupt als Infrastruktur verstehen, sprechen Wissenschaftler:innen von einem Lock in. Wie du schon gesagt hast. Und ja, um es mal an einem Beispiel zu zeigen da hat van Wynsberghe Kohlekraftwerke genannt, weil diese sind zwar teuer zu bauen, aber günstig im Betrieb. Und das schafft ökologische, ökonomische und soziale Umstände, die den Prozess, diese Infrastruktur mit einer nachhaltigeren Variante auszutauschen, verhindern. Also wir werden, ja wir locken uns sozusagen in eine Infrastruktur ein, wenn man das so sagen kann oder verschränken uns auf diese eine Infrastruktur, einfach weil sie jetzt da ist und ja, weil es einfach günstig ist, so weiterzumachen für den Moment, aber auf lange Sicht eher nicht nachhaltig ist.

 

Max: Also dass ist so ein Umstellungsproblem? wir sind so abhängig von der Infrastruktur, zum Beispiel im Kohlekraftwerk oder dem Auto. Ja, und es ist auch schon so viel dafür eingerichtet worden, dass es jetzt super schwierig wäre, wenn wir jetzt sagen würden aber ab morgen darf niemand mehr Auto fahren. Rasten natürlich alle aus. Wir haben ja in Autos investiert, wenn die Straßen usw und das kann meinst du mit KI auch so ein Fall sein, dass genau zu sehr auf KI committen und dann später schlechter umsteigen können?

 

Lena: Genau.

 

Max: Genau, wir hatten ja quasi am Anfang zwei Richtungen aufgemacht oder mehrere Richtungen aufgemacht soziale, ökonomische und ökologische Nachhaltigkeit und auch für soziale Nachhaltigkeit hat KI Risiken. Da hatten wir ja vorhin schon mal zum Beispiel so ein bisschen über dieses Nudging gesprochen, wenn er auch später gesagt hast, das kann auch schnell in Richtung von Manipulation gehen, weil da bestimmte Mechanismen bei uns Menschen ausgenutzt werden. Und auch da können KIs mit in Anführungszeichen schlechten Absichten eingesetzt werden.

 

Lena: Genau. Also bei der negativen Seite von Nudging habe ich mich auf einen Artikel von Coeckelbergh et al. Bezogen und er argumentiert, dass wenn man Nudges nutzt, um das Verhalten von Menschen in eine mehr nachhaltige Art und Weise zu lenken, dann stellt das eine Bedrohung zu dem ethischen und politischen Prinzip der menschlichen Freiheit dar. Und obwohl eigentlich die Idee des Nudgings darin besteht, dass die Menschen ihre Freiheit selbst zu entscheiden, behalten, wird ihre Tendenz, gebiaste Entscheidungen zu treffen, immer noch ausgenutzt. Auch wenn es in dem Fall für gute ökologische Zwecke wäre. Also er sagt, dass das sozusagen eine Form des Paternalismus ist, denn während man zwar die Freiheit der Entscheidung beibehält, tut Nudging die Menschen immer noch herunterstufen, dass sie nicht selbst oder rational handeln können, weil es einfach unterbewusst sie lenkt.

 

Max: Jetzt zum Ersten Mal von Nudging gehört. Ich glaube, ich habe so einen TED Talk gesehen. Da dachte ich auch na ja, schön und gut, aber dann mache ich halt die richtigen Sachen, weil ich halt ein bisschen zu blöd bin, dieses Prinzip zu durchschauen und halt so ein bisschen wie so ein Hund, weil es so antrainiert wird. Ja, und dann okay, dann machst du halt die richtigen Sachen vielleicht für richtig, jetzt in Anführungszeichen. Und du machst vielleicht Dinge, die gut sind für Nachhaltigkeit. Aber die Gründe dahinter siehst ja nicht richtig ein, sondern man halt so Gewohnheiten und unterbewusste Dinge dass du so auf Farben reagierst.

 

Lena: Aber ja, man wird halt einfach trotzdem voll gelenkt von irgendjemandem und weiß nicht so ganz, warum man eigentlich gerade die Entscheidungen getroffen hat, obwohl man vielleicht selber denkt, ja, eigentlich ist es meine Entscheidung, aber unterbewusst wurde sie von jemand anderen getroffen.

 

Max: Ja, genau. Es ist nicht so mündig. Wirklich nicht So okay, das war jetzt wirklich meine Entscheidung am Ende. So fühlt sich das nicht an! Aber finde ich auch. Also auch cool, dass du dich da auch noch mal positioniert hast oder am Anfang auch gesagt hast. Könnte auch irgendwie gut sein. Aber es kann eben auch schnell.

 

Lena: Ja, mir war es wichtig, so obwohl was irgendwie eine Chance sein könnte, es trotzdem irgendwie zu hinterfragen und zu gucken, dass ob da nicht noch irgendwie doch eine andere Seite dahinter steckt.

 

Max: Ja, das fand ich cool, dass man noch mal so auf beide Perspektiven dann auf diesen Effekt des Nudgings hat. Dann würde ich sagen, wir springen einmal zurück zu deiner Forschungsfrage. Das fand ich übrigens auch cool, dass die ja eigentlich sehr klar gestellt ist. Ist nachhaltige KI schon möglich. Und? Wie siehts aus?

 

Lena: Meine Antwort lautet Nein. Denn die Risiken von KI im Bereich von Nachhaltigkeit überwiegen derzeit noch klar, die Chancen, die KI bieten kann. Und ja, ja, solange die verantwortlichen Interessengruppen von KI nicht beide notwendigen Zweige, die van Wynsberghe aufgestellt hat, also KI für Nachhaltigkeit, so wie auch Nachhaltigkeit von KI integrieren, wird es nicht in Zukunft möglich sein, dass KI wirklich nachhaltig wird. Und genau, wenn auch die Tabelle die Heilinger aufgestellt hat, nicht berücksichtigt wird, dann kann man auch auf keinen Fall von echter Nachhaltigkeit sprechen. Allerdings, das war mir auch wichtig zu betonen, ist die Möglichkeit nicht ausgeschlossen, dass es irgendwann eine nachhaltige KI geben wird. Nur dafür braucht es vor allem strukturelle Veränderung in der KI Industrie, in der Politik, in der Wirtschaft und auch in der Gesellschaft. Ja, es ist wichtig, dass es umfassende Richtlinien und Regeln gibt und dass sich dann die KI Industrie auch an diese hält. Damit es eine verantwortungsvolle Nutzung von KI in Zukunft geben wird.

 

Max: Was müsste sich ändern, damit eine nachhaltige KI, eine echte, nachhaltige KI, wirklich möglich ist?

 

Lena: Also erst mal überhaupt Als Voraussetzung müsste sich ändern, dass wir uns den möglichen Hindernissen, die es überhaupt gibt, bewusst werden. Also es gibt immer noch nicht genügend Forschung zu den nicht nachhaltigen Effekten von KI Technologie und dadurch auch einen Mangel an Daten und Wissen überhaupt an der Sache. Und außerdem ist ein Hindernis, dass der KI Sektor sich ständig weiterentwickelt. Die KI Modelle werden immer weiterentwickelt und somit ist es natürlich enorm schwer für die Politik die KI Technologie zu regulieren, weil ja die Einführung neuer Regeln immer sehr lange dauert. Also es ist ein sehr langwieriger Prozess im Vergleich zu der Schnelligkeit, wie sich der KI Sektor weiterentwickelt. Aber was wir wirklich verändern können ist, dass wir unsere Perspektive erst mal auf KI verändern und auch auf Nachhaltigkeit. Denn es ist auf jeden Fall wichtig, dass wir unsere Tendenz zu Technological solutionism erstmal hinterfragen und auch im besten Fall ablehnen. KI sollte das Mittel sein und nicht der Zweck und sollte auch immer eine freie Wahl sein, also nicht angewendet werden, wenn es keinen Sinn macht. Immerhin, es ist noch ein Werkzeug und kann genutzt werden, um das Ziel zu erreichen. Aber es ist nicht das Ziel selbst. Ja, und diese veränderte Sicht auf KI kann dann helfen zu verstehen, wann es überhaupt im Kontext wirklich nützlich ist, KI anzuwenden und sollte auch nur angewendet werden, wenn wirklich ein positiver Einfluss dadurch entsteht.

 

Max: Ich finde, du hast in deinem Fazit auch noch mal - mir ist nicht klar, ob es ein Zitat irgendwo her war, aber, du hast da einen coolen Satz gedropt, dass man KI auch so ein bisschen als soziales Experiment verstehen kann. An der Gesellschaft und bei jedem anderen Experiment würde man auch sofort gucken okay, aber wie schützen wir die Gesellschaft vor Problemen? Das würde mit allen ethischen Mitteln hinterfragt und abgenommen werden müssen. Und das passiert ja nicht, sondern KI wird uns irgendwie so hingeworfen. Wir können das nutzen und dann entwickelt sich was.

 

Lena: Und ja, es ist schon verrückt. Also so langsam macht ja die Politik was. Ich glaube. Vor paar Jahren ist ja auch dieses europäische Datenschutzgesetz gekommen. Aber wie schon erwähnt, dadurch, dass sich das halt alles so schnell weiterentwickelt, ist es einfach enorm schwer für die Politik, da was zu verändern. Und ja, auch durch die ganze Macht von Big Tech, also es ist einfach nicht so leicht, dass da die Politik mithalten kann. Leider.

 

Max: Ja, ist krass, dass KI erst mal auf den Markt kommt und erst mal zugänglich wird und dann wird rückwirkend, wenn sich die ersten Entwicklungen zeigen, reguliert oder versucht zu regulieren. Genau, es gibt noch was. Ich finde das immer irgendwie ganz schön. Deswegen habe ich das dann mit reingenommen. Dieses Punkt quasi Abschlussstatement.

 

Lena: Ja, also mir ist es wichtig, euch mitzugeben, dass Technologie und damit auch KI die Folgen der Klimakrise nicht aufhalten können wird. Und das es wirklich fundamentale, strukturelle Veränderung braucht, damit KI in Zukunft wirklich nachhaltig wird. Diese Strategien für Veränderung existieren aber alle diese Bereiche zu verändern ist sehr schwierig. Und es setzt auch voraus, dass die beteiligten Interessengruppen auf einem internationalen Level zusammenarbeiten. Eine wirklich nachhaltige Nutzung von KI braucht nicht nur ökologisches Bedenken, sondern muss auch sozialpolitische und ökonomische Probleme der Gerechtigkeit und auch die Machtbeziehungen innerhalb der Gesellschaft mit einschließen. Wir müssen uns als Gesellschaft die Frage stellen, ob wir wirklich ein paar großen Firmen wie den Big Tech-Firmen die Entscheidung überlassen wollen, wie KI und damit auch unsere Zukunft aussieht. Denn eigentlich sollte bei uns als Gesellschaft sowie in der Politik die Macht liegen, Veränderung zu gestalten. Und wir müssen diese Macht dann auch nutzen.

 

Max: Danke schön. Ich fand das ist ein sehr schönes Schlussstatement. Ja, vielen Dank, dass du heute hier warst und das wirklich super spannende Thema uns ein bisschen näher gebracht hast.

 

Lena: Ja, danke, dass ich eingeladen wurde. Es hat viel Spaß gemacht!

 

Max: Ja, das freut mich doch auch. Und vielen Dank noch mal ans digiLab, dass wir diesen schönen, ein bisschen unheimlichen Raum nutzen dürfen. Ja, und dann würde ich sagen, also von mir bis zur nächsten Folge. Und von dir?

 

Lena: Tschüss.

 

Max: Ja, einfach tschüss. Bis dann.