<divclass="logo"><ahref="start.html"accesskey="h"title="[H]"><imgclass="mobile-hide"src="wiki/logo.f36d4a61d4a39ec4ca0ae18ba52b8f52.png"alt="EH20 - Back to root - Link zur Startseite"/>
</a><ahref="start.html"accesskey="h"title="[H]"><imgclass="mobile-only"src="wiki/logo.c73819921bb23305b50b29c5271a75b9.png"alt="EH20 - Back to root - Link zur Startseite"/>
<h1class="sectionedit9"id="loeten_basteln_soldering-ironsvg">Löten & Basteln @soldering-iron.svg</h1>
<divclass="level1">
<p>
<ahref="loet-und-bastelworkshops.html"class="wikilink1"title="loet-und-bastelworkshops"data-wiki-id="loet-und-bastelworkshops">Löt- und Bastelworkshop</a>
</p>
</div>
<!-- EDIT{"target":"section","name":"L\u00f6ten & Basteln @soldering-iron.svg","hid":"loeten_basteln_soldering-ironsvg","codeblockOffset":0,"secid":9,"range":"559-662"} -->
Der Begriff Künstliche Intelligenz, kurz KI, ist derzeit in aller Munde. Das Sprachmodell ChatGPT der Firma OpenAI ist momentan besonders präsent. KI-Systeme arbeiten mit neuronalen Netzen und lernenden Algorithmen, um Ergebnisse zu generieren. Derartige Werkzeuge in den Händen von Megakooperationen werden unabschätzbare Folgen für unsere Gesellschaft haben. Wir können uns nicht entscheiden, ob wir diese Herausforderung annehmen wollen.
</p>
<p>
Also haben wir diskutiert. Was sind konkrete Bedrohungen, die wir jetzt schon absehen können? Und was sind konkrete konstruktive Dinge, die wir nun angehen müssen?
Beispiele wie das generierte Foto der Verhaftung von Donald Trump haben bewiesen: KIs beschleunigen die Erstellung von sehr plausiblen Desinformationen.
</p>
<p>
Außerdem sind Sprachmodelle vor allem darauf optimiert, dass sie die durschnittliche Meinung und Bias ihrer Trainingsdaten verstärken. Dies schafft weitere systemische Nachteile für differenzierte und marginalisierte Stimmen.
</p>
<p>
Daraus ergibt sich die Notwendigkeit, noch viel mehr in politische Bildung zu investieren:
</p>
<p>
Menschen müssen lernen Quellen zu hinterfragen.
</p>
<p>
Menschen müssen verstehen, wie KIs funktionieren und, was sich damit anstellen lässt.
</p>
<p>
Daher müssen wir unsere Expertise einer breiten Masse zugänglich machen. Das braucht verständliche Wissenschaftskommunikation, die Menschen auch außerhalb unserer Zielgruppe erreicht.
Eigentlich braucht es die Sendung mit der Winkekatze. Und zwar 20:15 Uhr in der ARD. Wir erhoffen uns, dass durch mehr politische Bildung, Menschen fähig sind, die Tragweite von KI zu verstehen. Wir finden es wichtig, dass Menschen Quellen hinterfragen können, um unterscheiden zu können, was von einer KI erzeugt wurde und was nicht. Hier könnte auch eine Kennzeichnungspflicht von KI-generierten Inhalten helfen. und deren Quellen zu hinterfragen. Alles in allem muss der Gesellschaft eine verständliche Wissenschaftskommunikation angeboten werden.
In unserer Diskussion zeigt sich, dass wir auch den Rechtsstaat in die Verantwortung nehmen müssen. Das heißt, wir brauchen einen politischen Rahmen, allen voran Gesetze, die KI zu unserem Gemeinwohl und nicht für den größten Profit von Unternehmen regulieren. Im gleichen Sinne müssen wir die Demokratie stärken. Wir fordern daher Transparenzpflichten, um etwa zugängliche und transparente Datensätze bereitzustellen. Wir sehen auch unsere Community in der Verantwortung, mehr Kenntnisse zu vermitteln, wie wir Förderungen (???) konkret umsetzen können. Wir wollen uns gegenseitig mehr supporten und Anreize für politische Arbeit schaffen, damit diese Anklang finden.
KI zerstöre Arbeitsplätze - so lautet eine weit verbreitete Annahme. Wir sehen diese Gefahr und sorgen uns, dass KIs Menschen Arbeitsplätze und damit leider auch Lebensgrundlagen streitig macht. Es wird ein Umbruch passieren und Menschen werden dabei verlieren. Dennoch finden wir es wichtig zu differenzieren: Welche Arbeitsplätze sind gefährdet und welche können sogar neu erschaffen werden? Hierbei ist es notwendig die Diskussion über Arbeitsplätze differenziert zu betrachten. Womöglich benötigen wir weniger Graphik-Designer*innen, dafür aber mehr Click-Worker, um nur ein Beispiel zu nennen. Wir stellen uns die Frage, inwiefern ob es überhaupt immer schlecht ist, dass Arbeitskräfte wegrationalisiert werden. Schließlich gibt es in einem kapitalistischen, neoliberalen System so einige „Bullshit-Jobs“, die womöglich sowieso unnötig sind. Das führt uns zu der politischen Forderung des bedingungslosen Grundeinkommens oder anderen vergleichbaren Alternativen - auch wenn wir hier keinen Konsens finden konnten. Wichtig ist uns, dass wir KI entmystifizieren. Anstelle einer allmächtigen KI, die über uns steht, begreifen wir uns als autonome Subjekte, die KI als Werkzeug nutzen kann - wenn auch als revolutionäres Werkzeug. Wenn wir verstehen, wie KI funktioniert, können wir selbstbestimmt handeln. Wir sollten der KI nicht ohnmächtig gegenüber stehen, sondern können bestenfalls selbst mitbestimmen, wie sie unseren Arbeitsalltag beeinflusst. Auch hier schlägt sich wieder die Brücke vom Technischen zum Politischen.
<divclass="secedit editbutton_section editbutton_4"><formclass="button btn_secedit"method="post"action="chosing_tuopia_democratise_ai_now.html"><divclass="no"><inputtype="hidden"name="do"value="edit"/><inputtype="hidden"name="rev"value="1681130844"/><inputtype="hidden"name="summary"value="[Auswirkung auf Arbeitsplätze] "/><inputtype="hidden"name="target"value="section"/><inputtype="hidden"name="hid"value="auswirkung_auf_arbeitsplaetze"/><inputtype="hidden"name="codeblockOffset"value="0"/><inputtype="hidden"name="range"value="2795-4391"/><buttontype="submit"title="Auswirkung auf Arbeitsplätze">Bearbeiten</button></div></form></div>
<h2class="sectionedit5"id="ki_selbst_aufbauen">KI selbst aufbauen</h2>
<divclass="level2">
<p>
In unserer Diskussionen haben wir uns überwiegend mit Large Language Modelle (LLM) beschäftigt, also mit Sprachmodellen, die mit großen Datensätzen trainiert worden sind. Wir erkennen, dass nur wenige Menschen sind an der Entwicklung der Technologie beteiligt. Bisher ist die Mehrheit der Menschen von der Arbeit und Supervision der Technologie ausgeschlossen. Das heißt, wir verstehen oft nicht, wie KI funktioniert und können die Prozesse nicht einsehen. Dazu kommt, dass Menschen KI für Prozesse benutzt, für die sie nicht primär designt worden ist. Durch eine unmündige Übernahme der Erzeugnisse einer KI, besteht das Riskio, ungenaue oder gar falsche Ergebnisse zu übernehmen. Wir sehen es auch problematisch, dass bei KI-Systemen bestimmte Inhalte entfernt, also zensiert werden. Das sogenannte Gatekeeping führt dazu, dass bestimmte Meinungen nur eingeschränkt oder gar nicht zugänglich sind. So nimmt das Unternehmen OpenAI mit ihrer Software ChatGPT eine Gatekeeperposition ein, indem es…
Wir fordern, dass kleinere Organisationen mit eigenen KI-Modellen durchaus datenschutzkonforme Anwendungen bereitstellen und keine Daten herausgeben müssen. Wir wünschen uns, dass diese KI-Systeme kostenlos bleiben. Die <abbrtitle="Application Programming Interface">API</abbr> von OpenAI kostet pro Token, was man umgehen könnte, wenn man solche Anwendungen dezentral selbst hostet. Wir möchten das große Feld „KI“ in Zukunft nicht Megacorps überlassen.
Fast Ai Takeoff: die erste wirklich schlaue AI wurde in kurzer Zeit sehr viele weitere Fortschritte ermöglichen
</p>
</div>
<divclass="secedit editbutton_section editbutton_5"><formclass="button btn_secedit"method="post"action="chosing_tuopia_democratise_ai_now.html"><divclass="no"><inputtype="hidden"name="do"value="edit"/><inputtype="hidden"name="rev"value="1681130844"/><inputtype="hidden"name="summary"value="[KI selbst aufbauen] "/><inputtype="hidden"name="target"value="section"/><inputtype="hidden"name="hid"value="ki_selbst_aufbauen"/><inputtype="hidden"name="codeblockOffset"value="0"/><inputtype="hidden"name="range"value="4392-5961"/><buttontype="submit"title="KI selbst aufbauen">Bearbeiten</button></div></form></div>
<h2class="sectionedit6"id="warum_sollten_wir_keine_ki_bauen">Warum sollten wir keine KI bauen?</h2>
<divclass="level2">
<p>
Auch wenn wir KI selbst bauen, bleibt KI zu einem bestimmten Grad eine „Blackbox“, also ein System, dass wir nicht komplett einsehen und kontrollieren können. KI trägt folglich das Riskio Bullshit zu generieren. Das heißt auch, je mehr Leute Zugang zu KI-Systemen haben, desto mehr kommen Menschen darauf sie für Dinge zu verwenden, die nicht überschaubar sind. Außerdem kann KI auch Wissen hervorbringen, das Menschen Zugang zu Waffenbau, Drogen, Atombomben, etc. verschafft. Die eigentliche Frage ist: Wie schädlich ist Information?
</p>
</div>
<divclass="secedit editbutton_section editbutton_6"><formclass="button btn_secedit"method="post"action="chosing_tuopia_democratise_ai_now.html"><divclass="no"><inputtype="hidden"name="do"value="edit"/><inputtype="hidden"name="rev"value="1681130844"/><inputtype="hidden"name="summary"value="[Warum sollten wir keine KI bauen?] "/><inputtype="hidden"name="target"value="section"/><inputtype="hidden"name="hid"value="warum_sollten_wir_keine_ki_bauen"/><inputtype="hidden"name="codeblockOffset"value="0"/><inputtype="hidden"name="range"value="5962-6550"/><buttontype="submit"title="Warum sollten wir keine KI bauen?">Bearbeiten</button></div></form></div>
<h2class="sectionedit7"id="ein_bausatz_fuer_eine_ki">Ein Bausatz für eine KI:</h2>
<divclass="level2">
<ul>
<liclass="level1"><divclass="li"> als demokratisches offenes Projekt</div>
<liclass="level1"><divclass="li"> Menschen müssen die Model feintunen</div>
</li>
<liclass="level1"><divclass="li"> OpenAi hat 20000 Menschen eingestellt die das Model justieren</div>
</li>
</ul>
</div>
<divclass="secedit editbutton_section editbutton_7"><formclass="button btn_secedit"method="post"action="chosing_tuopia_democratise_ai_now.html"><divclass="no"><inputtype="hidden"name="do"value="edit"/><inputtype="hidden"name="rev"value="1681130844"/><inputtype="hidden"name="summary"value="[Ein Bausatz für eine KI:] "/><inputtype="hidden"name="target"value="section"/><inputtype="hidden"name="hid"value="ein_bausatz_fuer_eine_ki"/><inputtype="hidden"name="codeblockOffset"value="0"/><inputtype="hidden"name="range"value="6551-7082"/><buttontype="submit"title="Ein Bausatz für eine KI:">Bearbeiten</button></div></form></div>
<h3class="sectionedit8"id="probleme_die_wir_sehen">Probleme, die wir sehen</h3>
Uns ist bewusst, dass Computer, Datensets und KnowHow eine große Starthürde darstellen und es Personen erschweren, eine eigene KI zu bauen oder Anwendungen zu hosten. Außerdem stellt das Urheberrecht KI eine Herausforderung dar. Wir empfehlen dazu den Podcast Rechtsbelehrung: <ahref="https://rechtsbelehrung.com/113-ki/"class="urlextern"title="https://rechtsbelehrung.com/113-ki/"rel="ugc nofollow">Rechtsbelehrung Folge 113 KI und Urheberrecht</a>.
Wir haben uns gefragt, wie und ob wir beim AI Act einwirken können. Wir könnten uns etwa anschauen, wie die Gesetzesvorschläge auf EU-Ebene zum Thema KI aussehen. Wir sollten uns auch mit der Frage beschäftigen, über welche Plattformen wir einwirken können.
<divclass="secedit editbutton_section editbutton_8"><formclass="button btn_secedit"method="post"action="chosing_tuopia_democratise_ai_now.html"><divclass="no"><inputtype="hidden"name="do"value="edit"/><inputtype="hidden"name="rev"value="1681130844"/><inputtype="hidden"name="summary"value="[Probleme, die wir sehen] "/><inputtype="hidden"name="target"value="section"/><inputtype="hidden"name="hid"value="probleme_die_wir_sehen"/><inputtype="hidden"name="codeblockOffset"value="0"/><inputtype="hidden"name="range"value="7083-7750"/><buttontype="submit"title="Probleme, die wir sehen">Bearbeiten</button></div></form></div>
Machine learning sind spannende und herausfordernde Werkzeuge
</p>
<ul>
<liclass="level1"><divclass="li"> Was können wir mit KI in kaputten Systemen machen?</div>
</li>
<liclass="level1"><divclass="li"> Wir wollen diese Tools in die eigene Hand nehmen, um unsere Utopien umzusetzen. Wir wollen zeigen, dass das möglich ist.</div>
</li>
<liclass="level1"><divclass="li"> KI kann praktisch sein</div>
</li>
<liclass="level1"><divclass="li"> Wir wollen mit der Annahme brechen, dass technologischer Fortschritt gleich gesellschaftlicher Fortschritt ist. </div>
</li>
<liclass="level1 node"><divclass="li"> Es wird uns auferzwingen da Big Corps Fakten geschaffen haben</div>
<ul>
<liclass="level2"><divclass="li"> → Ansporn wir müssen politische und gesellschaftliche Veränderungen durchlaufen</div>
</li>
</ul>
</li>
<liclass="level1"><divclass="li"> Wir wollen aktuelle Probleme lösen und nicht durch KI schlechter machen </div>
</li>
<liclass="level1"><divclass="li"> KI darf nicht da sein um Ungleichheiten zu reproduzieren und zu verstärken </div>
</li>
<liclass="level1"><divclass="li"> Super human AI könnte ein echtes Problem sein</div>
<bdi>chosing_tuopia_democratise_ai_now.txt</bdi> · Zuletzt geändert: 2023/04/10 12:47 von <bdi>majorx234</bdi></div>
</div><!-- .col -->
</div><!-- .row -->
</div><!-- .container -->
</div><!-- /content -->
<divclass="clearer"></div>
</div><!-- /wrapper -->
<!-- ********** FOOTER ********** -->
<divid="dokuwiki__footer">
<divclass="container">
<divclass="row">
<divclass="col-xs-12">
<divclass="main-footer">
<p>Falls nicht anders bezeichnet, ist der Inhalt dieses Wikis unter der folgenden Lizenz veröffentlicht: <bdi><ahref="https://creativecommons.org/licenses/by-nc-sa/4.0/deed.de"rel="license"class="urlextern">CC Attribution-Noncommercial-Share Alike 4.0 International</a></bdi></p></div>