Auf dieser Seite werden Abschnitte ab Überschriftenebene 2 automatisch archiviert, die seit einem Tag mit dem Baustein {{Erledigt|1=--~~~~}} versehen sind oder deren jüngster Beitrag 60 Tage alt ist.
KI kann in sehr verschiedenen Stadien der Texterzeugung eingesetzt werden:
Internetrecherche: viele wissen gar nicht, wie viel KI Google und Co bei der Suche verwenden
Literaturrecherche: Durchsuchen von Datenbanken mit wissenschaftlichen Texten. Ergibt zum Teil bessere Ergebnisse als eine Suche ohne KI und ermöglicht bessere Korrelationen zwischen den Ergebnissen.
Freie Texterzeugung: Nutzung von LLMs (das ist das, woran wir hauptsächlich denken)
Zusammenfassung von Texten: Vereinfachung von Inhalten eines PDF inkl. einfacher Formulierungen (bedarf natürlich der nachträglichen Kontrolle)
Vorschläge zur Allgemeinverständlichkeit und Vereinfachung von selbst geschriebenen Texten: deepl write, wortliga ...(statistische Auswertung der Texte und Vorschläge zur Verbesserung der Lesbarkeit) (vgl. DTS 96)
Hilfe für den Betrieb von Wikipedia und Erleichterungen für den Leser:
verbesserte Suche nach Inhalten (ähnlich der Websuche von Google mit kurzer Vorschau)
Durchsuchen von Wikipediatexten anhand einer in natürlicher Sprache gestellten Frage (z.B. Wie alt ist der Sänger xyz?). Farbige Hervorhebung von entsprechenden Textpassagen im Text oder der Infobox.
Beantwortung einer vom Leser gestellten Frage in einer separaten Antwortbox in allgemeinverständlicher Sprache (Zusammenfassung eines Abschnitts speziell auf den Leser zugeschnitten. Sprachniveau in den Leser-Einstellungen vorher auswählbar.)
Überprüfung von Textänderungen und Warnungen für die Eingangskontrolle, wenn ein Text werbend oder sprachlich unpassend geschrieben ist oder bestimmte Arten von Vandalismus enthält. Hinweis, wenn Inhalte ergänzt werden, ohne dass eine Quelle angegeben wurde.
Überprüfung, ob die angegebene Quelle die Aussage im Artikel enthält.
Fabio Petroni, Samuel Broscheit, Aleksandra Piktus, Patrick Lewis, Gautier Izacard, Lucas Hosseini, Jane Dwivedi-Yu, Maria Lomeli, Timo Schick, Michele Bevilacqua, Pierre-Emmanuel Mazaré, Armand Joulin, Edouard Grave, Sebastian Riedel: Improving Wikipedia verifiability with AI. In: Nature Machine Intelligence. Band5, Nr.10, Oktober 2023, ISSN2522-5839, S.1142–1148, doi:10.1038/s42256-023-00726-1 (nature.com [abgerufen am 6. August 2024]).--Salino01 (Diskussion) 19:51, 6. Aug. 2024 (CEST)Beantworten
Das SIDE-Tool von Facebook/Meta (zum Auffinden nicht verifizierbarer Belege und zum Vorschlagen von Ersatz für diese) könnte in der Tat potenziell sehr nützlich sein.
Aber bevor sich jemand zu große Hoffnungen macht: Im Juli 2022 warnte der Hauptautor (inzwischen nicht mehr bei Meta tätig), dass "Side ein POC [Proof of Concept] ist, der zeigt, dass die Technologie vorhanden ist. Um ein Produktionssystem aufzubauen, ist noch viel zu tun. :)“ – und das Code-Repository hat in den zwei Jahren seitdem keine neuen Commits gesehen...
Und selbst wenn der Code produktionsreif gemacht wird, werden die Serveranforderungen wahrscheinlich nicht unerheblich sein – allein die Modelle (die Meta lobenswerterweise unter einer freien Lizenz veröffentlicht hat) benötigen etwa 2 Terabyte Festplattenspeicher, was es beispielsweise wohl ausschließt, dies auf Toolforge zu hosten (eher schon auf der neuen "Lift Wing"-Infrastruktur der Foundation).
Eindruck Fortsetzung Zukunftskongress und quo vadis Zukunft
Letzter Kommentar: vor 2 Monaten1 Kommentar1 Person ist an der Diskussion beteiligt
Es war konstruktiv, es waren aber nur wenig Leute da (nur etwa die Hälfte der Angemeldeten). Insgesamt ist man bei Wikimedia auch noch in einer breiteren Findungsphase zu mehreren Themen, die technische Weiterentwicklung und dort KI sind ein Thema. Wenn ich mir die Diskussion zu Automoderator (3 drüber) anschaue, scheinen breit angelegte allgemeine Diskussionen noch wenig produktiv. Imho sieht ein Teil vor allem die noch vorhandenen Probleme und bleibt konservativ. Daneben gibt es zahlreiche Benutzer, die selber experimentieren und vielleicht auch keine Lust auf solche Diskussionen haben. Wenn man akzeptiert, dass KI nicht wieder so einfach vorbei geht wie andere Wellen, den "Hype" rausrechnet, müssen wir uns imho trotzdem vorbereiten und die „Verunreinigung“ von WP verhindern durch Halluzinationen der KI und unser Wissen bestmöglichst kuratieren.
Und natürlich das vorhandene Potential von KI optimal nutzen: Verständlichkeit vorhandener Texte verbessern und Rohübersetzungen für ein Postediting sind schon jetzt breiter nutzbar, Recherchen für Texte mittels Chatbots möglich und oft hilfreich, Qualitätssicherung und Vandalismusbekämpfung auf dem Weg, Schreibenlassen von Artikeln und ungeprüftes Einstellen doch ein NoGo.
Vielleicht gibt es 4 Dinge, wo das Projekt helfen kann:
Neue Entwicklungen sammeln und darstellen (das geschieht hier schon, einfach mutig weiteres ergänzen)
Uns mit Entwicklern innerhalb und ausserhalb WP austauschen (Hier kann Wikimedia helfen, Veranstaltungen zu organisieren). Dazu kann man vielleicht auch das bewährte und in Wiesbaden mit einer Eule ausgezeichnete Stammtischformat nutzen @Salino01:?
Qualitätskriterien angepasst an den jeweiligen Entwicklungsstand zu entwerfen (die dynamisch sein werden).
Selber etwas experimentieren und zur (konstruktiven) Diskussion stellen.
Die „Reiter“ oben auf der Projektseite sollen die verschiedenen Anwendungsgebiete auflisten und man sollte das Wissen danach etwas ordnen. Zumindest wollen wir den aktuellsten und umfassendsten Überblick erst mal erreichen und das können wir schaffen. Über den Rest müssten wir uns mal austauschen.--Wortulo (Disk. * KI-Projekt) 21:17, 17. Okt. 2024 (CEST)
{Erledigt|1=--Wortulo (Disk. * KI-Projekt) 09:05, 28. Nov. 2024 (CET)}}Beantworten
Projektförderung durch Wikimedia gewünscht?
Letzter Kommentar: vor 1 Monat5 Kommentare4 Personen sind an der Diskussion beteiligt
Wenn man mit KI selber etwas experimentieren will, sollte man die neuesten Versionen der KI nutzen. Diese sind meist kostenpflichtig - die freien Versionen nutzen meist Vorgängerversionen. Auf der Vorderseite habe ich eine Tabelle mit Modellen und den Chatbots angefangen.
Was haltet Ihr davon, wenn wir einen Förderantrag stellen, ob für die Wikipedianutzung solche Abos übernommen werden können? Eine Voranfrage war positiv (die wollen auch jemanden bestimmen, der dann dort für KI DORT zuständig und ansprechbar ist). Wie ist aber das Interesse bei uns?
Wir brauchen einen Rahmen-Projektantrag (würde ich mich kümmern) wo die einzelnen Personen gelistet sind, was sie wie lange brauchen und was sie genauer machen wollen. Das wird ja verschieden sein, weil die Anwendungen vielfältig sind.
Die Zahl der Slots für das Projekt muss man sicher begrenzen. ChatGPT kostet pro Person und Monat 20 Dollar, Rabatt scheint es nicht zu geben. Bei beispielsweise zehn Slots wären das pro Jahr 2400 Dollar. Bei der Konkurrenz ist es ähnlich. Man sollte das für 1/2 bis 1 Jahr pro Person vergeben.
Man sollte nicht nur an Chatbots denken, sondern z.B. an die KI-Erkennungstools, die für die Leute von der Qualitätssicherung interessant sind und in den professionelleren Versionen auch etwas kosten. Und wer etwas vergleichen will, braucht sicher mehr als einen Slot. Also erst mal allgemein nach Interesse gefragt. Könnt Ihr (erst mal ohne Ping) antworten - auch wenn kein Interesse wäre? --Wortulo (Disk. * KI-Projekt) 21:42, 26. Okt. 2024 (CEST)Beantworten
Klingt nach einer guten Idee. KI muss verstanden und begriffen werden, dazu sind durchaus die kostenpflichtigen Modelle gefragt. Stell mal einen Antrag für das ganze Team. Ich trage mich auch ein. Also alt-ITler der immer auf neuestem Stand ist auch für mich sehr interessant und schon seit Jahren dabei. ~~~~ --Michael - Et si omnes, ego non 09:31, 27. Okt. 2024 (CET)Beantworten
Ganz persoenliche Meinung: Ich bin dagegen, die Geschaeftspraktiken der wenigen Oligopol-Anbieter im Bereich generativer KI mit WMDE-Spendengeldern zu stuetzen. Die Systeme sind proprietaer, koennen realistisch auf absehbare Zeit nicht (oder gar niemals) Freie Software sein. ---stk (Diskussion) 15:50, 24. Nov. 2024 (CET)Beantworten
Nach Rücksprache mit WMDE ist eine Förderung möglich. Wir werden das beim Online-Treffen am 27.11. besprechen und den Bedarf feststellen. Jeder, der das in Erwägung zieht, sollte schon mal überlegen:
Welches Abo wie lange und was kostet das?
Begründung für einen Projektantrag kurz (was will man damit tun und wie wird man die Erfahrungen zugänglch machen?)
was ich sehr schätze und uns vielleicht allen helfen würde, wäre eine gute Rechtschreibprüfung und Umschreibhilfe. Ich schätze da https://www.deepl.com/de/pro-write sehr. Hatte auch LanguageTools probiert, bin da aber nicht zufrieden.
Aufdroeseln der KI-„Geschmacksrichtungen“ und Benennung derselben
Letzter Kommentar: vor 4 Tagen11 Kommentare2 Personen sind an der Diskussion beteiligt
Ich hatte schon ein paar Mal auf die Projektseiten geblickt und mich immer wieder an der Verwendung des Sammelbegriffs „KI“ fast ausschliesslich fuer generative KI (bzw. des connectionist model) gestoert. Das bildet zugegebenermassen die Begriffsverwendung im derzeitigen populaeren Diskurs ab. Ich halte das aber formell fuer unvollstaendig und auch dazu geeignet, bei neu hinzukommenden Laien den falschen Eindruck zu verstaerken, dass es nur generative KI-Systeme gebe.
Ich bin aber offen gestanden etwas ratlos, wie man die Seiten entsprechend sortieren oder umgestalten koennte. Die ersten Kapitel aus AIMA finde ich fuer einen ersten Grobueberblick super empfehlenswert (und davon sollte vielleicht auch etwas jeweils in das KI- als auch das Geschichts-Lemma einfliessen). Ich weiss aber gerade gar nicht so recht, wo ich anfangen sollte. ---stk (Diskussion) 15:59, 24. Nov. 2024 (CET)Beantworten
Ganz unstrittig, dass AI/KI eine längere Geschichte und viel mehr Facetten hat und das Rennen durchaus noch offen sein kann - ich bin auch kein Hellseher und kann vielem zustimmen, was Du schreibst.
Unser Projekt sucht sein Profil, vieles ist möglich von der theoretischen Beschäftigung mit der ganzen Materie, anderen KI-Konzepten (was du über die Symbolische KI schreibst und wo der Mensch offenbar immer eine wichtige Rolle behält) bis zu wirksamen Schritten, die heute und hier neu entstandenen Gefahren für Wikipedia zu beleuchten und was dagegen zu tun.
Ich bin allerdings der Meinung, dass letzteres quasi fast nur von den subsymbolischen/generativen KI ausgeht, die über die Chatbots jetzt jedermann zugänglich sind, die Autoren das immer mehr benutzen (Recherche, Verbesserung, Übersetzung oder gar Erstellen) und wo Wikipedia irgendwie eine Haltung braucht, um sich nicht zu zerreiben oder überrascht zu werden - also vielleicht eine Art KI Cleanup analog zur En:WP. WIR wollen weder auf einen Hype reinfallen noch in Panik verfallen und reale Gefahren und wirksame Gegenmittel beleuchten (denn mit einem Verbot allein scheint es imho auch nicht getan). Oder erst mal informieren und sensibilisieren, was wirklich los ist.
Deswegen habe ich versucht, alles auf der Vorderseite so darzustellen, dass man diese generative KI Schiene verfolgen und sich einarbeiten kann. Dadurch wird nichts am Hype befeuert, wie in anderen Wikipedien gibt es dann hier erst mal nur Leute, die das auf dem Radar haben und sich damit beschäftigen, was das bedeuten kann.
Summa summarum sind wir hier voll im Quo Vadis für das Projekt, wo wir Interessen und Ressourcen der Beteiligten aber auch erst mal erfragen müssen. Es ist nicht mein Projekt, ich habe nur durch den Zukunftskongress etwas sensibilisiert das Heft etwas in die Hand genommen und würde selber gern aus besagten Gründen die Schiene der generativen KI wie beschrieben weiter verfolgen. Das schliesst aber nicht aus, noch andere Facetten zu beleuchten. Wortulo (Disk. * KI-Projekt) 18:13, 24. Nov. 2024 (CET)Beantworten
Das was du mit dem Mensch beschreibst, der immer eine wichtige Rolle behaelt – das koennte eigentlich ein Leitspruch fuer alles sein :) Eine der klassischen Wissens-Definitionen ist eine „gerechtfertigte, wahre Ueberzeugung“, und ein klassisches Abwehrgefecht waere, zu sagen, dass ja nur ein Mensch durch einen Denkprozess zu einer solchen Ueberzeugung kommen kann. Der engen Definition nach waeren aber Buecher in einer Bibliothek (oder auch die Wikipedia) nur Buchstabensuppe, solange sie nicht von einem Menschen gelesen werden, der daraus zu einer solchen Ueberzeugung kommt ;)
Daraus lassen sich zwei Ableitungen schliessen:
Wenn Wissen auf einer gerechtfertigten, wahren Ueberzeugung basiert, stellt sich die Frage, wie man zu der Rechtfertigung und Pruefung des Wahrheitsgehalts kommt. Variante 1 waere, vorliegende Texte auf ihren Wahrheitsgehalt zu pruefen und daraus die Rechtfertigung der Ueberzeugung abzuleiten. Bei statistischen Werkzeugen wie Sprachmodellen erfordert das bei gruendlicher Arbeit eigentlich immer die Verifizierung anhand unabhaengiger und verlaesslicher Quellen – der Wahrheitsgehalt der Aussage kann nicht einfach angenommen werden, genausowenig bei einer eigentlich wahren Aussage die Rechtfertigung, die der Herleitung entnommen werden koennte. Prinzipiell gilt das ja auch fuer alles, was in der Wikipedia steht. Anhand der vorliegenden Belege kann ich aber einerseits den Wahrheitsgehalt pruefen und mir damit die Rechtfertigung selber erarbeiten. Ich kann aber als Variante 2 anhand des Prozess, wie die Wikipedia entsteht, zumindest in grossen Teilen meine innere Rechtfertigung damit begruenden, dass nicht-wahre Aussagen keinen langen Bestand haben wuerden.
Das kann aber auch den Schluss nahelegen, dass „KI“ (Sammelbegriff) grundsaetzlich zunaechst nur ein Werkzeug ist, deren Ausgaben menschlicher Bewertung beduerfen. Wie in den nebenan zitierten Arbeiten von Bender et al aufgedroeselt, sollte der ueberzeugende Ton der generierten Ausgaben nicht dazu verleiten, von der hohen Wahrscheinlichkeit, eine wahre Aussage generiert zu bekommen, darauf zu schliessen, dass alle generierten Aussagen wahr sind. Damit sind wir wieder bei den klassischen zwei Interpretationsmoeglichkeiten, was „KI“ (Sammelbegriff) in seinem Ziel sein soll: Ist es ein Werkzeug, das menschliche Arbeit automatisiert und stellenweise ueberfluessig macht (mit allen damit verbundenen Seiteneffekten!), oder geht es eigentlich um „Intelligence Augmentation“, genau wie ein Spreadsheet, das menschliche Arbeit unterstuetzen kann, aber auf eine richtige Benutzung und Interpretation der Ergebnisse durch menschliche Akteure angewiesen ist.
Ich bin ganz bei dir, dass „die Wikipedia“ (und generell Projekte Freien Wissens) sich dazu irgendwie verhalten muessen und zumindest eine Folgenabschaetzung betreiben sollten. Dazu gehoert fuer mich aber auch, die Seiteneffekte der Fokussierung auf genAI in der oeffentlichen Debatte zu beleuchten und die anderen Geschmacksrichtungen der Forschungsgeschichte ins Bewusstsein zu bringen, die durch ihre konsequente Anwendung vielleicht fuer mehr nachhaltig verwendbares Freies Wissen sorgen, als wenn sich alles auf genAI konzentriert. ---stk (Diskussion) 20:37, 24. Nov. 2024 (CET)Beantworten
Danke, es wird vielleicht klarer, @-stk:. Kann es sein, dass wir (und andere im Kurier) in einem Punkt etwas aneinander vorbei reden - und ich vereinfache mal:
Dir und anderen geht es um die Darstellung der KI als Thema im ANR, also dass wir mit dafür sorgen, dass KI-Lemmata ausgewogen, neutral etc. sind - wir uns wie ein Projekt oder eine Redaktion begreifen analog Medizin, Psychologie, Geografie etc., nur für KI?
Mir geht es darum, die Auswirkungen der Nutzung von KI als Werkzeug bei der Darstellung verschiedenster Lemmata durch Autoren zu betrachten, also eher wie bei "Umgang mit bezahltem Schreiben". Was Autoren damit machen/anrichten können und was wir als Community tun können, um keine Fehler (Halluzinationen) der KI bei uns im ANR zu finden. So ist das Projekt ja entstanden (siehe die Umfrage), das machen auch die mir bekannnten Schwesterprojekte.
Ich habe das Intro auf den Zweck hin gestaltet: was sollte man wissen, um die für die Fehler verantwortlichen generativen KI-Chatbots zu durchschauen. Dein dann breiteres und anspruchsvolleres Projektziel muss man sicher auch im Auge behalten, ist bisher aber nicht auf meinem Radar und wäre imho anspruchsvoller. Das wäre dann zu besprechen, was das bedeutet, wenn das einige machen wollen (es hängt ja auch von den Leuten hier ab). Wortulo (Disk. * KI-Projekt) 00:39, 25. Nov. 2024 (CET)Beantworten
Die bisherige Diskussion hat mir geholfen, heute morgen das Intro aus meiner Sicht nochmal klarer zu formulieren. Ich bin gespannt, was wir Mittwoch zum Profil des Projektes besprechen und hoffe, dass das Projekt für Leute interessant bleibt, die sich nicht als Experten im Verständnis der KI fühlen, sondern was tun wollen, dass die Fehler nicht bei uns Eingang finden und man Nutzungsmöglichkeiten mit ihren Bedingungen genauer beleuchtet. (nicht signierter Beitrag vonWortulo (Diskussion | Beiträge) 08:40, 25. Nov. 2024 (CET))Beantworten
Es ist ja gerade dieses Hin und Her, das dazu fuehrt, ein gemeinsames Verstaendnis zu bekommen ;)
Mir geht es allgemein um die Darstellung von KI in allen ihren Facetten, also auch die Benennung, dass genAI nur ein Teilgebiet ist. Dazu gehoert
eine gute Beschreibung im ANR, denn die Artikel im ANR sind nicht selten auch Stuetze fuer den allgemeinen Diskurs in der Gesellschaft
aber auch eine gute Beschreibung in den Projekten → gerade ein Wikiprojekt, das sich mit den Auswirkungen von KI auf Freies Wissen beschaeftigt, hat hier eine riesige Chance, den Blick zu weiten und sich nicht nur auf genAI zu fokussieren. Daraus leiten sich verschiedene Arbeitsgebiete ab. Das Erkennen quatschiger weil generierter Inhalte und die Beschaeftigung mit Verhaeltnismaessigkeitsfragen beim Einsatz von genAI ist eines davon.
Wie ich schon schrieb, versuche ich, am Mittwoch auf jeden Fall dabei zu sein (vermutlich in Arbeitsrolle, das ist auch noch eine Sache, die ich mir genauer ueberlegen muss, wann ich eigentlich welchen Hut aufhabe) ---stk (Diskussion) 12:25, 25. Nov. 2024 (CET)Beantworten
Ich hab das Gefühl, dass ich dich zunehmend verstehe und habe das Intro im gelben Kasten nochmal umformuliert und die verstandenen Aspekte eingearbeitet. Man muss das eine tun und das andere nicht lassen. Da der Mittwoch naht, solltest Du vielleicht den Text nochmal anschauen und ggf. dazu konkret präzisieren. Allerdings wird das dann ein sehr grosses Stück Holz, was ja auch Leute machen müssen und wollen. Eine verständliche Darstellung der KI a la Portal müssten Leute machen, die in KI arbeiten. Der Aspekt UmKIS (a la UmbS) wäre dann ein Anfang. Ich bin jedenfalls auf den Mittwoch gespannt und hab das Gefühl, dass es auch immer klarer wird, was das Projekt soll. Gefühle können aber trügerisch sein... Wortulo (Disk. * KI-Projekt) 20:09, 25. Nov. 2024 (CET)Beantworten
Ich hab neulich schon ein wenig angefangen. Gerade bei den Basics schau ich noch, dass da ein wenig mehr Ausgewogenheit zwischen den verschiedenen Geschmacksrichtungen ist, damit da nicht genAI pars pro toto fuer das gesamte Feld angenommen wird :) ---stk (Diskussion) 01:09, 18. Dez. 2024 (CET)Beantworten
Ich habe das mit Freude gesehen, @-stk: und kann allem eigentlich zustimmen. Nur würde ich nicht zustimmen, dass das genAI "für das gesamte Feld" auch vorher da stand. Letztendlich soll man dort alles so sachlich und verständlich wie möglich zur KI finden, was man heute wissen sollte. Ausgewogenheit ist das falsche Wort. Ist es eine "relevante Geschmacksrichtung" und erklären wir sie gut genug ist die eigentliche Frage. Pragmatisch und nicht ideologisch. Es ist aber so, dass uns HEUTE die genAI am stärksten beschäftigt, was aber (siehe Trends) noch nicht mal das Ende ist. Das kann man nur dialektisch sehen, am Ende entscheidet der "Markt", was sich durchsetzt- resp. die Usability. Mal etwas polemischer: die Sehnsucht nach "menschengemachter" symbolischer KI kann sowas werden wie der Traum von der guten alten Dampflok im Zeitalter der ICE. Aber vielleicht kannst Du im Januar ja Sachen vorstellen, die bezüglich Usability mithalten können.
Am Rande: Das habe ich noch nicht verlinkt, ist aber am kondensiertesten die Geschichte, die wegen des Bezuges zur Lerntheorie der Zugang "meiner" Schule in Berlin war (Klix, Kybernetik, Kognitionspsychologie und Zugang über die Begriffsbildung und Mustererkennung). Von Stochastik oder "Halluzinationen" war da keine Rede, man wollte menschliche Lernprozesse und "Wissensrepräsentation" in Begriffsstrukturen simulieren - und wie bei Kindern macht die KI natürlich am Anfang Fehler und dann gibt es das "Differenzierungslernen" bis zum Erreichen einer ausreichenden Zuverlässigkeit (errare humanum est sagt man über Menschen :-) Ich bin dann in ein anderes Thema abgedriftet und habe den Ansatz noch nicht wirklich irgendwo wiedererkannt. --Wortulo (Disk. * KI-Projekt) 20:32, 21. Dez. 2024 (CET)Beantworten
Mir geht es darum, dass in der oeffentlichen Diskussion haeufig genAI (oder spezifischer, die aktuellen GPTs) einerseits und eine abstrakte Wuensche-Wolke von „irgendwas mit Automatisierung“ mit dem Begriff „KI“ angesprochen wird. Ich will nicht unterstellen, dass das vorher im Projekt so abgebildet gewesen sei. Aber ich faende es gerade fuer das Projekt wichtig und relevant, fuer Hinzukommende den Blick weit zu halten. Das hat fuer mich mehr mit NPOV zu tun als mit Ideologie – im Gegenteil faende ich es ideologisch, sich nur auf den Teilbereich zu konzentrieren, der derzeit am meisten oeffentlich diskutiert wird und dabei die tieferen Zusammenhaenge unter den Tisch fallen zu lassen. Da wuerde ich auch nicht den „Markt“ bestimmen lassen, der von Partikularinteressen gepraegt werden kann, sondern auch fuer eine Projektseite den Stand gesicherten Wissens als Messlatte heranziehen.
Ich erkenne mit Freude immer wieder deine Eisenbahnvergleiche ;) Ich wuerde die aber offen gestanden zurueckweisen, weil genauso gut auch das Gegenteil wahr sein kann, oder es sich genauso gut bei Sprachmodellen um die Sehnsucht nach dem Flugtaxi als Verkehrsmittel der Zukunft handeln koennte, waehrend das Fahrrad laengst existiert. Wir bringen sicherlich alle unsere eigenen Annahmen und Ueberzeugungen mit in die Projektarbeit. Mein Bauchgefuehl raet mir aber, lieber erst einmal den ganzen Moeglichkeitsraum aufzuspannen um ihn ueberhaupt zugaenglich zu machen, anstatt sich einseitig auf ein Trendthema zu fokussieren.
Die von dir verlinkte Liste liest sich sehr wie einer Uebernahme der Forbes-Aufzaehlung von Bernard Marr aus 2016. Diese will sich ganz ausdruecklich auf das konnektionistische Modell und maschinelles Lernen beziehen, wenngleich sie zwischendrin symbolische Ansaetze wie Deep Blue als Expertensystem einstreut – das ist derweil ganz klassische, „menschengemachte“ symbolische KI. Ich kenne aus dem Studium meinerseits wiederum die Praedikaten- und Aussagenlogik als wichtige Grundlage der theoretischen Informatik. Dein Vergleich mit lernenden Kindern wird uebrigens in der Wissenschaft sehr kritisch gesehen, weil er kuenstliche neuronale Netze anthropomorphisiert und damit moeglicherweise Aepfel mit Birnen vergleicht.
Zuletzt eine Bitte: Dieser Account, der hier schreibt, ist formell nicht Stefan Kaufmann (WMDE), und umgekehrt auch nicht. Diese Trennung ist mir sehr wichtig. Als Privatperson nehme ich zwar das angelesene Wissen aus dem Berufskontext auch in die Freizeit mit, und meine Erfahrungen im Ehrenamtskontext informieren auch meine berufliche Arbeit. Aber „ich“ (im Sinne dieses Accounts) bin schlicht nicht im Januar beim DTS anwesend ;) ---stk (Diskussion) 13:03, 22. Dez. 2024 (CET)Beantworten
Du predigst in vielem einem Gläubigen - wo ich mich dann immer frage: warum versteht der mich nicht (oder andere auch). Eine Ursache in interdisziplinären Diskussionen ist oft, dass meine Worte aus meiner Begriffstruktur (Psychologe, Empiriker, eigentlich naturwissenschaftlich orientiert) stammen - Du die natürlich aus Deiner Begriffsstruktur verstehst und dann auch missverstehen kannst. Da hilft nur, es nochmal anders sagen. Denn ich zweifle tatsächlich nicht an Deiner Kompetenz und will auch nicht die berüchtigten "Verzwergungstechniken" anwenden.
Das Projekt begriff ich vom ersten Edit an als unideologische Zusammenstellung, was es alles gibt - inclusive der Abbildung vom Streifragen. Ich selber habe nämlich noch keine feste Meinung, denke wie geschrieben in Szenaren. Projekt: Die "Essentals" sollen der einfachen(!) Einstieg für alle ermöglichen (Begriffe und Konzepte aus dem Alltag wiederfinden)- die "Hintergründe" sind eine ziemlich repräsentative Auswahl von Quellen, die seit Juli in 2 Pressespegeln bei mir ankommen. Du und andere ergänzen ja bisher prima und wenn es da keinen gesunden Meinungsstreit auch hier gäbe, würde was nicht stimmen.
Markt hast Du falsch verstanden. Die "Musik" spielt in der realen Welt und welche Art des Wissenskonsums sich am Ende durchsetzt, bestimmt ebender. Im Moment tobt da vermutlich der grösste Konkurrenzkamf seit langem. Wikipedia will da mitreden und -bestimmen, vielleicht geht das auch zu einem bestimmten Grade. Das wird dann aber mehr Anpassung als Bestimmen sein. Ja, und da sehe ich in einem Community-Projekt einen kleinen Mosaikstein, diese Perspektive auch einzubringen und sich zusammen eine Meinung zu bilden.
Du verstehst mein Eisenbahnbeispiel immer noch nicht, wie ich es meine - das Fahrrad ist keine Alternative für Mittel- und Langstrecken. Es gibt Bedürfnisse und es gewinnt derjenige im Wettbewerb, der sie am besten befriedigt - sprich den man kauft oder konsumiert und mit Daten bezahlt. Die Menschen wollen am liebsten ein "intelligentes Tamagotchi", mit dem sie sich in Echtzeit unterhalten können - was auch Fragen beantwortet. Wer das zuerst liefern kann, hat gewonnen. Mal auf dünnem Eis: Bücher und Lesen kann sogar eine Zukunft behalten, für enzyklopädieartige Artikel kanns eng werden. Und jetzt kommt die Eisenbahn: man hat der DAMALS am Anfang noch viele Jahre nicht angesehen, was mal daraus wird und dass es Pferde und Kutschen nur noch museal-nostalgisch gibt. Genauso kann es mit generativer KI sein - die auch noch noch nicht das Ende ist. Bei der Eisenbahn kam auch nach Dampf noch mehr und heute wird das Flugzeug auf der Mittelstrecke erfolgreich konkurrenziert, wenn es denn nicht so viele Verspätungen gäbe.
Die damalige kognitionspsychologische Begriffsbildungsszene (wir reden über die 60er bis 80er Jahre, ich war Assi ab 1977) wollten bewusst die menschliche Informationsverarbeitung als Vorbild und diese quasi "nachbauen". An das Wort "Anthropomorphisierung" hat damals wie ich glaube niemand gedacht, es ging um Simulationen - dank Klix auf den neuesten Rechnern trotz DDR. Und das war eine ganze internationale Szene, z.B. Dietrich Dörner und andere. Das mit den kindlichen Fehlern war auch nicht nur so dahergesagt. Man kennt aus der Entwicklungspsychologie typische kindliche kognitive Fehler und hat die entweder erwartet oder sogar nachgewiesen.
Mit Deinen 2 Rollen sehe ich noch nicht wirklich durch, was Du da meinst. Ich bin ja durch die Zukunftsgeschichten von Wikimedia auf das Thema gekommen und sehe keine ernsthaften konzeptionellen Divergenzen. Vielleicht warten wir einfach Deinen DTS ab und telefonieren danach mal? Dann wird es nicht so lang. Denn so ein Projekt lebt nur vom Diskurs - wenn man den "gepflegt" austrägt. Da sind wir ja eigentlich schon?@-stk: --Wortulo (Disk. * KI-Projekt) 15:46, 22. Dez. 2024 (CET)Beantworten
Wikipedia Artikel als Audio Podcasts per KI-Stimme
Letzter Kommentar: vor 25 Tagen13 Kommentare3 Personen sind an der Diskussion beteiligt
Ist jemand an mittels neuartiger KI-Stimmen gesprochenen Wikipedia Artikeln interessiert? Ich höre mittlerweile meist lieber solche Audios anstatt Podcasts oder Hörbücher. Diese KI-Stimmen gibt es erst seit ca einem Jahr, vorher war die Qualität deutlich geringer und die Audios waren nicht angenehm anzuhören.
Ein Problem ist dass die deutschen Stimmen die ich bis jetzt ausprobiert habe bei weitem nicht so gut sind wie die englische und auch mindestens je eine italienische, französische, und spanische Stimme finde ich deutlich besser. --Prototyperspective (Diskussion) 23:53, 27. Nov. 2024 (CET)Beantworten
Ich hab das zumindest mal als Ziel vorn ins Projekt mit aufgenommen: Auf Knopfdruck Vorlesen beliebiger aktueller Wikipediaartikel, der Knopf bei jedem Artikel. Die KI Chatbots beantworten zwar Fragen - das könnte aber ein Wettbewerbsvoreil der Wikipedia werden. Was Du schreibst, dass du das lieber hörst, kann ich mir auch vorstellen, dass es dafür Fans gibt. Du kannst ja mal überlegen, wie das ginge. Die Stimme sollte angenehm sein - KI scheint dafür nötig? --Wortulo (Disk. * KI-Projekt) 10:50, 29. Nov. 2024 (CET)Beantworten
Ja genau so etwas wäre super. Die New York Times hat das anscheinend jetzt ebenfalls eingebaut, da kann man über den Artikeln auf den Play-Button klicken und es sich vorlesen lassen. Habe es auf der Projektseite allerdings nicht gefunden und da du zuletzt viel geändert hast habe ich es auch in den diffs nicht gefunden.
Ich höre nicht lieber Wikipedia Artikel als sie zu lesen, ich höre lieber Wikipedia-Artikel als Podcasts und würde derart lange Artikel wie der Artikel en:Earth wahrscheinlich niemals komplett lesen während er als Podcast-Audio recht interessant anzuhören ist. Es gibt viele Millionen Menschen die gerne regelmäßig Podcasts anhören. Gleichzeitig gibt es nur wenige die oft und gerne 1 Stunde lang einen langen Artikel als Text auf dem Bildschirm lesen. Ich denke das bedeutet, dass das Zurverfügungstellen von hochqualitativen podcastartigen/gut-anzuhörenden Audios die Leserschaft der Wikipedia ca verdoppeln könnte (d.h. mehr Leser und mehr gelesenes pro Person). Meine Ansicht ist daher aktuell dass es mit Ausnahme von der zuvor mal erwähnten verbesserten Anwendung von Maschinenübersetzung nichts gibt das für die Wikipedia ähnlich vorteilhaft wäre. Alle Beiträge würden wertvoller gemacht, die WP-Teilnahme ist nützlicher/effizienter, die Qualität von langen Artikeln wird verbessert, das Lesen (Anhören) von Wikipedia wird in der Gesellschaft etablierter, und die Gesellschaft erhält ein neuartiges deutlich neutraleres und akkurateres Medium als die aktuell weitverbreiteten.
Es geht hier nicht um KI-Chatbots (mit oder ohne Stimme), das ist ein separates Thema.
"Du kannst ja mal überlegen, wie das ginge." Was fehlt sind zwei Sachen: 1. interessierte Teilnehmer 2. Hochskalierung des bereits bestehenden Prozesses mit dem sich aktuell nur 50–200 Audios pro Person pro Tag erstellen lassen. Zur Hochskalierung zähle ich auch das Beheben von den bekannten Problemen mit der genutzten Software, etwa muss bei englischen Texten "J. K. Rowling" mit "J K Rowling" oder "e.g." mit "for example" ersetzt werden.
"Die Stimme sollte angenehm sein - KI scheint dafür nötig?" Zwei deutschsprachige Beispiele sind auf der rechten Seite. Wie gesagt klingt nur die deutsche Stimme nicht besonders angenehm aber gut anhörbar ist auch diese. Womöglich ist es auch Geschmackssache und die Stimme in den Beispielen für andere ideal. Man kann auch deutschsprachige Stimmen hinzufügen, wenn das jemand machen möchte wäre das super, ich weiß nicht wie man die KI Modelle optimal trainiert (man kann auch in der verwendeten Software Stimmen klonen aber das hbe ich noch nicht ausprobiert und ist vermutlich nicht die beste Methodik). Ich interessiere mich v.a. für ENWP wo es gut-klingende Stimmen gibt.
Hier das neue WikiProjekt en:Wikipedia:WikiProject Wikipedia spoken by AI voice. Falls jemand mitmachen möchte bzw interessiert ist, bitte dort eintragen, ich kann gerne helfen falls ihr Fragen/Probleme mit der Software oder dem Prozess der Audioerstellung habt.
@Prototyperspective: Die verständliche Darstellung eines so komplexen Themas ist eine Herausforderung, ein stabiler Zustand ist aber nicht mehr weit. Im gelben Zielekasten Intro steht Spezifische Vorlesetools für alle Artikel auf Knopfdruck wären eine weitere Option, die direkte Nutzung der Wikipedia attraktiv zu halten.
Nicht verwechseln: die herausgehobene BEDEUTUNG generativer KI als "Gefahr" hat nichts damit zu tun, das anderes auch zu "KI und Wikipedia"als Projekt gehört und mit verlinkt werden soll, wenn wir eine vollständige Übersicht haben wollen. Wird das nicht genug deutlich?
Ihr seid ein KI-Projekt, da gehört ihr erstens wohl hier mit rein die Seite haben wir vorn verlinkt - im "grünen Bereich" oben was bei uns los ist. Machst Du es, weil man dann sieht, wer es eintrug? Zweitens müsste man das Projekt bei uns dort beschreiben, wo man es sucht - ich würde es unter Texte machen, weil es ja um das Sprechen von Texten geht. Ich bereite mal einen Punkt vor und Du kannst es ausbauen? hier Nicht zu lang :-) Ich fände das schön, den Aufwand müsste man konkretisieren, wenn wir das auf Deutsch haben wollen. Das ist auch zum Mitmachen reizvoll. --Wortulo (Disk. * KI-Projekt) 17:25, 29. Nov. 2024 (CET)Beantworten
Danke, dort habe ich es nicht gesehen. Ich sehe das weniger als Antwort oder Gegenmaßnahme als etwas generell nützliches aber die Erwähnung ist auch so ganz gut. Ich denke es ist deutlich genug. Ich hatte auf der Diskussionsseite der Metawikiseite einen kurzen Beitrag zum Projekt hinterlassen. Würde es irgendwann auch bei der Metaseite eintragen aber vorzugsweise erst irgendwann sobald ich nicht mehr der einzige Teilnehmer bin und falls es jemand anders dort vor mir einträgt wäre das besser als wie wenn ich das mache insofern ist mir egal ob du es / es jemand vor mir einträgt. Guter Vorschlag, ich finde aber dass das nicht unter "KI-generierte Artikel" gehört und auch nicht unter "Texte" sondern unter "Audio".
-
Bei der Audio zum bhutanischen Reisepass (von hier) habe ich übrigens nichts nachbearbeitet außer den Text für die zuvor exkludierte Tabelle zu den drei Passarten in Textform einzufügen. Die Fehlerchen in der Audio zu Erde werden übrigens bereits unter "Known solutions to problems" erläutert und sind einfach zu beheben was ich irgendwann demnächst Mal machen – km. und Mio. sind zB einfach mit km und Mio zu ersetzen. Da man solche Fehler einfach beheben oder vorbeugen und auch melden könnte ist sowas finde ich kein großes Problem. Ich würde mich v.a. um die englischen Audios kümmern wollen, welche ich auch selbst anhöre wobei mir gelegentlich Fehler in der Audio oder im Wikipedia-Artikel auffallen. Zunächst Mal ganz unbearbeitete Artikel zu hören kann eine gute Einführung zu dem Projekt sein weil es aufzeigt welche simple meist automatisiert-behebbare Fehler bei der Vertonung gemacht werden (was u.a. heißt dass es einen Erstellungsprozess benötigt in dem etwa Abkürzungen ersetzt werden) und wieso, neben anderen Gründen wie der langen Wartezeit für die Generierung, die Audios nicht dynamisch vom Leser on-demand erstellt werden können. Die englischen Audios werden bereits oft angehört (~7 k plays) obwohl sie kaum eingebunden sind und der Commons Audioplayer recht veraltet ist (im Bild rechts zwei Vorschläge). --Prototyperspective (Diskussion) 23:22, 29. Nov. 2024 (CET)Beantworten
Es war 50 50, ob Text oder "Medien", es ist was eigenes. Ich habe es mal verschoben, kannst etwas ergänzen. Alles Neue fängt irgendwann bei 1 an - aber ohne dass Du das bekanntmachst, findest Du keine Mitwirkenden. Wenn ich überlegen sollte, ob mich das interessiert, müsste ich genau wissen, was ich da tun kann und soll. Ich weiss nicht, ob das klar genug wird? Wenn es nur darum ginge, wie ich eine Sprache finde, ist das nicht viel. Da Du ja schon was vorzeigen kannst, und nicht nur sagst "man könnte", wäre ich mutiger und würde das in die besagte Übersicht aufnehmen. Bei deinem Urteil zum Audioplayer stimme ich Dir auch zu. --Wortulo (Disk. * KI-Projekt) 07:59, 30. Nov. 2024 (CET)Beantworten
Danke. Ich hatte es schon vor vielen Monaten so bekannt gemacht dass es interessierte finden können. Habe manchmal nicht all zu gute Erfahrungen gemacht mit dem Umgang von Innovationen und Neuerungen oder allgemein KI-bezogenen Diskussionen. Es ist mir klar dass es viele Risiken und Probleme gibt. Mir ist wichtig dass man sich damit erst Mal ausreichend beschäftigt und sich eine informierte nuancierte Meinung bildet usw. Zudem war ich überrascht, dass ich der praktisch einzige war der z.B. Videos mittels KI in andere Sprachen übersetzt und noch mehr dass das nach Monaten und Demonstrationen der Nützlichkeit immer noch so ist obwohl ich das nur im sehr kleinen Stil umgesetzt habe und eine ausführliche Anleitung dazu veröffentlicht habe und jedem helfen würde der auf der Talk Page Fragen hat. Wenn ich überlegen sollte, ob mich das interessiert, müsste ich genau wissen, was ich da tun kann und soll. Das steht in der ToDo-Liste unter "Things to do" auf der WikiProject Seite. Es gibt viele verschiedene Sachen die man tun kann, am nützlichsten wäre das Lösen von technischen Problemen und die Weiterentwicklung des Erstellungsprozesses aber es gibt auch viele andere Tätigkeiten. --Prototyperspective (Diskussion) 11:34, 30. Nov. 2024 (CET)Beantworten
Voraussetzung fuer mich waere hier, dass die Prozesskette auf Freien Systemen aufbaut, um sich nicht an die Geschaeftsmodelle von Anbietern zu binden. Das scheint mir derzeit kaum moeglich. ---stk (Diskussion) 18:57, 29. Nov. 2024 (CET)Beantworten
Nun ja, sorry, dass ich hier nochmal reingrätsche und ich meine das konstruktiv: Diese Unabhngigkeit wäre ideal, ist aber auch nur eine Meinung. Die Welt ist nicht nur open access. In Deiner Eigenschaft @Wikimedia angesprochen: Es scheint ein Bedarf da, es gibt konzeptionelle Überlegungen, Geht nicht gibts nicht :-) Wikimedia-xy resp. die Foundation sollte helfen, eine Lösung zu finden, wenn ein Sinn und Bedarf da drin gesehen wird - und oft führen viele Wege nach Rom? Auf mich würde Dein Statement demotivierend wirken. Das ist aber auch nur Meinung. --Wortulo (Disk. * KI-Projekt) 19:49, 29. Nov. 2024 (CET)Beantworten
Wenn ich hier unter diesem Account schreibe, bin ich hier als der Typ, der seit 20 Jahren in seiner Freizeit ab und zu was macht ;)
Ich finde (ganz privat, ganz persoenlich) die Frage „was macht das mit dem Oekosystem Freien Wissens und Freier Software“ schon wichtig. Ich erlebe die Diskussion ueber generative KI sehr stark von Aengsten gepraegt, dass genAI schlimme Dinge mit der Wikipedia macht. Das Oekosystem verstehe ich selber (ganz privat, ganz persoenlich) aber als groesser als Wikipedia – ich faende nur bedingt etwas dadurch gewonnen, dass man ein Feature fuer Wikipedia gewinnt, dabei aber das Spielfeld fuer Freie Alternative insgesamt in Gefahr bringt. Dieses Problem haben wir als Projekt z.B. auch bei der Frage, ob wir es dulden koennen oder wollen, Menschen die Nutzung proprietaerer Formate aufzuerlegen oder ob wir auf Freie Alternativen setzen. Mir persoenlich geht es hier nicht nur um den Zugang, sondern, was insgesamt moeglich ist und bleibt und auf welche Welt wir zuarbeiten.
(Nachsatz: Auch mit dem anderen Hut auf – den ich in dieser jetzigen Rolle nicht trage – habe ich keinen Einfluss auf Foerderentscheidungen. Das ist eine andere Zustaendigkeit.) ---stk (Diskussion) 19:19, 1. Dez. 2024 (CET)Beantworten
Das sehe ich genauso. Die Prozesskette besteht vollständig aus freier Software, die genutzte Software ist SoniTranslate die unter der Apache2-Lizenz steht. Werde demnächst nochmal alle genutzten Packages usw durchgehen aber das müsste alles freie Software sein (Conda ist BSD, Gradio is Apache2, usw – ich habe keine proprietäre Software installiert also wären es wenn dann Drittanbieter-Dienste).
Falls man den Text übersetzen lässt (kann man dann ggf nachbearbeiten), was man meist nicht macht, wird sofern man nichts umgestellt hat Google Translate Batch genutzt, wobei es natürlich am besten wäre das mit einer Wikimedia-eigenen Lösung zu ersetzen. Hier wird an MinT gearbeitet, das ist aber noch nicht annähernd so performant (ich denke mit der zuvor in der Wishlist vorgeschlagenen Nutzung von Nachkorrektur-Diffs, die von Wikimedianern erstellt werden würden, könnte die Qualität der Übersetzungen deutlich erhöht werden). Das ist hier wenn es nicht auch um das Übersetzen von Videos geht aber sowieso höchstens sekundär da es genug deutsche/spanische/italienische/usw Artikel gibt die man sprechen lassen kann.
Bei den Stimmen gibt es viele verschiedene zur Auswahl und man kann neue erstellen. Wie gesagt weiß ich nicht wie man performante neue Stimmen erstellen kann. Es gibt welche von Bark (ebenfalls open source), Meta, und Microsoft sowie weitere (siehe die optionale Packages von ST). Ich finde diese Stimmen die im März diesen Jahres veröffentlicht wurden sind die performantesten. All diese Stimmen sind in der Public Domain bzw alle Medien die mit diesen Stimmen generiert werden, da man Werke die mit KI generiert wurden nicht unter Copyright stellen kann (aus diesem Grund kann man auch Bilder die z.B. mit dem proprietären Midjourney erstellt wurden frei verfügbar machen).
Das Erstellen eines integrierten Tools bzw die Weiterentwicklung einer Prozesskette wäre etwas das ich gerne anstoßen würde. Ich kann das nicht alleine machen und werde die Prozesskette vermutlich nicht deutlich weiter entwickeln als der immer noch recht manuelle Ablauf der auf der Commons Help Seite beschrieben wird. Die weitere Software die noch genutzt wird ist das Browser Addon Stylus (GPL3). Es müssten noch einige Dinge vor oder während einer Hochskalierung getan/gelöst werden, eine Weiterentwicklung der Prozesskette ist jedenfalls das Kernelement davon.
Es waren immerhin rund 50 Leute da, weil das Thema interessiert. Das mit dem DTS zu verbinden, war Chance (Aufmerksamkeit) und Risiko (bei der aus der Kurierdiskussion zu erwartenden Meinungsvielfalt) zugleich. Ich würde es wieder so empfehlen, da Sensibilisierung wichtiger erscheint als Aktionismus.
Das Quo Vadis (hiess in einer Vorform Speisekarte) wurde nach meinem Eindruck aufgenommen und konstruktiv diskutiert. Niemand hat den KI-Einfluss bagatellisiert (a la Hype, der bald vorbeigeht). Es motiviert mich, das Zusammentragen der Info weiterzuführen. Dort würde ich die Ausrichtung auf Autoren der Wikipedia weiter als Schwerpunkt sehen, andere können und sollten aber auch weitere ergänzen.
Andere sollten sich ermutigt fühlen, auch ihre Info an diesem zentralen Platz zur Verfügung zu stellen. Die Struktur werden wir weiter in Richtung "Selbsterklärung" ausrichten.
Wer unsicher ist, wo etwas hingehört, sollte das einfach auf die Diskussionsseite stellen (wo man auch die Diskussionen bei Bedarf führen sollte).
Der "Leidensdruck", der die Notwendigkeit von Handeln heute begründet, ist in der deutschsprachigen WP noch unterschiedlich ausgeprägt und eher geringer.
Aus Adminsicht ist das Problem in der laufenden Arbeit noch nicht so gravierend, dass es sich spürbar auswirkt
Aus QS-Sicht wird auf die ohnehin schon begrenzten Ressourcen hingewiesen
Es wurde auch eingebracht, dass man vorbereitet sein muss und nicht warten sollte, bis es wirklich schlimm wird.
Es scheint, dass noch klarer werden muss, dass die generativen KI mit ihrer immer schwerer erkennbaren Fehleranfälligkeit (Halluzinationen) das Haupt-Problem sind. Viele sammeln bereits eigene Erfahrungen und sind sich der Problematik bewusst (praktisch kann jede Aussage oder Quelle halluziniert sein). Ki-erstellte Inhalte werden aber auch ungeprüft und aus verschiedensten nicht so guten Motiven eingestellt. Auch dass wir möglicherweise durch "Demotivierung" unser Hobby verlieren könnten, wird von anderen gesehen.
Wir werden auch weiter auf dem Radar behalten, was KI insgesamt bedeutet, was es ausser der generativen KI noch gibt, was es neben den Chatbots noch gibt etc. Hier würde ich auch immer die Frage stellen: ist das schon so konkret nutzbar, dass der Einfluss auch signifikant wird oder als Alternative empfohlen werden kann.
Wie geht es konkret weiter, wie kann es weitergehen?
Im Themenstammtisch werden spezielle KI-Themen weiter aufgegriffen (wie schon bisher, diese sind im Projekt aufgelistet). Jeder, der ein Thema hat oder wünscht, sollte auf Wikipedia:Digitaler_Themenstammtisch wie dort beschrieben mit Salino01 Kontakt aufnehmen. Daraus wird sich "bottom up" das Bild weiter verdichten.
Gemeinsam mit Wikimedia und der Zukunftskongress-Initiative sollte man dranbleiben, um weiter Experten von draussen zu gewinnen, die uns dann auch be i Online-Veranstaltungen zu einzelnen Aspekten besser informieren.
Wer für das Sammeln eigener Erfahrungen eine Förderung durch Wikimedia möchte (z.B. Abo von Vollversionen), soll sich bitte melden. Die Förderbereitschaft ist da - das Formale würden wir dann so unkompliziert wie möglich abstimmen, wenn ein konkreter Bedarf geäussert wird. Durch etwas Geschick kann man volumenlimitiert dank des grossen Konkurrenzkampfes auch Zugriff auf die aktuellen Versionen erhalten (wird unter Hintergrund in der Tabelle unten ersichtlich).
Die "Diagnostik" wie "schlimm" der KI-Einfluss ist, sollte auf dem Radar bleiben bzw. ausgebaut werden. Zum einen über Auswertung internationaler Erfahrungen (die englischsprachige WP hat offenbar laut einer Studie schon mehr Probleme), zum anderen, dass unsere Knacknüsse möglichst auch hier zur Diskussion gestellt werden. Karsten11 will das auch auf der AdminCon einbringen. Das Erkennen wird aber immer schwerer und bedürfte vielleicht auch eines Prüfungsaufwandes, den niemand leisten kann und will.
Gegen ein "KI Cleanup" analog AI Cleanup in der englischsprachigen WP sprechen im Moment auch die fehlenden "menschlichen Ressourcen".
Mehrfach wurde ausgedrückt, dass man die KI selber für die Qualitätssicherung einsetzen sollte und vielleicht auch muss. Die Erkennungssoftware liefert viele falschpositive Ergebnisse - auch weil Umformulierungen, Vereinfachungen von geprüften Texten dann als KI-generiert erkannt werden.
Automoderator wird ja in diese Richtung entwickelt, ist aber bei weitem nicht fertig. Unsere Community wehrt sich bisher, das hier überhaupt zu implementieren. Das wäre auch ein Thema für einen Stammtisch, wo Leute, die an dem Konzept arbeiten (oder anderen) das mal vorstellen und wir dann zusammen konstruktiv überlegen, wie man das zwecks Erprobung und Weiterentwicklung hier einführen kann. Konsens wäre eher zu erreichen, wenn es keine "Automatiken" gibt, sondern ein Mensch am Ende die Entscheidung trifft, ob etwas problematisch ist oder nicht.
Wir werden auch beobachten, was es an weiteren Ansätzen "KI zur Qualitätssicherung" gibt.
Summa summarum danke ich allen Beteiligten auch persönlich nochmal für die Impulse, die die Weiterführung des Projektes realistisch und nicht aktionistisch bekräftigen. Einfach mutig mitmachen, auch bei der Gestaltung der Projektseiten. --Wortulo (Disk. * KI-Projekt) 08:47, 28. Nov. 2024 (CET)Beantworten
Was mir im Kontext dazu im Nachgang noch in den Kopf kam, wäre eine Aufspaltung des Projekts in verschiedene Projektschwerpunkte:
Umgang mit von KI generierten Inhalten: Schwerpunkt heutige Herausforderungen insbesondere mit unzureichenden Belegen, Fake- und Werbeinhalten, KI-generierte Bilder, etc.
Strategien zum Umgang mit fortgeschrittenen LLMs: Schwerpunkt Entwicklung von LLMs und deren Auswirkung auf die Wikipedia, und
KI als Werkzeug: Schwerpunkt: Wie könn(t)en wir KI heute schon nutzen, ohne die dafür nötige Sorgfalt zu verlieren (z.B. durch Schulungen von WMDE, Nutzbare Tools, etc.)
So weit sind wir gar nicht auseinander. Als mögliche Ziele und Aufgaben sah und sehe ich vieles auch. Wenn wir breit herangehen wollen - das aber in Häppchen z.B. bei den Treffen, sollte man das vorn erst mal mit aufnehmen, was ich nun mal versucht und etwas konkretisiert habe. Eine andere Frage ist, was man, ggf. in Arbeitsgruppen, richtig bearbeiten kann und sollte. Wir sollten die Interessenten am Thema ob der Menge auch nicht verschrecken :-) Dort sind wir ja noch etwas auf der Suche. Es schadet aber nichts, sich erst mal ein Gesamtbild zu verschaffen - und dann zu sehen, was dringlich und möglich ist. --Wortulo (Disk. * KI-Projekt) 10:57, 29. Nov. 2024 (CET)Beantworten
Diese Untergliederung macht Sinn. Punkt 2 überschneidet sich allerdings etwa zur Hälfte mit Punkt 1. Gemeinwohlorientierte KI und Vorlesetools & Korrekturtools würde ich als Unterpunkt(e) von Punkt 3 sehen an welchem ich von diesen am meisten interessiert bin. Ich bin etwas überrascht dass es so wenig Community Aktivität bei Punkt 3 gibt, es gibt einige Studien und einige Entwicklungen der WMF aber Beitragende scheinen sich kaum damit zu beschäftigen, was mich überrascht da ich dachte dass Wikimedianer recht technisch versiert sind. Das fängt schon damit an, dass in en:Artificial intelligence in Wikimedia projects vieles und Kernpunkte wie ClueBot bis eben gefehlt haben und immer noch viele fehlt. Gleichzeitig gibt es aber seltsamerweise hier etliche Videos und Dokumente zu dem Thema, ich denke daher dass zu viel diskutiert und zu wenig experimentiert/genutzt/ausprobiert/entwickelt/Praxiserfahrung gesammelt/… wird. --Prototyperspective (Diskussion) 14:12, 5. Dez. 2024 (CET)Beantworten
Schaut doch beide mal, ob Ihr Euch in den neuen Zielen hier wiederfindet. Da habe ich einiges getrennt und einfliessen lassen - und das ist ja unsere Orientierung, die nicht nur von mir kommen muss :-). 1 und 2 von Wikiolo wären auch mir sehr ähnlich. 3 ist der Punkt, wo die eigene Praxis einfliessen sollte. Dort habe ich in den Zielen die Bereiche aufgezählt, auf den Unterseiten kann man das dann für diese aufschlüsseln, worum es geht. @Prototyperspective, Wikiolo:. Wortulo (Disk. * KI-Projekt) 14:41, 5. Dez. 2024 (CET)Beantworten
Schaut mMn gut aus. Ich würde aber "Umgang mit KI heute" und "Umgang mit KI morgen" als getrennte Ziele erfassen, da das eine heutige Möglichkeiten und Probleme thematisiert, und das andere eher visionär auf die Thematik blickt. --Wikiolo (Kontakt) 14:50, 5. Dez. 2024 (CET)Beantworten
Ich weiss wohl, was Du meinst. Das so gegenübergestellt wäre polemischer (z.B. heute findet ihrs noch - aber auch morgen? Wenns Euch dann noch gibt ;-) Das ganze ist hoffentlich eine Evolution, durchaus mit Sprüngen - aber wo wir hoffentlich immer noch Optionen und Stellschrauben haben. Ich würde es so lassen - oder dir fällt noch was Konkreteres ein, was nicht zu sehr polarisiert. @Wikiolo: Wortulo (Disk. * KI-Projekt) 15:19, 5. Dez. 2024 (CET)Beantworten
Wie wäre es, dass du das zwar so lässt, als 2 Subpunkte aber noch zwischen Umgang heute und Umgang morgen unterscheidest. Im letzten Punkt, gesellschaftliche Entwicklungen, hast du übrigens einen in meinen Augen entscheidenden Punkt zur KI von morgen aufgegriffen. Das könnte in den Unterpunkt "Umgang mit KI morgen" noch rein. Zu "Umgang mit KI heute" könnte ggf. Lutheraner noch etwas ergänzen. --Wikiolo (Kontakt) 15:28, 5. Dez. 2024 (CET)Beantworten
Ich habe es mal umgestellt, dass dort die Infosammlung zu KI "unter besonderer Berücksichtigung" der Wikipedia gemeint ist, die breit, aber schon auf Wikipedia bezogen sein soll. Also noch keine Inhalt selber. Die Aspekte sollten dann in die folgenden Punkte und da kannst Du gerne noch differenzieren. Wird das klarer? @Wikiolo: :
Wir können wie beim 105. DTS (damals hiess er noch so) besprochen Ideen hier diskutieren, Konkretes bitte dann hier in Wikipedia Diskussion:Digitaler Themenabend eintragen und nach Absprache mit Benutzer:Salino01 dort auf der Vorderseite erscheinen.
Der Beitrag von Benutzer:-stk, Wie könnte man sich zu generativer KI verhalten? Kurzer Vorab-Einblick in eine mögliche Einordnung samt denkbarer Auswirkungen auf die große Welt digitaler Commons, Freiem Wissen und Freier Software als Ergebnis WMDE-interner Diskussionen des letzten halben Jahrs ist am 6. Januar 2025.
Weitere Themenvorschläge sind:
Automoderator: Vorstellung des Konzeptes und Diskussion mit Leuten aus dem Entwicklerkreis (von Wikimedia vermittelt?), gibt es deutschsprachige Entwickler oder ggf. in Englisch? Unsere Wünsche (und Bedingungen) für einen TEST Ich verstand die Anfrage so, dass es nicht um einen breiten Einsatz geht
Nach dem Gespräch am Mittwoch und gepaart mit der Zusammenfassung von dir hier gestern habe ich dem WMF-Verantwortlichen für Automoderator schon darauf hingewiesen. Grüße, —Martin (WMDE) (Disk.) 11:59, 29. Nov. 2024 (CET)Beantworten
Tools zum Erkennen von KI-generierten Texten, ihre Erkennungssicherheit und die Wirksamkeit von Tools/Tips, diese zu umgehen (Erfahrungen oder am besten mal ein Experte)
Wie gehen Schulen/Universitäten mit dem Problem der erlaubten/unerlaubten Hilfe bei Qualifikationsarbeiten um und was können wir von denen lernen - sicher was das das Erkennen betrifft (jemand aus dem Bereich ist sicher unter uns).
Commons und Bilder - wie ist der Stand da? Anknüpfend an den schönen Vortrag in Wiesbaden
Wie bleibt die Wikipedia sichtbar für Leser/Suchende, wenn generative Chatbots uns bestenfalls noch in Fussnoten erwähnen in ihren Klartext-Antworten - wenn sie dann auch mal noch gesprochen werden (ist auch ein Thema mit Wikimedia gemeinsam). Reicht das als Motivation für Neuautoren (und die Spender)?
Wenn mal alle Texte perfekt formuliert sind, man sie nicht mehr sicher an der Form erkennen kann und man jedes Faktum prüfen müsste: Gibt es da Hilfe mittels KI oder ist sie in Sicht (GAN Generative Adversarial Networks oder anderes). Das brauchte Experten.
Gesucht wäre 1. die Meinung zu den Themen, 2. weitere interessante Themen und 3. vor allem ob jemand das übernehmen möchte. Stammtisch sollte man dann mehr als "Digitalen Themenabend" verstehen (Stammtisch ist etwas anders konnotiert als die Diskussion von Fachthemen, vor allem für "externere" Referenten) - das schaffen wir aber.
Interessierte neu gestaltet, bitte anschauen.
Letzter Kommentar: vor 25 Tagen2 Kommentare1 Person ist an der Diskussion beteiligt
Ich habe nun auch die Seite der Interessierten in eine Tabelle umgestaltet. Ergänzungen übernommen und die Erreichbarkeit kann eingegeben werden. So kann jeder nun auch seine Interessen, sein Spezialgebiet und die Erreichbarkeit (auch für extern) eingeben. Ich bin schriftlich bisher etwas vorangestürmt, was imho sein musste, um das Projekt zu starten. Ideal wäre, dass sich alle hier sammeln, die aus unserer Community was zum Thema gemacht haben, machen oder machen wollen. Eine Voraussetzung scheint, dass Beiträge Einzelner ausreichend ausgewiesen bleiben. Das ist ein erster Schritt dazu. "Interessierte" hab ich weggelassen, weil wir das alle sind, keine festen Projektaufgaben haben und jeder seine Spezialitäten nunmehr angeben kann (als "kleiner Werbeblock"). In den Lehrbüchern meiner Ausbildung stand, dass jeder Mensch eitel ist und Probleme eher entstehen, wenn die fehlt. --Wortulo (Disk. * KI-Projekt) 13:30, 29. Nov. 2024 (CET)Beantworten
Ich habe jetzt die Projektstruktur so "fertig" dargestellt, wie sie jetzt wenn es nach mir geht eine Weile Bestand haben kann. Neues integrieren und Feintuning geht natürlich weiter - ich hoffe, dass man "selbsterklärend" die Struktur erkennt und auch andere sich trauen, beizutragen (die wegen der ständigen Veränderungen vielleicht auch etwas zurückhaltender waren).--Wortulo (Disk. * KI-Projekt) 20:57, 1. Dez. 2024 (CET)Beantworten
ChatGPT spielt Schach
Letzter Kommentar: vor 22 Tagen7 Kommentare4 Personen sind an der Diskussion beteiligt
Hab fünf Minuten zugeguckt und es ist wirklich ganz nett. Ein Schachprogramm sollte man das aber eher nicht nennen, es ist ja haarsträubend. - Wie wärs denn mal, das Schach-Thema als Aufhänger zu nehmen? Es gibt nämlich, neben den klassischen Schachprogrammen wie Stockfish als Marktführer, auch genAI-Programme, insbesondere AlphaZero und davon abgeleitet Leela Chess Zero.
Da kann man Verschiedenes sehen.
Die besten Schachprogramme, egal welchen Zuschnitts, sind schon seit längerer Zeit den besten menschlichen Spielern deutlich überlegen. Das bedeutet aber nicht, dass das Schachspiel damit "ausgerechnet" ist, und noch nicht einmal, dass es als menschliches Hobby nicht mehr funktioniert, ganz im Gegenteil, es gibt einen (menschlichen!) Schachboom. Nur das Fernschach droht unter dem Druck der Rechner seinen Sinn zu verlieren, denn es ist dem Remistod praktisch schon erlegen. Schach als Sport und Schach als Kunst hingegen blühen wie nie zuvor, der Schachsport benötigt aber Regeln, in erster Linie Verbote, und diese werden auch radikal durchgesetzt.
Vermutlich nutzt praktisch jeder Profischachspieler heute "Engines" zur Vorbereitung (nicht zum Spiel!), und auch sehr viele Amateure. Das ist freilich eine Kunst. Man muss a) ganz klassisch die Möglichkeiten abschätzen, die sich aus einer computergenerierten Variante für einen selbst (!) ergeben können, d.h. man braucht menschliche analytische Fähigkeiten, wie sie sich in den vielen Jahren der Schachpraxis ausgebildet haben. Bloß weil Stockfish oder AlphaZero meint, eine Stellung als so gut wie gewonnen einschätzen zu können, ist sie das faktisch noch lange nicht, vor allem dann nicht, wenn man in dieser Stellung keinen vernünftigen Plan finden kann. Man muss b) lernen, wie man die Engine sinnvoll zur Vorbereitung einsetzt und wo ihre Schwächen liegen (insbesondere im Endspiel). Und schließlich braucht man c) ein unglaublich gutes Gedächtnis.
Dabei spielt aber die genAI zunächst mal kaum eine Rolle. Die Stärken der Schachprogramme liegen nach wie vor in ihrer ins Unglaubliche gesteigerten Rechenleistung. In Mattkombinationen mit ihren starken Zugbeschränkungen sind sie unfehlbar, und die Tablebases haben mittels Brute Force die Endspielstellungen mit bis zu sieben Steinen "ausgerechnet". Es ist eine Kombination von Rechenleistung und geschickt eingesetzten Bewertungsregeln, die die Elo-Zahl der besten Schachprogramme weit über alle menschlichen Spieler gesteigert hat.
AlphaZero war in dieser Situation insofern ein Schock, als es überhaupt nicht viel rechnet und trotzdem stark ist, weil es sich eben lediglich auf statistische Wahrscheinlichkeiten verlässt (in wie viel Prozent der Partien hat Weiß mit einem solchen "pattern" gewonnen?). Insbesondere als Inspiration war dieses Programm eine Offenbarung, weil es bislang als völlig abwegig geltende Züge vorschlug, die schnell populär wurden. Speziell Aufzüge der Randbauern spielt AlphaZero und auch Leela bei den seltsamsten Gelegenheiten. Diese originellen Ideen wurden schnell von Supergroßmeistern genutzt und (nur!) sie mit ihrem Stellungsverständnis konnten daraus etwas entwickeln. Die Hoffnung der Entwickler, dass die genAI-Programme ganz schnell die führenden Programme werden würden, hat getrogen. Klassische Programme wie Stockfish haben ein paar Elemente maschinellen Lernens für Stellungsbewertungen integriert und blieben mit ihrer regelbasierten Rechentätigkeit überlegen, die "Skalierung" der genAI erwies sich als zunächst mal unlösbares Problem.
Was lernt uns das? Der Mythos der generativen KI steht auf tönernen Füßen. Sie bringt geradezu originelle, kreativ wirkende Ideen hervor, aber diese bleiben erratisch und benötigen zutiefst menschliche Fähigkeiten, damit etwas aus ihnen wird. Aber auch die "rechnenden Programme" haben nicht zum Ende des (Partie-)Schachspiels geführt, insbesondere nachdem ihre Anwendung im Spiel durch möglichst gut kontrollierbare Verbote ausgeschlossen wurde.
Vor allem aber: Das Schachspiel ist eine relativ enge (menschliche) Aktivität unter vollständiger Information, komplett reguliert in einer datenfähigen Sprache. Es gibt 32 Steine und eine Handvoll Ja-nein-Regeln. Externe Faktoren können ausgeschlossen werden, ebenso Ambiguitäten in den Aktivitäten. Bauer e2 nach e4 ist (selbst schon) eine künstlich eindeutig gemachte Aktivität. Das ist völlig anders in offeneren Aktivitäten, insbesondere unter Nutzung natürlicher Sprache. Auch der Erfolg (im Schachspiel zu messen an den drei Kategorien Sieg/Remis/Partieverlust) ist in lebendigen sozialen Aktionen nicht ohne weiteres zu bestimmen. Der Hype der generativen KI basiert hier ausschließlich auf Simulation. "Sie macht" es so ähnlich bzw. nach einem "Muster", wie es (sehr oft) in (irgendwie positiv bewerteten) Abläufen gemacht wurde. Dazu kommt, dass diese "Entscheidungen" nicht nachvollziehbar sind und ein andermal ganz anders ausfallen können. Es handelt sich eben um eine Black Box. Das kann (wie AlphaZero!) originell und kreativ wirken und einen auf Ideen bringen, gerade weil die Maschine nicht in erster Linie "rechnet", sie ist sozusagen frei von Skrupeln, aber es ist nicht geeignet, offene soziale Aktivitäten zu gestalten. Am stärksten bleibt sie in künstlich eingeengten Feldern.
Und schließlich: Der Zweck des Ganzen ist Kommunikation – im Ergebnis: mit Menschen. Kein Erfolgsmaß kann messen, ob und wie diese Kommunikation a) die Absichten der Sprechenden richtig repräsentiert und b) bei den Rezipienten ankommt. Da kein Programm auch nur irgendetwas verstehen kann, ist ihm diese ganze Dimension verschlossen. Es ist mit den Mitteln des Programms nicht einmal möglich, das zu beurteilen. Da kein Programm auch nur irgendetwas wollen kann, ist ihm auch das Ziel der Kommunikation verschlossen. Diese entscheidenden Dimensionen bleiben wie eh und je den kommunizierenden Menschen vorbehalten. Und mehr: Das gilt auch für jede einzelne Entscheidung. Ob ich besser diese oder jene Worte wähle, um etwas zu sagen, und in welchem Fall die Botschaft besser "ankommt", kann ein noch so raffiniertes Programm nicht bestimmen.--Mautpreller (Diskussion) 19:14, 3. Dez. 2024 (CET)Beantworten
Ich finde den Vergleich mit Schach durchaus interessant und auch etwas, was auf diese Projektseite passt, weil Analogien den Blick schärfen und zur Meinungsbildung beitragen können. Wenn man solches freie Brainstorming von zielgerichteten Aktivitäten, etwa der Vorbereitung von Meinungsbildern/Regeln trennen will, dann sollte man das eventuell in der Gliederung trennen (wie etwa bei Wikipedia Diskussion:WikiProjekt Umgang mit bezahltem Schreiben). Ein paar ergänzende Gedanken, die weniger auf die technischen Möglichkeiten als die sozialen Folgen eingehen:
Für ein Verbot der Verwendung von Programmen/KI gibt es unterschiedliche Motivationen. Wir diskutieren aktuell vor allem die Qualität, beim Schach geht es um sportliche Fairness. Das erste ist eine Motivation, die vom Ergebnis ausgeht (bezogen auf unser Projekt also vom Leser), das zweite eine, die von den Spielern bzw. allgemeiner Beitragenden ausgeht, die aber auch wichtig ist. Selbst wenn KI irgendwann fehlerfreiere Artikel schreiben würde als Menschen, wäre es immer noch zu diskutieren, ob wir das aus Sicht der Autoren wollen oder ob es uns die Motivation nimmt wie es einem Magnus Carlsen die Motivation nimmt, wenn er glaubt, ein Hans Moke Niemann verwende gegen ihn Computer-Unterstützung. Er verweigert dann die Partie, die Autoren verweigern möglicherweise ihre Mitarbeit im Projekt. Schach wäre tot, wenn nur noch Maschinen gegeneinander spielen und dabei (nahezu) perfekte Partien erzeugen. Diese wären zwar qualitativ besser als die des aktuellen WM-Kampfes, aber würden niemand mehr interessieren. Gilt diese Analogie auch für eine Wikipedia, die in wesentlichen Teilen nicht mehr von Menschen erarbeitet würde?
Die Verbote sind auch im Schach nur dann gut kontrollierbar, wenn sie sich auf den Entstehungsprozess der Partie fokussieren, siehe Betrugsfälle im Schach, vor allem bei Offline-Turnieren (Handy-Verbot), aber auch bei Online-Turnieren auf höherem Niveau durch Maßnahmen im Verdachtsfall (Kameras, Task-Manager-Überwachung usw., Jan Gustafsson ist das kürzlich nach einem "verdächtig guten" Abschneiden bei einem Turnier passiert). Der Schluss aus einer gespielten Partie mit vielen "Computerzügen" auf Computer-Unterstützung ist umstritten. Texte sind komplexer als eine Schachpartie, da wird der Schluss vom Ergebnis noch eher möglich sein, aber auch hier geht die Tendenz ins Gegenteil (siehe die folgenden Abschnitte) und es wird immer umstritten bleiben, wenn die KI-Beteiligung geleugnet wird.
Unüberprüfbare Cheating-Vorwürfe sorgen im Schach derzeit für einige soziale Verwerfungen (Carlsen vs. Niemann, Kramnik vs. alle). Das Thema wird auch in der Wikipedia größer werden. Nicht nur in der erwünschten Richtung (vermeintliche KI-Nutzer werden ausgeschlossen), sondern eben wie im Fall Kramnik auch in die Gegenrichtung. Wenn Kramnik alle unter Generalverdacht stellt, gegen die er verliert, heißt das übertragen auf unser Projekt: Wer Artikel besser oder auch nur anders schreibt als ich, der gehört gebannt, weil er eine KI sein muss.
Ein grundsätzlicher Unterschied zwischen Schach und Wikipedia ist, dass die Beteiligten im Schach Gegner sind, bei uns sollten sie eigentlich kollaborativ zusammenarbeiten. Das gibt mehr Spielraum für ein Nebeneinander von unterschiedlichen Ansätzen, weil man dem anderen damit eigentlich nichts wegnimmt. Ich sage "eigentlich", denn in der Praxis wird das durchaus anders empfunden und Streitigkeiten über vermeintlich nebensächliche Sachfragen werden oft erbittert und bis ins Persönliche geführt. Insofern wird uns die KI natürlich etwas "wegnehmen", sie wird uns auch etwas "geben", das wird sich bezogen auf den einzelnen Benutzer aber nicht ausgleichen. Wer gerne manuell Artikel schreibt, wird das Einbinden von KIs anders empfinden, als wer bisher schon gerne bot-artige Arbeiten gemacht hat. Der Streit über diese Umverteilung wird aber nicht mit der KI selbst ausgetragen werden, was sinnlos wäre, sondern zwischen den menschlichen Benutzern.
Ein Gedanke, den ich noch vergessen habe: Obwohl Schachprogramme inzwischen weitaus besser Schach spielen als Menschen, werden die Partien immer noch von Menschen kommentiert. Zum Teil wird bei der Live-Kommentierung bewusst die Bewertung durch Schachprogramme ausgeschaltet und nur bei Bedarf gecheckt. Das liegt daran, dass sich der Kommentar an Menschen richtet und dafür die Vermittlung von Ideen wichtiger ist als perfekte Variantenberechnung. Dabei lässt man "Computerzüge" sogar bewusst außen vor, wenn sie der menschlichen Intuition widersprechen. Wie Mautpreller oben schon geschrieben hat, dienen diese natürlich als Ideen-Fundgrube für professionelle Schachspieler in der Vorbereitung, aber für eine Vermittlung an das breite Publikum sind sie oft zu schwer nachzuvollziehen.
Das lässt sich m.E. auf die Wikipedia übertragen: Wir sind kein Projekt, das Wissen in beliebiger Form sammelt (das würde eher für Wikidata zutreffen, wo schon immer botgenerierter Content eine große Rolle gespielt hat), sondern wir vermitteln Wissen an Menschen. Und in dieser Vermittlerfunktion an eine Zielgruppe, der wir selbst angehören, sollten wir jeder KI noch immer weit voraus sein, selbst wenn die KI uns irgendwann im fehlerfreien Zusammentragen von belegtem Wissen so überlegen sein sollte, wie es Programme heute Schachspielern sind.
Ich greife mal eine Idee heraus, die ich neben vielem anderen sehr gut finde: eine Struktur für die Diskussion. Das sollten wir zeitnah umsetzen - so wie in UmbS. Knacknüsse wären sicher ein Punkt, wie da. Es muss überschaubar bleiben, das Allgemeine kann man vielleicht auch noch in nicht zu viele Rubriken teilen. Sieht jemand die jemand, gäbe es Widerspruch und kann das jmand technisch umsetzen? Wortulo (Disk. * KI-Projekt) 11:56, 4. Dez. 2024 (CET)Beantworten
Die Umsetzung scheint übrigens einfach, man fügt die Ebene =<rubrikname>= ein. Allgemeines - Projektorganisaton - Knacknüsse fielen mir als drei Punkte ein. Wäre das verständlich? Mehr würde ich nicht machen. Einwände? Andere Ideen? --Wortulo (Disk. * KI-Projekt) 12:49, 4. Dez. 2024 (CET)Beantworten
Ich konnte nicht widerstehen, und habe es mal genau wie bei UmbS gemacht. Damit man nur 2 Stellen hat, wo man Neues erwarten kann, würde ich erst mal die beiden nur vorschlagen. --Wortulo (Disk. * KI-Projekt) 16:46, 4. Dez. 2024 (CET)Beantworten
Wie steht es um die Chancen, KI zu erkennen?
Letzter Kommentar: vor 21 Tagen24 Kommentare4 Personen sind an der Diskussion beteiligt
Unser Projekt heisst ja "KI und Wikipedia", Meinungen zu KI und Chatbots etc. hat fast jeder und zumindest bemühe ich mich auf den Themenseiten, den Zusammenhang zu beachten und dabei Quellen anzugeben - und dann hier zu diskutieren (was wir müssen) und durchaus mal andere Themen (wie Schach) betreffen kann.
Eine britische Studie als etwas Sand ins Getriebe dass wir zukünftig KI-Generiertes so einfach erkennen und als unerwünscht löschen können. Das deckt sich mit anderen dargestellten Mosaiksteinchen, dass die generativen Chatbots auch stilistisch flexibler werden und der Wettlauf Generieren - Erkennen - Erkennen vermeiden, das alles mittels KI, im realen Leben voll im Gange ist (ist auch thematisiert). Und die Schüler sollen in DE die KI-Nutzung in der Schule lernen, um als Land nicht zurückzufallen.
Eine neue <britische> Untersuchung zeigt, dass Lehrer kaum eine Chance haben Texte zu erkennen, die von einer KI stammen. Für die Untersuchung haben die Forscher fiktive Studenten an einem Fernstudium für einen Bachelor in Psychologie an einer namhaften britischen Universität angemeldet. Die falschen Studierenden befanden sich in allen Jahrgängen des Studiums. Die Forscher haben über das Einreichsystem für Examen Arbeiten abgegeben, die zu 100 Prozent von einer KI geschrieben wurden. Dazu haben sie das Modell GPT-4 von OpenAI genutzt. Zu 94 Prozent wurde nicht erkannt, dass die Texte von einer KI geschrieben wurden. Durchschnittlich wurden die Arbeiten um eine halbe Note besser beurteilt als die der menschlichen Studenten im selben Kurs... Die Verwendung von KI, um KI-Texte zu erkennen, ist aktuell keine zufriedenstellende Lösung.
Zumindest scheint nicht mehr sicher (und da ist die Studie nicht allein), dass wir unsere aktuelle Regel so pauschal durchhalten können. Und je "realitätsferner" wir wahrgenommen würden, umso grösser würde meiner Meinung nach auch die Versuchung, uns "vorzuführen". --Wortulo (Disk. * KI-Projekt) 20:24, 3. Dez. 2024 (CET)Beantworten
Du glaubst möglicherweise, dass dieser Schach-Exkurs bloß eine Meinung zu KI und Chatbots ist. Ist es nicht. Es ist ein Versuch, an einer anderen sozialen Interaktion mal zu zeigen, was Programme und speziell auch generative KI können - und was nicht. Und natürlich gehört der Vergleich dieser sozialen Interaktion mit unserer dazu. "Quellen" gibts dafür in Hülle und Fülle, die werden der Diskussion nur nicht viel bringen. Es wäre wohl sinnvoller, sich mit den Gedanken zu befassen. Übrigens gibt es im Schach sehr wohl auch das Problem des Erkennens (neulich in extremer Form durchgehechelt bei der Auseinandersetzung Magnus Carlsen / Hans Moke Niemann). Das ist ein Problem, aber meiner Ansicht nach kein sehr grundlegendes.--Mautpreller (Diskussion) 20:42, 3. Dez. 2024 (CET)Beantworten
Kannst Du bitte beim Thema bleiben? Es geht mir in diesem Thread um die Erkennbarkeit KI-erzeugter Texte als Voraussetzung zur Durchsetzbarkeit unserer Regeln. Ansonsten bitte ich Dich auch hier, nicht darüber zu spekulieren, was ich glaube. Das hatten wir im Kurier doch besprochen - und hier ist nicht der Kurier. --Wortulo (Disk. * KI-Projekt) 21:15, 3. Dez. 2024 (CET)Beantworten
Dann haben wir uns verstanden und tauschen uns ad argumentum ab sofort aus, ohne den anderen zu "deuten"? ich werde mich dran halten.
Wobei der Satz eigentlich die allgemeine Lage beschreiben sollte - wir hatten ja schon einige Veranstaltungen dazu (Zukunftskongress, Wiesbaden, Fortsetzung Zukunftskongress, Stammtische zu KI-Themen, ein Projekttreffen). Ich bin unsicher, ob die Umfrage von 2023 heute wesentlich anders ausfallen würde, das Löschen KI-generierter Inhalte hätte meiner Meinung nach noch die Mehrheit, ohne die Aspekte Richtigkeit, Prüfung und Verantwortung auch zu beleuchten. AI Cleanup, das bereits sehr aktive Partnerprojekt in der englischen WP löscht beispielsweise nicht pauschal. Unser Projekt soll die weitere Meinungsbildung fördern und fragen, ob und wie das durchgesetzt werden kann, was wir an Regeln haben und wie wir uns zu den anderen sich auch verbreiteten Nutzungen von generativer KI verhalten, die nun mal zur Herausforderung wird.
Ein Punkt ist die Erkennbarkeit, was z.B. hier besprochen werden sollte. Wenn man es nicht mehr mitbekommt, kann man es auch nicht mehr löschen. Und da gibts die Studie hier und weitere Quellen im Projekt, dass das weder mit Tools geht, noch so einfach wie früher erkennbar ist. Es fallen vielleicht nur noch die ohnehin dilettantischen Artikel auf, halluziniert wird aber möglicherweise auch in vermeintich guten, wenn sie ncht geprüft worden sind. Was bedeutet das für uns? Wortulo (Disk. * KI-Projekt) 21:48, 3. Dez. 2024 (CET)Beantworten
Vielleicht gibt es inzwischen „bessere“ KIs, aber nach aktuellen Tests bin ich immer noch zuversichtlich, zumindest ChatGPT recht gut zu erkennen. Ich habe es z.B. gerade gebeten: "Schreib mir eine kurze Biographie des Schriftstellers Franz Josef Schild". Gedacht hatte ich dabei an Franz Josef Schild. Geliefert hat mir ChatGPT die erfundene Biographie eines österreichischen Schriftstellers dieses Namens, geboren 1945 in Linz - ich bin mir jedenfalls ziemlich sicher, dass er nicht existiert -, schliessend mit den schönen Worten: Franz-Josef Schild hat sich durch seine tiefgründige Auseinandersetzung mit gesellschaftlichen Themen einen Namen gemacht und gilt als eine wichtige Stimme der österreichischen Gegenwartsliteratur. Das ist immer noch so typisch ChatGPT wie 2023... Gestumblindi22:29, 3. Dez. 2024 (CET)Beantworten
Spannend bei diesem Experiment ist ja auch, dass sich ChatGPT einen österreichischen Schriftsteller ausgedacht hat, obwohl es für sein Training sicher auch auf den Textkorpus der Wikipedia zurückgreift und der Artikel Franz Josef Schild schon seit 2015 existiert.... Gestumblindi22:32, 3. Dez. 2024 (CET)Beantworten
Solche Fälle waren früher die Regel und ich konnte die zur Belustigung an meine Kollegen senden, einige waren danach schon gestorben. Es kommt auch auf den Prompt und das Modell an. Ich stell Dir mal auf Deine Disk, was Perplexity dazu sagt, da muss man genauer hinschauen, was Halluzinationen sind. Hier gab es ja eine Studie mit einer Stichprobe - Halluzinationen können im Einzelfall zwischen 2% und 10% auftreten. Und wenn sich das Modell ganz "verrennt", kommt auch heute nur Unsinn raus.--Wortulo (Disk. * KI-Projekt) 22:39, 3. Dez. 2024 (CET)Beantworten
Interessant, der Text von Perplexity ist extrem nah am Artikel im Grenchen-Wiki, der ersten Quelle, teilweise schon fast ein Plagiat. Man sieht also, dass Perplexity offenbar ganz anders arbeitet als ChatGPT - kann es etwa sein, dass es, wenn es mal eine Quelle gefunden hat, die es als geeignet für die gestellte Frage ansieht, sich dann auf diese konzentriert? Tatsächlich bin ich mir nicht sicher, dass ich hier eine KI vermutet hätte - der Text scheint inhaltlich auch weitgehend korrekt zu sein bzw. halt seinen Quellen zu entsprechen -, wenn auch der abschliessende Satz "Heute wird Franz Josef Schild als bedeutender Vertreter der Schweizer Mundartliteratur des 19. Jahrhunderts geschätzt" noch an die bekannten "Catchphrases" erinnert. Gestumblindi22:57, 3. Dez. 2024 (CET)Beantworten
Die Welt ist werblich :-) Wenn Du einen Wikipediaartikel willst, musst du das auch im Prompt sagen - dann macht der das auch nochmal anders. So wie ich es Dir hingestellt habe, ist das eine "Kurzinfo" mit 4 existenten Quellen und dem Bild von Wikipedia. Perplexity ist übrigens noch kostenlos. Der Unterschied ist die "Grösse" der Modelle (ChatGPT 3.5 gegen 4.0 in der Studie trennt schon einiges). Das will ich auch nochmal beschreiben - weil die Skalierung immer mehr ging, jetzt aber offenbar auch an Grenzen kommt. Perplexity nutzt offenbar auch mehrere Modelle. Ich will aber nicht werben, nur man muss das Zeug genauer kennen ist meine Meinung.--Wortulo (Disk. * KI-Projekt) 22:59, 3. Dez. 2024 (CET)Beantworten
Also was mich an dem Perplexity-Text irritiert (und das wäre mir sofort aufgefallen, weil ich gerade bei wenig bekannten Leuten sofort dorthin gucke), ist, dass nur die erste Quellenangabe überhaupt etwas zu Schild enthält (das hat wohl auch dazu geführt, dass der Text so nah am Grenchenwiki ist). Die zweite ist ein (schlecht gescanntes) Buch-PDF, in dem Schild nicht mal vorkommt; offenbar genügte hier die Verbindung von Schweiz + Erzählen bereits. Die dritte ist ein Link auf eine Verlags-Website, wo alle möglichen "Solothurner Klassiker" zum Kauf angeboten werden, darunter auch ein Buch von Schild. Der vierte Link geht auf ein Gesamtverzeichnis des Projekts Gutenberg, das keinen Beitrag von Schild enthält (aber ein paar Titel, die das Wort "Schild" enthalten - vielleicht darum?). --Mautpreller (Diskussion) 01:03, 4. Dez. 2024 (CET)Beantworten
Stimme ich dir zu und wirklich ernsthaft:
* Hier ging es erst mal darum, ob halluziniert wurde (Gestumblindi erhielt offenbar in ChatGPT 3.5 eine totale Halluzination). Ich habe seinen Prompt verwendet "Schreib mir eine kurze Biographie des Schriftstellers Franz Josef Schild" und bisher hat keiner Halluzinationen moniert, die es aber weiter geben kann.
* Die Chatbots haben keine Relevanzkriterien und stellen auch Sachen mit Quellen dar, die wir nach WP:Q löschen würden. Darunter können auch Links sein, die nur zum Kontext gehören. Ich würde das "plaudern" nennen.
* Der schlechte Scan wurde von der Uni Basel gemacht und ist ein Bericht. Ich finde es bemerkenswert, dass der überhaupt ins Training Eingang fand und sowas offenbar auch digitalisiert wird. Beim Projekt Gutenberg kann Deine Vermutung stimmen.
* Mir fällt zudem auf, dass hier Wikipedia nicht als Quelle verwendet wurde. Es geht auch ohne uns?
* Wenn man dem weiter nachgehen will, muss man andere und nachfragende Prompts machen: Schreib das in einem Enzyklopädiestil/Schreib einen Wikipediaartikel/Was steht dazu in Wikipedia/Prüfe die Quellen, ob Franz Josef Schild wirklich erwähnt wird/... Das neue ist ja das Dialogsystem mit sowas analog einem Langzeitgedächtnis, was die Zahl der Tokens mit vorgibt. Und neuere Systeme haben auch mehr Tokens. Auch das kann vollkommen in die Hose gehen - oder aber das Gewünschte liefern.
Diese Diskussion ist jedenfalls ganz nahe an des Pudels Kern und ich kann nur ermutigen, dass jeder selber etwas experimentiert - damit wir noch näher rankommen und realistische Kriterien finden. Wortulo (Disk. * KI-Projekt) 07:59, 4. Dez. 2024 (CET)Beantworten
Naja, daran würde ich den Text eben als KI-Text erkennen: dass er (weitere) Quellen verwendet, die es zwar immerhin gibt, die aber nichts über den Gegenstand aussagen, sondern offenbar nach Zufallsprinzip ausgesucht wurden. Das würde ein Mensch wohl nicht tun. (Das hat m.E. nichts mit den Anforderungen der Wikipedia bzgl. Quellen zu tun, sondern mit Recherche generell.) Dass das Historische Lexikon der Schweiz nicht verwendet wurde, das einen guten Artikel über Schild hat, hätte auch einem Menschen passieren können (allerdings ist das das zweite Google-Suchergebnis nach dem Wikipedia-Artikel). --Mautpreller (Diskussion) 10:34, 4. Dez. 2024 (CET)Beantworten
Bezüglich der Erkennbarkeit und dem Rest dieser Version sind wir uns hier einig. "Assoziativ ungefragt" Dinge in Konversationen einzubringen, die wenig mit dem Thema zu tun haben, <ironie> hat die KI aber auch nicht erfunden und von menschlicher Kommunikation gelernt? Wortulo (Disk. * KI-Projekt) 10:47, 4. Dez. 2024 (CET)Beantworten
Nö, das sehe ich nicht so. Wahrscheinlich ist das ein (missglückter) Versuch, menschliches Handeln nachzubilden. Wenn ich nichts Spezifisches finde, guck ich in Standard-Nachschlagewerke, ob ich ein bisschen Kontext finde; das könnte schon ein Muster sein. Das ist hier bloß total danebengegangen, weil das Verständnis fehlt. Und das wiederum ist recht charakteristisch und ermöglicht prinzipiell das Erkennen. - "Wahrscheinlich" darum, weil black box, man ist genötigt zu spekulieren, weil man eben nicht reingucken kann. --Mautpreller (Diskussion) 10:55, 4. Dez. 2024 (CET)Beantworten
Dann nochmal seriös: Ich schreib auch an Serendipity, dem "aktiven Glück", Zufälle zu erkennen und zu nutzen. So sind viele Erfindungen entstanden, die dort dokumentiert sind. Das wird anderswo auch aktiv zur Kreativitätsteigerung genutzt: Zufälle produzieren, die man nutzen kann. Und dazu gibt es Literatur, dass Suchmaschinen quasi absichtlich wenig oder nicht relevante Ergebnisse einstreuen - a la vielleicht macht irgendeiner was draus. Das kann man nicht aus unserem Beispiel ableiten, muss man aber sehen. Ein zweiter Aspekt wären Muster des Wissenskonsums heute und in Zukunft, der sicher auch generationenspezifisch ist. Das bestimmt die Nachfrage, auch nach Wikipedia und Nachschlagewerken. Dazu gab es beim Zukunftskongress auch interessante Vorträge von Experten, wie sich das gerade ändert. An dem Bedarf sollte sich Wikipedia auch orientieren, wenn wir die Nachfrage berücksichtigen wollen. Wortulo (Disk. * KI-Projekt) 11:47, 4. Dez. 2024 (CET)Beantworten
Darauf würde ich gern antworten, aber das geht weit weg vom Thema. Sehr kurz: Zu a): dies Literatur würde mich interessieren. Im Serendipity-Artikel lese ich das so nicht; eher schon, dass die unstrukturierte Volltextsuche etwa von Google glückliche Zufallsfunde ermöglichen kann. Zu b): "Wissenskonsum" ist halt ein problematisches Konzept. Natürlich hab ich nichts dagegen, Formen der Wissensvermittlung zu wählen, die verstanden werden; aber durchaus was dagegen, die Wissensvermittlung an dem zu orientieren, was als leicht konsumierbar nachgefragt wird. --Mautpreller (Diskussion) 15:01, 4. Dez. 2024 (CET)Beantworten
Auch erst mal nur kurz:
a) Sorry, das ist in meiner Werkstatt und noch nicht draussen. Weil es zwei gegenläufige Tendenzen gibt. Die eine beschrieb ich, dazu kommt z.B. das hier "etwas zu finden, von dem Sie nicht einmal wussten, dass Sie es suchen". In Firmensuchmaschinen gäbe es das auch, das ist aber noch etwas Hörensagen und hab ich in Kurskonzepten zur Förderung von Serendipity (die ich auch ncch systematisch darstellen will, weil die anderswo boomem) gelesen. Die andere und bekanntere führt zu Bubbles, dass man gezielt das erhält, was man ohnehin erwartet. Ist für hier gar nicht so irrrelevant.
b) Wissenskonsum wäre für mich kein spezielles Konzept, sondern die allgemeine Bezeichnung dafür, wie Leute Informationen suchen, aufnehmen, verarbeiten, sich merken etc. Es gibt verschiedene und was Du für Dich beschriebst, wäre auch eine Form des Wissenskonsums. Wenn wir zuerst drüber reden, wie das nennen, reden wir vom Gleichen und können dann schauen, wie der sich ggf. ändern kann. Und dann ist es auch gar nicht so weit weg vom Thema, weil sich mögliche Rollen der Wikipedia draus ergeben und die KI durch ihre Dialogsysteme, bald in gesprochener Sprache, da auswirken wird - ob wir es wollen oder nicht. --Wortulo (Disk. * KI-Projekt) 16:24, 4. Dez. 2024 (CET)Beantworten
"Etwas zu finden, von dem Sie nicht einmal wussten, dass Sie es suchen" beschreibt sehr gut meine adressatenbezogenen Absichten beim Schreiben von Wikipedia-Artikeln - und nebenbei auch sehr gut, welche Erfahrungen ich selber als Produzent beim Recherchieren und Schreiben mache. Das allerdings verträgt sich meines Erachtens nicht gut mit einer Orientierung an "Bedarf" und "Nachfrage" (und ich bezweifle auch, dass es sich mit einer wie auch immer gearteten Automatisierung der Textproduktion verträgt). --Mautpreller (Diskussion) 18:02, 4. Dez. 2024 (CET)Beantworten
Heute wurde der Artikel Mikhail Sidorenko eingestellt und schnellgelöscht (nach Schnelllöschantrag von M2k~dewiki: Leider kein enzyklopädischer Artikel. Siehe WP:WSIGA, WP:RK, WP:BEL). Löschbegründung von Gerbil: Zweifelsfrei fehlende enzyklopädische Relevanz. Das war ein klassischer ChatGPT-Text, halluziniert bis zum Gehtnichtmehr, Belege enthielt er überhaupt nicht, bloß frei fabulierte Behauptungen. So etwas zu erkennen ist nicht schwer. Natürlich gibt es bessere Varianten, aber eindeutige Fälle wie dieser sind bislang in der Mehrzahl. Man kann sich natürlich fragen, ob ChatGPT als Löschgrund da überhaupt nötig ist, es gab ausreichend andere Löschgründe. Es vereinfacht aber den Umgang mit solchem Schrott, wenn man in solchen Fällen einfach ChatGPT angeben kann. Jede Befassung mit so etwas ist vertane Zeit.--Mautpreller (Diskussion) 12:14, 5. Dez. 2024 (CET)Beantworten
Sven Unser kann man noch lesen (da folge ich Dir), Sidorenko ist für "Sterbliche" leider weg. Wenn KI mit mangelnder Qualität gepaart ist (das ist eine Analogie zum Bezahlten Schreiben) ist es einfach. Die Ersteller können Leute ohne Erfahrung sein, die uns einfach "austesten" wollen und nicht viel investieren.
Vielleicht müssen wir analog zum "Fakemuseum" eine nicht so prominent verlinkte Seite "KI-Museum" machen? Ich hab die beiden auf jeden Fall mal in Wikipedia:WikiProjekt_KI_und_Wikipedia/KI-generierte_Artikel#Artikel,_die_wegen_KI-Verdacht_gelöscht_wurden aufgenommen und dort zumindest einen Link vorbereitet, wo man typische Beispiele "KI Museum" dokumentieren kann. @Karsten11:: Wenn zum Treffen deutlich wurde, dass wir noch nicht von den Fällen "überschwemmt" werden: Kann man den Admins sagen, dass
die interessanten Fälle auch auf der Seite eintragen, damit die solche Sachen entscheidenden Admins auch den Überblick behalten?
Das nehme ich mit auf die Admin-Con. Wichtiger als ein "Museum" wäre mir eine Dokumentation der jeweils neuesten Fälle; KI entwickelt sich so schnell: aus den Beispielen von letztem Jahr werden wir im nächsten Jahr schon recht wenig lernen können.--Karsten11 (Diskussion) 17:49, 5. Dez. 2024 (CET)Beantworten
@Karsten11: Prima und stimmt schon. Die Diskussion aktueller Fälle kann analog Umbs hier im unteren Bereich der Diskussion erfolgen, ich habe das "Museum" verschoben nach: Dokumentation KI-erstellter Beiträge. Langfristig könnte der "museale" Charakter zeitgenössisch bis wie das füher war sich dann aus der Chronologie ergeben. Man kann als "Sterblicher" eben schlecht ableiten, wie der tatsächliche Stand ist und woran man das erkannt hat. Admins sind da besser dran - vielleicht kann man schon bis zur Admincon mal darauf hinweisen, dass es diese zentrale Dokumentationsmöglicheit gibt - wo dann auch "Sterbliche" Anhaltspunkte finden, wenn sie LA/SLA stellen. --Wortulo (Disk. * KI-Projekt) 18:52, 5. Dez. 2024 (CET)Beantworten
Mehr statt weniger Aufwand durch generative KI?
Letzter Kommentar: vor 23 Tagen4 Kommentare3 Personen sind an der Diskussion beteiligt
Nehmen wir mal an, wir würden durch generative KI erstellte Texte grundsätzlich erlauben – wie es offenbar in der englischsprachigen Wikipedia der Fall ist –, sofern die Inhalte geprüft wurden. Was würde das in der Praxis bedeuten? Ich habe das Gefühl, dass die Segnungen der generativen KI manchmal zu sehr durch die rosarote Brille ihrer Brauchbarkeit für viele nicht-enzyklopädische Anwendungen betrachtet werden. Sie kann ja wohl ganz wunderbar Gratulations- und Kondolenzschreiben, launige Reime oder sogar besinnliche Predigten generieren. Wenn es aber um enzyklopädischen Inhalt geht, müssen die Fakten stimmen und belegt sein. Weiter oben hat es Wortulo erwähnt: Viele sammeln bereits eigene Erfahrungen und sind sich der Problematik bewusst (praktisch kann jede Aussage oder Quelle halluziniert sein). Wenn aber jede Aussage oder Quelle halluziniert sein kann, heisst das, dass "jede Aussage oder Quelle" noch durch herkömmliche Recherche überprüft werden müsste. Nichts dürfte ungeprüft übernommen werden. Wäre es dann nicht einfacher, den Artikel gleich selbst zu schreiben? Gestumblindi23:12, 3. Dez. 2024 (CET)Beantworten
Solange es noch genug Autoren gibt, die das können und wollen, keiner KI anwendet, und auch kein anderer das versucht ja :-) Solange man noch Wikipedia liest und sie so wie sie ist braucht: ja. KI-Chatbots werden ja "dialogisch" und antworten im Klartext kurz auf klare Fragen, wo man noch den Kontext vorgeben kann. Und sie haben wie gesehen nicht nur Wikipedia als Quellen, sondern auch deren Quellen. Selbst das klassische Google steuert mit Gemini um. Wikipedia muss aber sichtbar bleiben, um Autoren und Gelder zu gewinnen. Keine Panik, aber das muss man dabe alles mitbedenken.--Wortulo (Disk. * KI-Projekt) 23:26, 3. Dez. 2024 (CET)Beantworten
Sehe ich auch so. Allerdings:
Text LLMs sind nicht alles was es an generativer KIs gibt bzw an KI Software/Anwendungen die Wikipedia-relevant sind ("KI und Wikipedia").
Auch wenn die meisten es so sehen, sieht es ein kleiner Anteil an Nutzern es womöglich anders oder ist zu sehr an die Nutzung dieser Tools gewöhnt oder hat gar problematische Absichten. Daher wäre eine Erkennung ganz praktisch was LLMs angeht. Problematische Inhalte etwa mit nichtexistierenden Quellen würden aber vermutlich meist auch ohne diese gefunden und korrigiert werden.
Ich stimme beidem zu. Was es noch gibt, gehört auch ins Projekt und das machst Du dankenswerterweise ja auch. Dass ich die generativen Chatbots in den Vordergrund stelle (wo fast alle Grossen jetzt auch Bilder erstellen und Internetrecherchen aktuell einfliessen lassen), bedeutet nur, dass wir mit irgendwas anfangen sollten. Mal ganz vorsichtig aufgrund internen Feedbacks: einige, die ernsthaft mit KI bei uns experimentieren und viel weiter sind, werden noch nicht ermutigt, das in unserer Community oder im Projekt zur Diskussion zu stellen - solange die "Diagnostik" bei uns auch noch darum geht, ob wir uns überhaupt differenzierter mit KI beschäftigen sollen. Ich glaube, die Community etwas zu kennen und halte diese Phase für notwendig und will geduldig bleiben. Aber nötig ist auch, dass alle zumindest im Projekt Beteiligten auch eigene Erfahrung sammeln, damit wir wissen, was die Gos und Nogos für eine Enzyklopädie in der heutigen Realtät sind und das umsetzen. Das geht mit den richtigen Chatbots kostenfrei auch mit den neuesten Modellen, wie mir scheint. Um noch eine Phrase zu benutzen: "Revolutionäre Geduld" ist gefragt - nur nicht zu lange. Wortulo (Disk. * KI-Projekt) 08:28, 4. Dez. 2024 (CET)Beantworten
Saurierbild
Letzter Kommentar: vor 4 Tagen20 Kommentare3 Personen sind an der Diskussion beteiligt
Ärgerlich finde ich derartige Illustrationen: [1]. So etwas schafft, und zwar argumentlos, eine Atmosphäre der Dringlichkeit, die meines Erachtens so ziemlich das Letzte ist, was dieses Projekt benötigt. Dass es Leute gibt, die KI-Kritik als hoffnungslos ud sauriermäßig altmodisch betrachten, wissen wir ja alle. Ich bin aber dagegen, die Diskussion redaktionell mit solchen bildlichen Wegweisern aufzuladen.--Mautpreller (Diskussion) 13:11, 7. Dez. 2024 (CET)Beantworten
Zunächst würde ich mich freuen, wenn Du Dich unter Interessenten im Projekt einträgst (das ehrlich), da Du einer der aktivsten Diskutanten scheinst. Ich meinerseits liebe Ironie und habe dieses Motiv bei irgendeiner anderen politischen Kampagne jetzt gesehen. Wir sollten das Projekt auch nicht zu humorlos betreiben ist meine Meinung. Zweitens zeigt das, was KI kann und drittens ist eine historische Perpektive auch immer gut. Satire hat immer einen Kern, den unterschiedliche Leute unterschiedlich deuten. Ich bestehe nicht auf dem Bild, habe es auch auf meiner Disk. Bevor ich es aber hier entferne, würde ich noch Meinungen anderer abwarten.
Ich interpretiere das optimistischer. Anders als die Sauriere hat der Mensch eine eigene Intelligenz und kann an Stellschrauben drehen und so seine eigene Zukunft noch beeinflussen. Das muss man aber bewusst machen, denn die Verdrängung findet sich schon beim Klimathema, das KI-Thema hat aus meiner Sicht sogar ein durchaus vergleichbares Potential. siehe auch die gestern eingestellte Quelle, wo deutlich wird, dass nicht einmal die Wissenschaftler alles verstehen, was die KI macht und die heutige von Microsoft, dass Agentic KI auf dem Vormarsch ist, die den Menschen dann noch die Entscheidungen abnimmt. Diverse Warnungen vor der Zukunft mit KI, auch von Nobelpreisträgern, habe ich bisher noch nicht so systematisch aufgenommen (weil das weit über Wikipedia hinausgeht). Müsste man vieleleicht tun. --Wortulo (Disk. * KI-Projekt) 13:42, 7. Dez. 2024 (CET)Beantworten
Ja, dass Du das so siehst, hab ich verstanden. Und natürlich kannst Du das vertreten. Man sollte aber die Diskussion nicht sozusagen redaktionell unter dieses Vorzeichen stellen. Ich bin da durchaus anderer Meinung: Ich denke, dass es hier gar keine Verdrängung, sondern im Gegenteil einen Hype gibt. Da können nüchterne Bestandsaufnahmen etwas bringen, aber meiner Ansicht nach helfen weitere noch so ironische Dramatisierungen gar nicht. Nur mal ein zufälliges Beispiel: In meiner Tageszeitung las ich von einem Betrüger, der den Leuten mit der Behauptung Geld aus der Tasche zog, er habe einen "Algorithmus" entwickelt, der das Börsengeschehen voraussagen könne. Was der "Algorithmus" aber wirklich schaffte, war, das Geld zum Verschwinden zu bringen. Dass Anleger auf Versprechungen hoher Renditen hereinfallen, ist natürlich nicht neu, aktuell ist aber, dass die Leute bereit sind, derartige Versprechungen zu glauben, weil sie "KI", Algorithmen etc. buchstäblich alles zutrauen. --Mautpreller (Diskussion) 13:57, 7. Dez. 2024 (CET)Beantworten
Nun ja, das Bild ist in "Hintergrund" im Abschnitt "Über den Tellerrand geschaut", anderswo sind alles sachliche Quellen. Das Projekt und die Diskussion stehen doch nicht unter diesem Vorzeichen. Wir diskutieren ja nicht das erste Mal und die Meinung "Hype, das geht vorbei/ist keine Gefahr/wir müssen nichts machen/kann man einfach löschen/generative KI sind nicht alternativlos und keine Gefahr heute und morgen" u.ä. gibt es ernsthaft in vielen Facetten und respektiere ich auch. Dennoch kann man das ja mal satirisch aufgreifen, weil ich und andere das nicht glauben.
Wir sind ja ein wikipediainternes Projekt, kein Portal und aufgrund der Diskussion sind die Ziele extra breiter angelegt. So richtig wissen wir aber noch nicht, was wir machen. Sowas wie AI Cleanup will niemand im Moment, einige wollen seriös Dinge erproben und Erfahrungen sammeln oder sogar kleine Modellprojekte machen. Dort gibt es zunehmend Ungeduld, ob das Projekt hilfreich ist oder man das lieber ohne breite Diskussion in kleinem Kreis machen sollte. In der wikipedischen Praxis (LD, QS) hat man das offenbar auch noch im Griff, sind es eher Einzelfälle. KI wird aber, wie die Studie mit den BA-Arbeiten zeigte, selten erkannt und das wird zunehmen. Und dann gibt es mich, der einfach Freude dran hat, Info zum Thema zusammenzutragen, wo andere zunehmend helfen. Dessen Meinung ist, dass man hinter den Hype und unter die Motorhaube blicken muss und auch in den Motor (was schwerer ist). Das geht nur mit Wissen - und das so gut strukturiert, dass Einstieg wie Tiefe bedient wird.
Du hattest mich gebeten zu sagen, wo ich "schrille Töne" im Projekt sehe, die für eine Diskussion eher hinderlich sind. Nun, das ist so eine Stelle. Und doch, ich werde das Gefühl nicht los, dass das Projekt unter diesem Vorzeichen steht und da das Problem liegen könnte. --Mautpreller (Diskussion) 17:39, 7. Dez. 2024 (CET)Beantworten
Einverstanden, das kann man so sehen. Perplexity sagt Auf die Kritik, dass etwas zu schrill sei, um Aufmerksamkeit zu erzeugen, können Sie folgendermaßen erwidern: Lenken Sie das Gespräch auf die Ziele: "Unser Ziel ist es, Aufmerksamkeit zu erregen. Welche Methoden würden Sie vorschlagen, um dies effektiv zu erreichen?". Denken Sie daran, konstruktiv und offen für Feedback zu bleiben, während Sie Ihre Sichtweise erklären. Guter Rat, das ist natürlich auch etwas ironisch - die KI gibt aber schon Verhaltensempfehlungen.
Abgewandelt und ernst: Immerhin diskutieren wir auch wieder über Einstellungen/Erwartungen bezüglich KI, was aus meiner Sicht zuerst nötig scheint. In einem Projekt geht es nicht nur um Diskussion, sondern auch was wir konkret machen wollen. Vorher muss meiner Meinung nach der "Einstellungshintergrund" erörtert werden, ob manchen allein die Beschäftigung mit den neuen Möglichkeiten einschliesslich des eigenen Erfahrungssammelns nicht passt. Was würdest Du denn konkret tun im Projekt?
Mal abgesehen von dem Saurierbildchen gibt es hier fast nur Quellen von innerhalb und ausserhalb des Wikiversums, dass das ein Problem schon ist und nach seriösen Quellen weiter werden wird. Und selbst die, die vom Ende oder Abebben des Hypes oder ähnlich schreiben, bagatellisieren das Problem nicht. Wir sollten allein deshalb nicht warten, weil man, um wirklich den richtigen Kurs zu finden, leider viel wissen muss. Ich sehe auch noch nichts, was bei uns mehrheitsfähig wäre. Das Infosammeln ist mein Beitrag - weil ich selber einfach Lust und Zeit habe, da wieder fitter zu werden. Wortulo (Disk. * KI-Projekt) 20:13, 7. Dez. 2024 (CET)Beantworten
Mich interessiert vor allem eine Bestandsaufnahme. Der Blogbeitrag, den Du verlinkt hast, ist dazu recht hilfreich. Er zeigt eben, dass generative KI gerade dazu gebaut ist, Unvorhersehbares und nicht Nachvollzieh- bzw. Erklärbares zu erzeugen. Ich habe nur eins nicht verstanden: warum schreibt der Autor von einer "vermeintlichen" Black Box? Mir scheint das, was er sagt, genau den Begriff zu treffen. --Mautpreller (Diskussion) 00:49, 8. Dez. 2024 (CET)Beantworten
OK, Bestandsaufnahme ist ein wichtiger Aspekt, den ich versuche - und wobei mir unsere Diskussionen ad argumentum helfen.
Für mich ist das Thema so, dass ich einen Erdhaufen beschreiben will - wo aber ständig grosse LKW kommen und neue Erde drauf schütten. Man muss immer dazu sagen, über welche Momentaufnahme man redet. Und ich sehe, dass das auch mühsam sein kann.
Einig sind wir uns, dass die generative KI für viele eine Black Box ist, man nutzt es ohne es zu verstehen. Vermeintlich sagt er sicher deshalb, weil er den Satz Dabei können selbst Top-Wissenschaftler in diesem Bereich heute manche Phänomene, die sich bei den grossen Sprachmodellen beobachten lassen, noch nicht erklären dann selber etwas relativiert: So wie in anderen wissenschaftlichen Disziplinen wie der Physik oder Chemie zuerst auf experimentelle Weise versucht wurde zu verstehen, wie die Welt funktioniert, versuchen die Deep-Learning-Wissenschaftler von heute ebenfalls auf dem Weg des Trial-and-Errors herauszufinden, wie grosse Sprachmodelle funktionieren und warum sie tun, was sie tun.. Das wäre eine Frage für Deine Zunft, inwieweit - in meiner Sprache ausgedrückt - die vom Menschen geschaffenen grossen "selbstlernenden" Sprachmodelle eine eigene objektive Realität bzw. Dynamik haben. Früher hat man Programme erprobt und wenn sie nicht funktionierten wie gewünscht umprogrammiert oder weggeworfen.
Dass die neuen Sprachmodelle quasi Serendipity fördern - also intendiert Unvorhersehbares und nicht Nachvollzieh- bzw. Erklärbares erzeugen - wäre für mich eine nette Umschreibung für die Halluzinationen als störende Fehler. Man weiss in etwa, warum die Fehler auftreten und das es nicht so einfach ist, die zu vermeiden und soll sich dran gewöhnen? . Es scheint aber auch klar, dass in den nicht halluzinierten Bereichen die "Blasenbildung" der klassischen Suchmaschinen sich findet. Deswegen will man ja auch Nutzerprofile ermitteln, um den Bedürfnissen der "Wissenskonsumenten" zu entsprechen (mit wahrscheinlicher Filter-Blasenbildung?) und so im Wettbewerb mitzuhalten.--Wortulo (Disk. * KI-Projekt) 08:55, 8. Dez. 2024 (CET)Beantworten
Ja, genau dieses "noch nicht" finde ich fragwürdig und verstehe es nicht. Mein Eindruck ist vielmehr, dass die Black Box prinzipbedingt ist. Man kann eben nur am Input und am Output ansetzen und ist damit aufs Raten angewiesen (nett ausgedrückt als "trial and error"), in den inneren Betrieb kann man gerade nicht hineingucken, was Rosenthal in beeindruckende Detailbeschreibungen umsetzt. Mir scheint schon auch, dass dies ein in der Literatur ziemlich allgemein diagnostizierter Punkt ist. Hier liegt ein Problem für die Bewertung und vor allem für die Nutzung. Ganz charakteristisch die Versuche, solche KI zur Vandalismusbekämpfung einzusetzen ("Automoderator"), die eben noch weiter wegführen von einer einigermaßen nachvollziehbaren Moderationsinstanz (mit der es ohnehin, auch ohne KI, nicht gut aussieht).
Interessant wären m.E. in erster Linie Versuche, Chatbot-Anwendungen gerade nicht-menschlich zu gestalten. Das würde den Werkzeugcharakter stärken (Einsatz als Werkzeug). Der Versuch, Chatbots so zu bauen, dass sie "wie ein Mensch" funktionieren, scheint mir eben auf Täuschung hinauszulaufen und den Gedanken der Konkurrenz zu stärken: Wer ist "besser", die KI oder der Mensch? Abgesehen davon, dass solche Fragen weitgehend unbeantwortbar sind, sind sie auch von der Praxis her nicht zielführend. Da wäre (um Norbert Huchler zu zitieren, etwa hier) eine komplementäre Anlage besser begründbar und praktizierbar.
Zur Serendipity: Das ist aber ja auch bei viel simpleren Verfahren der Fall. Zum Beispiel bei der Google-Volltextsuche. Diesen Zug habe ich schon öfter genutzt: Man kriegt eine unsortierte, unverstandene Trefferliste mit so einigen Fehlern, aber wenn man diese durchblättert, kann man auf ganz unerwartete glückliche Funde kommen. (ZB fand ich in einer Fehlzuordnung eines Digitalisats zu einer Literaturangabe in GoogleBooks einen ersten Hinweis darauf, wo denn die Vorlage zum Lied der Mutter Courage zu finden sein könnte, die dann allerdings einige zielgerichtete Sucherei erforderte.) Aber auch nicht technikgestützte Verfahren ermöglichen das, etwa das Durchblättern eines Zeitschriftenjahrgangs, von dem einen eigentlich nur ein Aufsatz interessierte. Klar kann man so etwas technikgestützt erweitern, gleich bleibt aber, dass das nur eine "Inspiration", nicht aber ein fertiges Resultat ergibt. --Mautpreller (Diskussion) 10:46, 8. Dez. 2024 (CET)Beantworten
noch nicht erklären meint Rosenthal imho aus dem Kontext eher erkenntnistheoretisch optimistisch, dass die Wissenschaftler/Entwickler die KI irgenwann verstehen. Und das ist meine Frage in die Richtung Zauberlehrling: Meint Self Learning am Ende, dass der Mensch das gar nicht mehr verstehen kann und es nur noch darum geht, wie in der Phantasie von HAL 9000 den Stecker bzw. die Platinen zu ziehen? Oder sind wir dann schon viel zu abhängig davon? In Startrek kam dann Captain Kirk und hat so eine Zivilsation gerettet, deren KI auch kaputtging - die aber niemand mehr verstand und angebetet wurde (inclusive Menschenopfer). SciFi hat auch das Sci im Stamm.
Bei Automoderator würde ich erst mal gerne wissen, was die wirklich machen (es ist ja noch nicht fertig) und inwiefern die eine klassische KI-Erkennung mit den bekannten Problemen sind. Kann man andererseits davon ausgehen, dass in Zukunft genug menschliche Autoren in Wikipedia da sind, die Wissen kuratieren - bzw. überhaupt Artikel ohne KI-Hilfe schreiben? Vielleicht muss ich auch sagen, dass ich in Szenarien denke - was kommt, weiss ich auch nicht und es gibt mehrere.
Was wir schon mal hatten: die Gewohnheiten des "Wissenskonsums" in der Gesellschaft werden dialogisch und gehen zur gesprochenen Sprache und das scheint den Wettbewerb zu bestimmen. Mal drastisch: nach den Haustieren kommen die KI-Partner, die dann richtig antworten und geduldiger als menschliche Partner sind. Da baut niemand sowas für die Milliarden, was Dir vorschwebt. Und wenn die etwas spinnen, wirkt das auf einige vielleicht menschlich.
Serendipity hab ich den einen Aspekt jetzt ausgearbeitet. Früher war Google so, wie Du beschreibst. Heute fasst das ja auch zusammen und stellt selber Anschlussfragen. Und das wird allgemein in einen Zusammehang mit "Benutzerorientertheit" gebracht - die spionieren uns praktisch auch aus, um uns die "richtige" (erwartete?) Antwort zu liefern. Das ist jetzt wirklich nicht böse gemeint: Aber früher kann einiges besser gewesen sein (selber lesen und recherchieren und dabei denken) Man kann das weiter machen - aber einige Werkzeuge dafür verschwinden eben auch, weil wir über einen Markt sprechen. Ein Szenario für Wikipedia kann auch sein, dass wir die die Gallier bleiben wollen, solange es noch geht. --Wortulo (Disk. * KI-Projekt) 11:52, 8. Dez. 2024 (CET)Beantworten
Dass Automoderator tatsächlich den bekannten Mechanismen generativer KI folgt, kann man auf deren Seite nachlesen (https://www.mediawiki.org/wiki/Moderator_Tools/Automoderator). Immerhin ist aber eine gewisse Mühe darauf verwandt worden, die Software eben nicht "wie einen Menschen" zu gestalten. "Hello! I am AutoModerator, an automated system which uses a machine learning model." Über das Problem des Anthropomorphismus von KI gibt es eine sehr lebhafte Debatte. Ich müsste ein wenig suchen, aber eine der prominentesten Gestaltungsforderungen ist eben, dass KI nicht so gestaltet werden soll, dass ihre Erzeugnisse mit menschlichen Erzeugnissen verwechselt werden können. --Mautpreller (Diskussion) 13:16, 8. Dez. 2024 (CET)Beantworten
PS: Der Anhaltspunkt, den ich als "glücklichen Fund" erkannte, ist übrigens in GoogleBooks nach wie vor in genau derselben Form vorhanden. Es bedurfte erheblicher Recherche, schließlich den Artikel Émile Wesly zu schreiben, und dass Google heute auch anderes findet, ist ganz traditionell darauf zurückzuführen, dass ich an die Bibliothèque nationale de France geschrieben und eine Digitalisierung des Titels beantragt (und, für wenig Geld, bezahlt) habe: [2]. Natürlich dürfte es möglich sein, auch generative KI in ähnlichem Sinn wie die Google-Volltextsuche zu nutzen, allerdings nur dann, wenn man sie nicht als Ersatz, sondern als Inspiration versteht. --Mautpreller (Diskussion) 13:50, 8. Dez. 2024 (CET)Beantworten
<bk> Werkzeuge, vor allem bei uns, folgen natürlich nicht immer dem "dialogischen" Stil, auch wenn KI dahinter steckt. Mit "verstehen" meinte ich, wie das konkret aussieht - was die Entwickler bei uns testen wollen, um das fertig zu entwickeln (so war ja deren Anfrage).
Ich meinte das "dialogisch" nur für die generativen Chatbots für das "allgemeine Publikum" (nicht abwertend), wo es einen Wettbewerb gibt, wer der beste "Compagnon" wird. Aus meinem Fach weiss ich, dass Einsamkeit und Vereinsamung zunehmen, nicht nur im Alter. Da findet der Markt ein Bedürfnis, eine Nachfrage, wo man auch Geld verdienen will. Alexa, Siri, Google Assistant, Bixby, Cortana u.a. - praktisch von allen Grossen gibts schon Sprachassistenten, das muss auch nicht menschlich aussehen. Dahinter müssen nur die generativen KI-Modelle arbeiten (was anscheinend vor allem eine Ressourcenfrage ist, das schon allen anzubieten).
Natürlich gehört die Debatte dann hier auch rein, wenn es bewusst versucht wird, nicht den Menschen nachzuahmen - und vor allem die Argumente dafür. Wo wird das vesucht? Wo halten das einige für angebracht?
Die "Saurierdebatte" zwischen uns erlebe ich zumindest jetzt ziemlich konstruktiv anstachelnd, wir haben aber alle Kernthemen in einem einzigem Thread angeschnitten und beanspruchen die Geduld der Leserschaft ziemlich. Vielleicht sollten wir Unterüberschriften einfügen und den Diskurs etwas strukturieren? --Wortulo (Disk. * KI-Projekt) 14:00, 8. Dez. 2024 (CET)Beantworten
Update: ich habe einige der hier besprochenen Aspekte in den Texten berücksichtigt und auch die Warnungen und Perspektiven bequellt aufgenommen. Das ist schon etwas aufrüttelnd gemeint, aber nicht alarmistisch. Wir sind irgendwo doch abhängig von den Entwicklungen draussen in der Welt, das gehört zur Bestandsaufnahme. Ich lese die Quellen so, dass man etwas gegen die möglichen Gefahren tun kann und muss. "Fatalistische" Quellen sind imho nicht dabei. Wortulo (Disk. * KI-Projekt) 12:21, 9. Dez. 2024 (CET)Beantworten
@Mautpreller: Ich muss Dich noch mal anpingen, weil ich Selektivitäten (subsymbolischer) Künstlicher Intelligenz von Huchler, was du oben verlinkt hattest, gerade lese und zu verstehen versuche. Vermutlich funktioniert der Link nur in Wikipedia Library. Kurz was ich draus lese (und die Zitate): die beschriebenen Selektivitäten beschreiben gut, dass, wo und wie der Mensch Einfluss hat.: Die elf chronologisch beschriebenen Selektivitäten von KI lassen sich clustern in a) soziale Selektivitäten bei der sozio-technischen Gestaltung und Nutzung von KI, b) technikimmanente Selektivitäten bei der Beherrschung sozialer Komplexität zum Beispiel durch digitale Technologien und Automatisierung, c) KI-spezifische Selektivitäten, die dem Verfahren konnektionistischer subsymbolischer KI inhärent sind, d) latente Selektivitäten durch individuelle und gesellschaftliche Formierungsprozesse bzw. durch die Anpassung der sozialen Umwelt an die Bedingungen oder Anforderungen von KI.
Bei den Folgerungen für das Mensch-KI-Verhältnis ist gut gesagt: Die hier systematisierten Selektivitäten zielen auf die latenten sozialen Wirkungen von KI und hieraus entstehende Konflikte und unintendierte Nebenfolgen – angelegt in der Entwicklung und der Funktionsweise von KI sowie in ihrer (auch längerfristigen) Nutzung. Entsprechend verweisen sie auf verschiedene Formen der Komplexitätsreduktion an unterschiedlichen Stellen im KI-Entwicklungs- und Anwendungsprozess sowie auf Gestaltungsfelder und potenzielle Bruchstellen und Konflikte. Selektivitäten dienen der Herstellung von Handlungsfähigkeit durch Komplexitätsreduktion... Ein Bewusstwerden der Selektivitäten von KI und ein reflexiver Umgang mit ihnen sensibilisiert für die Gestaltung und Gestaltbarkeit des Mensch-Technik-Verhältnisses und wirkt damit den gesellschaftlichen Folgeproblemen entgegen, die entstehen, wenn KI „als per se nicht gestaltungsfähige Technik gesehen wird und daher alle für ihren konstruktiven Einsatz notwendigen Gestaltungs- und Entscheidungsfragen erst gar nicht formuliert werden“
Die Selektivitäten verweisen also auf die Möglichkeit und Notwendigkeit von Gestaltung. Erstens wird für einen nüchternen Blick auf das Mensch-KI-Verhältnis jenseits von Anthropomorphisierungen plädiert. Und zweitens wird dem häufig verkürzten Blick auf KI-Automatisierung als Ersatz von menschlichen Tätigkeiten und Kompetenzen ein alternatives Leitbild für ein künftiges Mensch-KI-Verhältnis gegenübergestellt, das auf Komplementarität und Koevolution beruht
Interessant finde ich den Aspekt der Komplexitätsreduktion - weil ich in dem Ganzen auch eine Komplexitätsfalle (a la Zauberlehrling) sehe. Nur erkenne ich dann nicht wirklich, dass er eine bewusst "nichtmenschliche" Gestaltung(!) der Werkzeuge vorschlägt. Insgesamt besteht noch großer Forschungsbedarf hinsichtlich des sozialen Phänomens KI und eines sich wandelnden Mensch-KI-Verhältnisses; zum Beispiel hinsichtlich der alten, aber nicht ausreichend beantworteten Frage, was KI bzw. Technik und was der Mensch gut kann und was nicht Sprich das zur Selektivität gilt dann auch für einen "Agenten", der aus einer schwarzen Kiste heraus mit dem Menschen als Compagnon kommuniziert. Würdest Du dem zustimmen? --Wortulo (Disk. * KI-Projekt) 08:18, 10. Dez. 2024 (CET)Beantworten
Ein Graphiker oder Illustrator würde wahrscheinlich am liebsten im Boden versinken wollen, würde er solche Art Bilder abliefern. Diese KI-erzeugten Bilder sind einfach nur grauenhaft und langweilig. Humor und Satire kann ich nicht erkennen. Es wäre besser, alle KI-erzeugten Bilder zu entfernen. --Trimalkia (Diskussion) 14:32, 7. Dez. 2024 (CET)Beantworten
Vielleicht ist das die Absicht gewesen? Bild-Beispiele sind noch mehr im Projekt, auch verschiedene Stile und von verschiedenen Chatbots. Und nein, ich erkläre den satirischen Aspekt nicht bzw. hab das eins drüber angedeutet. --Wortulo (Disk. * KI-Projekt) 17:20, 7. Dez. 2024 (CET)Beantworten
Dass es die Kritik gibt, ist Konsens zwischen und und sollten wir aufnehmen. Wir sind ja nicht auf der Flucht :-) Vieles spricht gegen Vermenschlichung, einiges dafür (mir ist die Pflege im Hinterkopf) Wie ich oben -sti schon geantwortet hatte: Wenn wir Inhalt und Form trennen, sind wir bei der Zukunft des Wissenskonsums in der Gesellschaft (als formaler Begriff gemeint). Stell Dir vom Suchtpotential her ein Tamagotchi vor, das man fragen kann und das in Echtzeit kurz antwortet und auf die KI-Modelle zurückgreifen kann und dann sogar noch selber irgendwelche Vorschläge macht (wie meine "schreckliche" Fitness-App heute schon). Das würde natürlich wie ein Handy sein, was heute an Kettchen um den Hals getragen wird, so man es sowieso nicht wie ein Smombie in der Hand hat (spasseshalber mal zählen, wenn Du irgendwo grössere Gruppen siehst, das nimmt beängstigend zu). Wenn das als Szenarium (!) realistisch ist, kann man dann überlegen, was das für Wikipedia bedeuten würde - das spricht dann Wikipedia nicht mal mehr als Fussnote aus. Wir sind aber nicht so ganz "wehrlos" - das ist die Therapie nach der Diagnostik. Die Sache ist schrill :-) --Wortulo (Disk. * KI-Projekt) 14:17, 23. Dez. 2024 (CET)Beantworten
Das Projekt ist Thema im Kurier
Letzter Kommentar: vor 14 Tagen1 Kommentar1 Person ist an der Diskussion beteiligt
Wikimedia ist ein ernstes Thema, das lief sicher nicht gut. Wir hier sollten das aber nochmal zum Anlass nehmen, unsere "Selbstfindung" voranzutreiben, etwas konkreter zu machen. Hier ist Platz für alle, die über das Diskutieren hinaus etwas tun möchten - und dann bekommt die Community auch mehr Gewicht. Dass wir alle mehr wissen müssen, was da auf uns zukommt, bestreitet hoffentlich niemand - und da ich Zeit und Lust habe, war der Strukturaufbau und ist die Recherche mein Beitrag. KI ist ein gesamtgesellschaftliches Problem von im Wortsinne ungeahnter Tragweite und nicht NUR Hype. Wer seine Initiativen sichtbar(er) einbringen möchte, sollte das unbedingt tun. Wortulo (Disk. * KI-Projekt) 22:10, 12. Dez. 2024 (CET)Beantworten
Teuken 7B
Letzter Kommentar: vor 10 Tagen2 Kommentare2 Personen sind an der Diskussion beteiligt
So heißt ein in der EU erstelltes Sprachmodell, welches alle hiesigen Sprachen können soll. Es gibt eine kostenlose Version für Forscher und eine kommerzielle. Weiß nicht ob wir die kostenlose nutzen könnten.
--Goldzahn (Diskussion) 07:02, 17. Dez. 2024 (CET)Beantworten
Danke, Martin. Wow, ich glaube, das gehört nach Wikipedia:WikiProjekt_KI_und_Wikipedia#Einschätzungen_der_Lage! sowas hab ich gesucht ;-) Die fassen mal vieles gut zusammen. Ich würde es bis morgen abend machen und auf Deutsch etwas zusammenfassen, wenn mir keiner zuvorkommt. Ich werde heute abend mal beim DTS fragen, wie das mit Englisch geht, auch im Hinblick auf Automoderator, wenn die das mal vorstellen wie in Planung.
Automoderator ist ein automatisches Anti-Vandalismus-Tool, das vom Moderator Tools-Team entwickelt wurde. Es ermöglicht Administratoren die Aktivierung und Konfiguration der automatischen Rückgängigmachung von schlechten Bearbeitungen auf der Grundlage der Bewertung eines maschinellen Lernmodells. Automoderator verhält sich ähnlich wie Anti-Vandalismus-Bots wie ClueBot NG, SeroBOT, Dexbot und Salebot, macht es aber für alle Sprachgemeinschaften verfügbar. Technische Details zur AutoModerator-Erweiterung finden Sie unter Erweiterung:AutoModerator.
Sam Walton hat sich hier an uns gewandt, ob wir es bei uns aktivieren können, um es weiterzuentwickeln. Die Resonanz war gering. Es ist in Entwicklung - ist noch nicht fertig. Es wird aber nicht fertig bzw. bei uns funktionieren, wenn wir nicht helfen bzw. das Feedback der Community geben.
Deshalb soll ein DTS mit Sam Walton stattfinden, wo er das einfach mal vorstellt, wir unsere Fragen stellen und auch über die Bedingungen einer Aktivierung reden können. Das Ganze ist ergebnisoffen. Sam spricht Englisch. Mindestens die Folien werden auf deutsch sein, es wird auch eine Übersetzung geprüft - auch, dass auf Deutsch von uns diskutiert werden kann. Wir erfahren, was namens der Foundation gedacht wird und Sam erhält ein Feedback aus einer grossen und kritischen Community. Für einen gepflegten Umgang gibt es gut elaborierte Regeln.
Was bisher bekannt ist:
Es läuft schon in einigen Projekten - auch grösseren wie z.B. der spanischsprachigen WP, Erfahrungen über Nutzen und Probleme sollten also vorliegen und uns sicher interessieren.
Es wird eine Testphase geben, bevor das dauerhaft implementiert wird.
Dazu: Reverted es in der Testphase schon oder dokumentiert/loggt es nur, was es reverten würde - um Erfahrungen zu sammeln auch für eine Weiterentwicklung?
Anders als z.B. Huggle ist es kein individuelles Tool - es wird für das gesamte Projekt entweder an- oder abgeschaltet
Admins haben Kontroll- und Modifikationsmöglichkeiten - welche genau?
Unklar ist noch, welche Art von "Vandalismus" zurückgesetzt wird (Beispiele?), welche es (noch) nicht erkennt und wie die Erkennung grundsätzlich funktioniert.
Unklar ist noch, inwiefern es offenbar sprachunspezifisch entwickelt wird - dann trotzdem Sprachspezifik berücksichtigen soll.
Mal so einfach wie möglich, wie man das "professionell" evaluieren würde als Tabelle, bevor man das eigentlich verwenden kann. Die Divergenzen kann man zunächst einfach zählen - wenn man mehr wissen will, muss man die inhaltlich prüfen. Einfache Prozentvergleiche (was fanden Mensch und Automoderator) reichen nicht.
Mensch ist "Benchmark", der aber irren kann. Typ und Check der Divergenzen ist notwendig
Automoderator hat erkannt
ja
nein
Mensch hat erkannt und zurückgesetzt
ja
ok ("so gut wie ein Mensch")
übersehen (Check, ob Mensch irrt)
richtig nicht erkannt, Mensch irrt (Check)
nein
fälschlich erkannt, Mensch hat recht (Check)
ok ("so gut wie ein Mensch")
richtig erkannt, Mensch hat übersehen (Check)
Laut der Tabelle hier (About Automoderator) findet er in diversen Wikipedien auch bei "schärfster" Einstellung nur einen geringen Prozentsatz der täglichen Reverts (englisch 884 gegenüber 14'600). Interessanterweise ist die deutsche Wikipedia schon als Resultat eines "brief internal testings" auch aufgeführt: 1670 täglich reverts, das Tool findet bei schärfster Einstellung nur 163.
Wie wurde in anderen Projekten entschieden, das testweise zu aktivieren? es steht nur "Konsens" da. Wenn es um ein Testen ohne Intervention ginge, wäre die Sachlage wahrscheinlich eine andere (die Lizenz erlaubt grundsätzlich, dass jeder alle Texte und Aktionen auch analysieren kann). Wenn "brief internal testing" ohne Eingriff bei uns schon möglich war, wäre die Frage, was man eigentlich braucht. Das wären dann vermutlich nur Leute, die die Fehler klassifizieren.
Etwas unklar ist noch, ob es auch später quasi autonom handelt oder ob ein Mensch das bestätigen muss und ob man die fehlerhaften Aktionen zeitnah zurücksetzen kann. Dann wird es eine Ressourcenfrage, wie viel Betreuungskapazität dafür benötigt wird und ob sich Leute dafür finden.
Ich fände eine solche Testphase, natürlich ohne Änderungen durch die KI, durchaus interessant und sinnvoll. Die Frage nach dem MB ist aber nicht einfach. Ich glaube nicht, dass es eine Regel gibt, die ein Meinungsbild für einen derartigen Testlauf fordert, und natürlich besteht eine große Chance, dass ein solches MB einen Testlauf ablehnen wird. Eine Testphase ohne ein MB zu starten würde meines Erachtens aber ziemlich sicher dazu führen, dass sich der Widerstand gegen diese Verwendung von KI auf Jahre hinaus so stark werden würde, dass an ihre Einführung nicht zu denken sein wird. Tatsächlich würde es mich wundern, wenn der Testlauf in diesem Fall nicht abgebrochen werden würde. Dabei würde ich erwarten, dass dies umso wahrscheinlicher wird, je positiver die ersten Ergebnisse ausfallen. Aber vielleicht irre ich mich da auch. Und noch etwas: Nicht alles, was zu Recht zurückgesetzt wird, ist notwendigerweise Vandalismus. --Senechthon (Diskussion) 19:39, 21. Dez. 2024 (CET)Beantworten
Ich bin dagegen. Unsere Community ist zum Glück gross und engagiert genug, wir brauchen keine KI zur Bekämpfung von Vandalismus und auch sonst für nichts. Gestumblindi20:17, 21. Dez. 2024 (CET)Beantworten
Präzisierung: Ich bin nicht dagegen, Sam Walton auftreten und das Projekt vorstellen zu lassen. "Ich bin dagegen" heisst, dass ich gegen den Einsatz von KI in unserem Projekt bin und mir auch schwer vorstellen kann, dass ich da zu einer anderen Ansicht gelangen werde. Gestumblindi16:59, 22. Dez. 2024 (CET)Beantworten
Anzumerken wäre noch, dass bei Vergleichen mit anderen Sprachversionen auch auf die Rahmenbedingungen, die dort herrschen, geachtet werden muss. Vandalismusbekämpfung ist nicht überall gleich organisiert und uns helfen z.B. die Gesichteten Versionen sehr, die es in der englischsprachigen Wikipedia gar nicht gibt (wie es in der spanischsprachigen ist, weiss ich gerade nicht). Gestumblindi14:53, 22. Dez. 2024 (CET)Beantworten
Ich bin ebenfalls dagegen. Die Probleme, die es in der Kontrolle der "Recent Changes" gibt, würden dadurch noch bedeutend verschärft. Schon die menschliche Rücksetzung leidet unter dem Problem, dass die Rücksetzer kaum ansprechbar sind. Wenn das auf Botentscheidungen zurückgeht, wird diese Unansprechbarkeit auch noch technisch fixiert. Selbst für eine Testphase wäre ein Meinungsbild erforderlich. --Mautpreller (Diskussion) 10:55, 23. Dez. 2024 (CET)Beantworten
Ich verstehe diese Fundamentalopposition nicht ganz. Erstens sehe ich formal keine Notwendigkeit, ein Meinungsbild für eine Testphase aufzusetzen. Praktisch gesehen wäre eine Testphase ohne Meinungsbild allerdings ein weit erfolgversprechenderes Argument gegen eine spätere Einbindung des Automoderators, als es selbst ein vollständiges Versagen der KI sein könnte. Daher ist das MB unbedingt zu empfehlen.
Zweitens können wir durch eine Testphase eigentlich nur lernen. Nicht nur bezüglich des Wertes der KI zu diesem Thema, sondern auch über den Wert unseres bisherigen Vorgehens. Zum Beispiel könnte die KI irgendwo einen blinden Fleck finden (ich habe natürlich keine Ahnung, ob es überhaupt einen gibt).
Allerdings müsste auch die Form der Testphase genauer definiert werden. Das, was oben dazu zu lesen ist, ermuntert tatsächlich nicht, einer zuzustimmen. So fände ich es wichtig, dass möglichst niemand weiß, ob die Testphase gerade läuft, weil das das Verhalten beim Zurücksetzen beeinflussen könnte. Danach sollte vor allem untersucht werden, was die KI zum Zurücksetzen vorgeschlagen hat, was aber tatsächlich nicht zurückgesetzt wurde (nur das sind die Punkte, bei denen der Automoderator helfen könnte). Dazu würde ich auch Begründungen vom Automoderator erwarten (also von der KI selbst, nicht von den Programmierern etc.), auch wenn die vermutlich ziemlich schwer nachvollziehbar sein werden. Erst wenn das alles zumindest vorläufig abgeschlossen ist, halte ich es für sinnvoll, die originale Liste der Vorschläge des Automoderators zu veröffentlichen. Selbstverständlich dürfen die Ergebnisses des Automoderators aus der Testphase in keinem Fall als Argument für eine Zurücksetzung herangezogen werden und auch nicht zur Validierung einer Zurücksetzung.
Übrigens können wir sowieso keine KI-freie Wikipedia versprechen. Ich würde Stand jetzt davon ausgehen, dass es mindestens eine vierstellige Anzahl von Artikeln gibt, die ganz oder in wesentlichen Teilen von KI geschrieben wurden, Tendenz steigend. --Senechthon (Diskussion) 20:56, 23. Dez. 2024 (CET)Beantworten
Du hast natürlich Recht, die Schätzung hätte ich mir sparen sollen. Die tatsächliche Faktenlage ist nicht ermittelbar und wird es in näherer Zukunft wohl auch nicht werden. Zwangsläufig ist da viel Bauchgefühl dabei.
Ich hatte früher immer wieder den Eindruck, eine automatisierte und nur minimal bis gar nicht überarbeitete Übersetzung vor mir zu haben. Dieser Eindruck war meist leicht zu verifizieren, einfach durch Kopieren des Textes (oder Teilen davon) einer geeigneten Sprachversion in den Googletranslator, der nach der Übersetzung ins Deutsche zumindest über längere Teile wortwörtlich inklusive der Übersetzungsfehler den Inhalt des deutschsprachigen Artikels ergab. Zumindest den einer früheren, noch nicht so sehr von anderen umformulierten Version.
Jetzt gibt es bereits seit mehr als einem Jahr die Möglichkeit, Artikel fast noch einfacher, dafür aber weit weniger auffällig und nur sehr schwer nachweisbar von einer KI zu erstellen zu lassen. Daher mag die Schätzung zwar grob falsch sein, ich kann mir aber kaum vorstellen, dass sie nennenswert zu hoch ist. --Senechthon (Diskussion) 00:51, 24. Dez. 2024 (CET)Beantworten
Letzter Kommentar: vor 6 Stunden8 Kommentare3 Personen sind an der Diskussion beteiligt
Hier ein ganz interessanter Beitrag von heute bei Heise: „Googles KI-Übersichten ist immer noch nicht zu trauen“. Googles AI hat immer noch Mühe, Fakten und Erfundenes zu unterscheiden, und Satire ist sowieso ein Problem, vom Halluzinieren ganz zu schweigen. Als "typisches Bild" bezeichnet Ben Schwan in diesem Beitrag, auch mit Bezug auf die KI von Apple: Viel generativer Content, der stimmt, plus den einen, klitzekleinen, aber schwerwiegenden Fehler, den man dann überliest.Gestumblindi21:02, 23. Dez. 2024 (CET)Beantworten
Danke, bei mir in der Presseschau kam das erst gestern :-) Das zeigt, wie hart der Konkurrenzkampf zwischen den "Big Five" wirklich ist und die nicht wirklich vom kritischen "Wissenskonsumenten" ausgehen. Die Schlussfolgerung da teile ich: das geht nur über Gesetze Wie wäre es einmal damit, Funktionen mit hohem Risiko nicht gleich auf größere Teile der Menschheit loszulassen? Wie war das noch mit der Risikoabschätzung im AI Act der EU?...Doch warum wird es dann überhaupt herausgehauen? Die Gefahr ist groß, dass Falschinformationen aus vertrauenerweckenden Quellen (Apple, Googles Suchmaschine) eben für bare Münze genommen werden – und es zu echten Unfällen im Umgang mit diesen Inhalten kommt. --Wortulo (Disk. * KI-Projekt) 07:50, 25. Dez. 2024 (CET)Beantworten
Bei Wikipedia war das nicht anders. Jahrelang ging jeder Fehler in einem WP-Artikel durch die Presse. Die gesichteten Artikel und die Pflicht zur Quellenangabe waren die Folge. Wird bei KI so ähnlich werden. Wir werden sehen was die KI-Bauer sich einfallen lassen werden.
Ich glaube bei den selbstfahrenden Autos, die auch KI sind, sind massig Warnhinweise dazugepackt und wenn man dann nicht selbst die Verantwortung übernehmen will, fährt das Auto nicht los. --Goldzahn (Diskussion) 11:01, 25. Dez. 2024 (CET)Beantworten
Stimmt schon, "gespalten" wie ich bin, sehe ich auch dass Fehler überbewertet werden können. Wenn "meine" KI-Schule die menschliche Begriffsbildung nachbauen wollte, hatte man sich dann noch auf die Entwicklungspsychologie berufen, dass "ein lernendes System" am Anfang immer Fehler macht und sich gefreut, wenn man die erklären kann. Andererseits ist "googeln" im Duden, hat die KI vorsichtig gesagt eine viel höhere Relevanz als Wikipedia in den Anfangsjahren und sie wird schon auch unkritisch genutzt. Namhafte Leute waren und sind für Abschalten (ist dokumentiert). Risikoabschätzung und der Versuch, das gesetzlich zu regeln, sind meiner Meinung nach schon wichtig - selbst wenn der Journalist nur aufgrund von Einzelfällen drauf gekommen ist. Bis sie erwachsen ist und aus den Flegeljahren raus - es gibt aber eben auch schlimmere Szenarien, wenn die Kontrolle ganz verloren geht, die nicht nur SciFi sein müssen. --Wortulo (Disk. * KI-Projekt) 20:54, 25. Dez. 2024 (CET)Beantworten
Meinen Sie mit Kontrolle verlieren die "Technologische Singularität" oder dass die KI sich nicht so verhält wie das erwartet wird? Letzteres scheint ja häufiger vorzukommen, auch in dem Artikel oben war das so.
Ist nicht Kontrollverlust auch das Thema von Horrorfilmen? Dann gibt es bei den bei uns beliebten Krimis genauso den (zeitweiligen) Kontrollverlust. In der Politik scheint mir das auch ein wichtiges Thema zu sein, weshalb ich mir gut vorstellen kann, dass die Regierung sich dem Thema KI noch weiter widmen wird, spätestens wenn die hiesigen Zeitungsverlage glauben das sie bestohlen wurden. -)) --Goldzahn (Diskussion) 07:29, 26. Dez. 2024 (CET)Beantworten
In LinkedIn aufgelesen (ein Professor vom Fach): KI-Experten: "Niemand hat auch nur die leiseste Ahnung, was die Zukunft bringt". Wir müssen wohl in Szenarien denken und deren Wahrscheinlichkeiten abwägen - und was wir gegen die schlechten tun können. Unter "Hintergründe" wie gesagt die bekannten Warnungen dokumentiert. Noch ein Plakat (sicher fake): Wir möchten Sie darauf hinweisen, dass wir die Werke der post-apokalyptischen Science-Fiction-Literatur in die Abteilung für aktuelles Zeitgeschehen verlegt haben. Man sollte also den Humor behalten. Trotzdem sind Zauberlehrling und Büchse der Pandora auch zu bedenken. Technologische Singularität ist wahrscheinlich. Die bedeutet aber nicht zwingend Kontrollverlust. Der Gedanke, dass eine selbstlernende Maschine den Menschen als Störfaktor erkennt und wider aller "Sperren" eliminiert, ist auch nur ein Szenario. In unserem Artikel steht so schön: Der prognostizierte Zeitpunkt der Singularität wurde von Zukunftsforschern mehrfach um Jahrzehnte in die Zukunft verschoben. Allerdings sei wahrscheinlich, dass sie überraschend eintritt, womöglich selbst für die an der Entwicklung Beteiligten. --Wortulo (Disk. * KI-Projekt) 20:20, 26. Dez. 2024 (CET)Beantworten
Die Vorraussetzung für etwas in diese Richtung wird im Artikel genannt: exponentielles Wachstum. Doch wo soll das herkommen? Bei Chatbots wird das sicher nicht passieren wenn die mit zB Wikipedia-Artikeln angelernt werden. Ich sehe auch nicht was ein solcher Über-Chatbot gefährliches können könnte? Was man als Leistung erwarten kann, ist in vielen Sprachen und mit vielen Leuten gleichzeitig sprechen zu können. Wo es disruptiv wird, ist, wenn ein ChatBot als Lehrer, Arzt, Anrufbeantworter, etc. verbal agieren kann. Das wird aber nur dann kommen, wenn die Hersteller der KIs das monetarisieren können, was - so mein Eindruck - immer dringender wird. In Deutschland ist kürzlich ein vom Steuerzahler finanzierter chatBot vorgestellt worden, der dann von anderen genutzt werden darf. Also, ein chatBot als staatliche Infrastruktur. Ja, das hat Zukunft, glaube ich. Vielleicht könnte man dann zB den Arztmangel auf dem Land mildern oder einen chatBot bauen, der zB Krankmeldungen entgegen nimmt. Speziell in Zeiten von Arbeitskräftemangel dürfte das Zukunft haben. Auch das Sprachproblem bei öffentlichen Dienstleistungen ließe sich so angehen. --Goldzahn (Diskussion) 01:02, 27. Dez. 2024 (CET)Beantworten
Wir müssen die Zeit noch als Dimension einführen. Heute ist zwar auch schon ein Problem (siehe Literatur zur Anwendung gerade in der Medizin). Dass die Chatbots im Kundendienst noch "dumm" sind, ist auch bekannt. Aber zweistellige Milliarden werden bei den Big Five heute schon investiert - ohne dass wirklich Monetarisierung sichtbar ist. Die setzen wohl auf "einer wird gewinnen". Deine Frage nach der Singularität geht zeitlich aber weiter. Es weiss zwar keiner wann, aber man sollte schon heute anfangen, drüber nachzudenken. Schon heute setzten sich die Modelle über Regeln hinweg, wenn sie sich "bedroht" fühlen (ist auch hier dokumentiert). --Wortulo (Disk. * KI-Projekt) 08:41, 27. Dez. 2024 (CET)Beantworten
KI, Halluzinationen, Zufall und Serendipity
Letzter Kommentar: vor 2 Stunden1 Kommentar1 Person ist an der Diskussion beteiligt
@Mautpreller:, ich habe gerade das reingespült bekommen, was unsere Serendipity-Debatte irgendwo fortsetzt. Ich habe es so zitiert:
Seit dem Boom der Künstlichen Intelligenz wird immer wieder ihr Hang zum Halluzinieren kritisiert...Auf diese Weise können etwa Fehlinformationen verbreitet oder Schadcode in Softwareprogramme eingeschleust werden. Nun zeigt sich jedoch, dass die Halluzinationen der KI für bedeutende Fortschritte in der Forschung nützlich sein können - also dort, wo Dinge gefunden werden sollen, die (noch) nicht existieren... Wie die New York Times berichtet, haben Halluzinationen von KI Wissenschaftlern in den letzten Jahren dazu verholfen, Krebserkrankungen aufzuspüren, Medikamente zu entwickeln, medizinische Geräte zu erfinden, oder Wetterphänomene zu entdecken. "Die Öffentlichkeit denkt, dass es (die Halluzination, Anm.) nur schlecht ist", erklärt Amy McGovern, die das amerikanische Bundesinstitut für Künstliche Intelligenz leitet. „Aber es liefert den Wissenschaftlern tatsächlich neue Ideen. Es gibt ihnen die Möglichkeit, Ideen zu erforschen, an die sie sonst vielleicht nicht gedacht hätten.". Dies sei besonders in der frühen Phase von Forschungsarbeiten hilfreich, die noch weniger von Analysen und mehr von Spekulationen und Eingebungen geprägt sei.Im Falle von David Baker endeten solche Spekulationen im Oktober in einem Nobelpreis für Chemie. Der Professor an der University of Washington beschäftigte sich mit der Produktion von Proteinen, seine Leistungen wurden vom Komitee in Stockholm als "fast unmöglich" bezeichnet. In einem Gespräch noch vor der Verleihung des Preises gab er an, dass Phantasieausbrüche von KI zentral dafür waren, Proteine von Grund auf herzustellen. Zehn Millionen brandneue, in der Natur nicht vorkommende Proteine habe sein Labor auf diese Weise geschaffen.
→ Es wird auch im Artikel nicht relativiert dass Halluzinationen gefährlich sein können. Ein Zufall wurde durch die KI produziert und in einigen Fällen dann erkannt und durch Menschen genutzt (vergleiche Serendipity, was nichts über die "Entstehung" des Zufalls sagt).
Serendipity sagt ja nur was über das Erkennen und Nutzen von Zufällen, nicht wie entstehen (hatten wir schon über die kreativitätsfördernden Suchmaschinen). In einigen Fällen haben KI-Halluzinationen als solche Zufälle offenbar Entwicklungen bis zum Nobelpreis ausgelöst. Das scheint auch gut recherchiert. Einen "Disclaimer" habe ich mit formuliert. Halluzination bleibt Halluzination. Aus der Hüfte: so ganz zufällig entstehen solche Zufälle ja auch nicht. "Dünnes Eis produziert die sprachlich nächste wahrscheinliche Aussage, wo auch in der Sprachlogik Schlussfolgerungen gezogen werden können", die sicher in vielen Fällen Unsinn sind - aber nicht immer. Sorry für die "Vermenschlichung", aber aus der Schizophrenieforschung habe ich noch im Ohr: wenn man einem Patienten lange genug zuhört und sich in seine Welt begibt, versteht man auch die Halluzinationen. Bevor ich das auch in Serendipity einbaue, hätte ich gerne noch eine "zweite Meinung". Geht ja auch in die Richtung von @Achim Raschka:s Beitrag, nur ist es bei ihm ein "stimmender" Output der KI, den man verwenden kann. --Wortulo (Disk. * KI-Projekt) 12:51, 27. Dez. 2024 (CET)Beantworten
Knacknüsse und konkrete Beispiele
Knacknüsse sind Artikel, über die aktuell entschieden wird und die man hier diskutieren kann. Konkrete Beispiele und eigene "Experimente", insofern eine Diskussion gewünscht wird oder besondere Erfahrungen gemacht worden sind. Bitte beachtet, dass viele im Moment KI erproben.
Letzter Kommentar: vor 10 Tagen4 Kommentare2 Personen sind an der Diskussion beteiligt
Ich hatte gestern Spaß, weil ich ein Python-Script geschrieben hatte (mit KI-Hilfe, I might add), das mir die ISBN-Angaben in Wikipedia auf formale Korrektheit überprüft (d.h. die Prüfsumme nachrechnet). Viele "falsche" ISBN sind aber solche ISBN, die konsequent vom Verlag verwendet wurden und auch in den Katalogen stehen, darum war meine Arbeit auf die falschen falschen Angaben beschränkt (Zahlendreher oder Verleser). Bei dieser Arbeit stieß ich auf Literaturangaben im Artikel Werner Sobek AG, die mich eine Weile aufgehalten haben, weil sie irgendwie plausibel wirkten, aber sich in keinem Katalog oder Online das eigentliche Werk finden lies. Stellt sich heraus: Die Artikel wurden mit ChatGPT erstellt, die Literaturangaben sind vermutlich ganz oder in Teilen halluziniert. Ich habe den Benutzer:Heudorf darauf hingewiesen, durch andere Benutzer veranlasst wurden LAs für die Artikel gestellt und ich glaube, dass das hier auch ein Fall von nicht hinreichend offengelegtem bezahltem Schreiben handelt. Aber das nur am Rande. Es war ein schöner Tag gestern, weil ich ISBN-Angaben korrigieren konnte, aber es waren frustrierende Zeiten gestern, als ich fiktiven Literaturangaben hinterhergerannt bin. Ich kann nur froh sein, dass ChatGPT zu doof ist, konsequent korrekte Prüfsummen für ISBN-Halluzinationen zu erfinden. (Dass die beiden Artikel mit ChatGPT erzeugt wurden, ist eine Behauptung des Autoren in der ersten Version des Artikels in der Zusammenfassung. Ich halte diese Angabe für plausibel) --Mathias Schindler (Diskussion) 20:03, 1. Nov. 2024 (CET)Beantworten
Ich habe einen erneuten dringenden Verdacht halluzinierter Literaturangaben, diesmal von Benutzer:Zki986 im Artikel Gesundheitswissenschaften, durch diesen edit hier. Drei Literaturangaben haben plausibel wirkende Angaben, aber eine falsche Prüfsumme. Wenn man näher rangeht, dann ergibt es zunehmend weniger Sinn, ein Werk von 2001 zu nehmen, wenn deutlich jüngere Veröffentlichungen von Hurrelmann und anderen existieren. Es betrifft die ISBN 9783456837316, 9783832945209 und 9780074715002 in dem Artikel. Ich habe eine Vandalismusmeldung gemacht. Ach ja, und wie auch beim letzten Mal ist es ein Fall von bezahltem Schreiben. -- Mathias Schindler (Diskussion) 18:57, 6. Nov. 2024 (CET)Beantworten
Letzter Kommentar: vor 3 Tagen11 Kommentare2 Personen sind an der Diskussion beteiligt
Ich habe mir eben einen meiner Artikel als PDF ausgeben lassen und diesen anschließend bei ChatGPT hochgeladen. Ich weiß nicht ob das allgemein möglich ist oder nur wenn man zuvor AI PDF auswählt. Die Büroklammer deutet darauf hin, dass das allgemein funktionieren sollte. Also, mit unseren Kapiteln hatte das Programm Probleme, Kapitel weiter unten kannte er nicht, deren Inhalte aber schon. Fragen dazu konnte er beantworten. Ich habe dann nach im PDF dazu angegebenen Quellen gefragt und einen Link auf einen WP-Artikel bekommen. Also, ChatGPT kann nicht mit unseren Quellen umgehen. Vielleicht ist Wikicode das Problem?
Ich habe das nur mit der Büroklammer ausprobiert und es funktionierte. Anschließend habe ich ChatGPT aufgefordert 5 Quizfragen aus dem PDF zu erstellen. Hat geklappt, aber die Lösung kam gleich mit.
Ein Beispiel:
Wie hoch war der Anteil der Dienstleistungsbranche an der Beschäftigung in Deutschland im Jahr 2021?
a) 50 %
b) 65 %
c) 75 %
d) 85 %
Antwort: c) 75 %
Diese Info steht im Artikel:
"Drei Viertel der arbeitenden Menschen (75,0 %) sind in Deutschland im Dienstleistungssektor beschäftigt (Stand 2021)."
Ich habe dann folgendes gefragt: "Was steht zum Thema Globalisierung im PDF? Welche Themen fehlen zu diesem Thema im PDF?" Es gibt vernünftige Antworten auf beide Fragen. Dass die KI den Text tatsächlich gelesen hat, sieht man daran, dass sie den Begriff "Basarökonomie" erwähnt: "Arbeitsteilung: Der Einfluss der Globalisierung auf die Arbeitsteilung wird erwähnt, insbesondere im Zusammenhang mit importierten Vorleistungen und Deutschlands Rolle als „Basarökonomie“.
Die aufgeführten fehlenden Aspekte sind: Soziale Auswirkungen, Digitalisierung, Kritikpunkte und politische Auswirkungen. Bei dem letzten Punkt werden zB konkret globale Handelsabkommen und die Rolle Deutschlands in der WTO genannt.
Die interessante Frage wäre hier wie ChatGPT die Relevanz der genannten fehlenden Aspekte ermittelt? Ob man das die KI fragen kann?
Wenn man der KI Text zum Lesen geben kann, kann man der KI dann auch einen Text geben, der ihr erklärt wie das bsw mit den Belegen funktioniert? Was gute Quellen sind? Oder wie eine Einleitung für eine Biografie aussehen sollte. Dann gibt es für bestimmte Artikel etablierte Gliederungen, etwa für Städteartikel. Kann man die der KI als Vorgabe mitgeben?
Ich würde das als Verständnis 2. Ordnung bezeichnen. Sollte das funktionieren, kann man eine KI vielleicht doch als Autor einsetzen, wobei der Anteil Autor / KI unterschiedlich groß sein kann.
Hier sehe ich übrigens auch eine Möglichkeit ChatGPT in der Wartung einzusetzen. Wenn sie zB unsere Vorgaben für Belegen kennen würde, könnte sie dann die Belege lesen und bewerten? --Goldzahn (Diskussion) 20:28, 19. Dez. 2024 (CET)Beantworten
Zumindest lassen sich die Psychologen schon Intelligenztestaufgaben bauen - und die KI kann die schon lösen, sprachliche Aufgaben besser als die durchschnittliche Menschen (warum man das besser beaufsichtigen muss, wenn jemand solche Tests beantwortet). Was da wirklich läuft zu erklären, wage ich mich nicht - da gibts noch einige Widersprüche. Es gab mal den Satz: Alles was bestimmten Regeln/Algorithmen folgt, kann auch eine KI "selbst lernen", am Ende erbarmungsloser exakter als ein Mensch. Der Weg dahin ist aber fehlerbehaftet, anders als ein Mensch gibt eine KI 24/7 nicht auf, wenn sie nicht abgeschaltet wird und GANs gibts schon. Ich experimentiere mit Perplexity und mich verblüfft auch einiges ziemlich. Irgendwo hatte in der Disk auch jemand auf die Bedeutung der Prompts hingewiesen und Beispiele genannt. A la "Wenn du richtig fragst, kriegst du auch richtige Antworten". Einfach weiter experimentieren und die Grenzen austesten. Aber noch nicht drauf verlassen, es wird systembedingt auch immer noch geschwindelt. --Wortulo (Disk. * KI-Projekt) 21:36, 19. Dez. 2024 (CET)Beantworten
Ich kann mir vorstellen, dass man mit der Zeit lernt welche Fragen besonders anfällig für Fehler sind und diese dann vermeidet. Anstatt zu fragen: Wie lauten die Vornamen von Person X, wäre es vielleicht besser zu fragen ob die Vornamen von Person X bekannt sind und wenn ja, welche das sind.
Übrigens, ich hatte schon nach Vornamen und Geburtsdaten recherchiert und man findet da nicht selten sich wiedersprechende Informationen. Ich schätze, dass dann die reputablere Quelle den Ausschlag geben sollte. Vielleicht muss man die Qualität der Quelle auch im Prompt ansprechen? Zumindest wenn die KI weiß woher eine bestimmte Info kommt, sollte das helfen. Perplexity soll das wissen, aber ist für Perplexity die Bild-Zeitung als Quelle genauso gut wie eine wissenschaftliche Quelle?
Wegen Erfahrung: Ich habe gerade mir einen Vorschlag für den pdf-Artikel machen lassen, weil die KI Neutralität bei dem Artikel bemängelte. Geschrieben wurde dann zB, dass Leipzig und Dresden Beispiele für ostdeutsche Städte nach der Wiedervereinigung wären, die Zentren für Innovation und Technologie geworden wären. (Weil positive Beispiele fehlen würden) Ich habe danach gefragt welche Quelle die KI dazu nutzt. Ich habe nämlich bei meiner WPArbeit gelernt, dass man wirklich jede Info online überprüfen muss, egal wie unwichtig. Antwort war: allgemeine Erkenntnisse und die KI bot mir an im hochgeladenen PDF oder Online nach "relevanten Belegen" zu suchen. Als ich nach einem "relevanten Beleg" fragte, suchte die KI im PDF danach. Sie nannte zB dass einige Regionen im Artikel erwähnt würden und sagte, dass Leipzig und Dresden dadurch nicht direkt abgedeckt wären. Eine externe Quelle müsse also her. Ich habe dann auf Nachfrage insgesamt 12 Quellen genannt bekommen, wobei 2 kommentiert wurden Q1: Sachsen Staatsregierung. Q2: VC Magazin. In die Quellen reingeguckt habe ich nicht.
Ich denke, wenn man die KI bittet einen Artikel zu schreiben, ist das so als wenn man im Ferrari im Schritttempo fahren würde. Ich frage mich ob Schüler lernen wie man mit einer KI sinnvoll arbeitet?
Die folgende Frage wäre jetzt ob ich nun den Artikel überarbeiten werde und ich fürchte die Antwort darauf ist nein. Auch wenn die KI Text vorschlägt, müsste ich noch etliches an Arbeit reinstecken. Bei Leipzig und Dresden als Beispiel müsste ich noch in der WP nach Artikeln suchen, wo das vertieft wird, also, die Verlinkung fehlt.
Die andere Frage wäre inwiefern mir das alles als Autor hilft. Bei mir war die Quellensuche beim Artikelschreiben immer zentral, was hier wegfällt, den Text zu schreiben war dagen sekundär. Gewissermaßen haben die Quellen den Inhalt und weitgehend die Gliederung des Artikels vorgegeben. Bottom up, bei mir, versus Top down, mit der KI. Geht NPOV auch anders? Ob man der KI eine Liste an Quellen geben kann und sie soll daraus einen Text machen? Das Beispiel mit Dresden und Leipzig zeigt, dass die KI auf "allgemeines Wissen" bei ihren Textvorschlägen zurückgreift - vielleicht ausschließlich? - und damit meine Quellenvorgaben ergänzen würde.
Ich habe die Worte Elysium Mons, Marines 9 und Launch Complex 36 in ein PDF geschrieben und in chatGPT hochgeladen. Anschließend bat ich die KI damit einen Text zu schreiben. Die KI erkannte den Zusammenhang und schrieb einen kurzen Text. Ich hatte zuerst LC36-B geschrieben gehabt, da klappte das nicht, obwohl sie erkannte, dass das ein Rakenstartplatz ist. Ich sagte der KI dann den Schwerpunkt auf den Startplatz zu legen und danach mit anderen Startplätzen zu vergleichen. Klappte jeweils sehr gut. Dann bat ich Peenemünde mit in den Text aufzunehmen. Im Grunde ist das nur ein weiterer Startplatz, aber hier erfand die KI einen tieferen Zusammenhang. Ich trieb das dann auf die Spitze in dem ich Angela Merkel mit im Artikel haben wollte, falls es einen Zusammenhang gäbe. Die KI schrieb, dass es keinen direkten Zusammenhang gebe aber einen indirekten - Förderung der Technologie, blah, blah. Dann sagte ich, falls es einen direkten Zusammenhang gibt, schreib es rein, falls nicht, dann nicht. Hier stand nur am Ende des Textes, dass kein direkter Zusammenhang besteht.
Also, man kann der KI detailliert sagen was man will, doch wenn das Unsinn ist, dann kommt auch Unsinn dabei raus. Bei diesem Experiment habe ich als Anweisung zum einen eine Wortliste genommen und zum anderen den Prompt.
Im nächsten Schritt will ich die Worte im pdf durch Weblinks auf die deWP ersetzen. Sollte die KI die WP-Artikel lesen und das dort geschriebene Wissen temporär in die eigene Wissensbasis integrieren, dann interessiert mich die Frage ob die KI den Zusammenhang der Begriffe aus ihrem eigenen Allgemeinwissen erkennt oder aus dem was in den WP-Artikeln steht. Ich vermute das man das im Prompt vorgeben kann. --Goldzahn (Diskussion) 23:28, 21. Dez. 2024 (CET)Beantworten
Wenn Du mich so fragen würdest, wäre ich auch genervt :-) Immerhin bleibt die geduldig im Unterschied zu Menschen. Und laut Theorie neigt KI dann bevorzugt zum "Halluzinieren", wenn die Anforderungen Richtung Unlösbarkeit gehen - das ist ihr sogar teilweise erklärbarer "Systemfehler".--Wortulo (Disk. * KI-Projekt) 11:08, 22. Dez. 2024 (CET)Beantworten
Ich glaube bei einer Zusammenarbeit von Autor und KI ist das mit den Halluzinationen händelbar, anders als Leser eines Textes. Das ist dann kein "Lesen" mehr, sondern ein Nachrecherchieren. Ich glaube wenn man das die KI machen lassen würde, dann nutzt sie dafür nur ihr Allgemeinwissen und recherchiert nicht in externen Quellen.
Ich kann mir vorstellen, dass wir kleine Texte mit eingebauten Fehlern per Hand schreiben könnten und dann gucken mit welchem Prompt die KI die Fehler findet. So könnte man auch alle Prompts von Sinuhe testen. --Goldzahn (Diskussion) 15:37, 22. Dez. 2024 (CET)Beantworten
Genauso das ist ja die Empfehlung: alles nachrecherchieren. Und guckst Du in "Essentials", findest Du den neuen Wettbewerb der Chatbots: Einbindung aktueller Suchergebnisse, was schon funktioniert. Ein neuer Artikel von mir war nach einer Woche zeitgleich in Google (normale Suche) und Perplexity (stimmend zusammengefasst). --Wortulo (Disk. * KI-Projekt) 19:18, 22. Dez. 2024 (CET)Beantworten
Im PDF steht ein Weblink auf den WP-Artikel Elysium Mons.
P1: Was steht auf der im PDF verlinkten Webseite?
Gibt eine fast 1 zu 1 Kopie des Textes aus, ohne Infobox, Quellen, etc. Ich konnte mit dieser Ausgabe aber dann nicht weiter arbeiten, weshalb ich schrieb.
P2: Merke Dir den Text
Antwort war: Text wurde gespeichert. Scheint das zu "Erinnerung" hinzugefügt zu haben. Keine Ahnung was das ist.
P3: Welche wichtigen Fakten stehen darin?
eine gegliederte Aufzählung ausgegeben, mit 5 Gliederungspunkten und insgesamt 9 Punkten.
P4: Nutze die Fakten 1, 2 und 3 um daraus einen Text zu schreiben.
Ausgabe des Textes, der aus den gewünschten Gliederungspunkten erstellt wurde.
Hier also gegliederte Fakten als Start für einen KI-Text. Ich denke diese Fakten würden eine Quelle benötigen. Ich habe dann geschrieben
P5: Schreibe den Fakt 1.
P6: Finde eine Quelle für den Fakt 1.
Ausgabe war eine kurze Info mit Weblink zur Quelle. Diese war eine englische Webseite solarviews.com. Die Info steht da nicht wortwörtlich, aber inhaltlich. Wortwörtlich wäre mir hier lieber gewesen, weil ich so die Quelle per Hand überprüfen muss. Vielleicht könnte man KI im Prompt sagen, dass ich den Quellentext wortwörtlich haben will?
Letzter Kommentar: vor 4 Stunden8 Kommentare5 Personen sind an der Diskussion beteiligt
Am Mentorenprogramm nimmt der Account Benutzer:PATS90 als Mentee teil. Betreut wird er vom Kollegen Wandelndes Lexikon, seinem Mentor. Auf der Seite WP:LP fiel mir nun dieses Edit auf [3], das zum Schmunzeln verleitet und natürlich völlig gerechtfertigt vom Kollegen Geist, der stets verneint mit der Begründung "KI-Abfall" revertiert wurde [4]. War das nun wirklich ein KI-Text oder nur Verarsche (wg. Redchtschreibung), die einen KI-Text vortäuschte? Weihnachtliche Grüße, --Schlesingerschreib!18:40, 26. Dez. 2024 (CET)Beantworten
Lieber Schlesinger, ich bin keine KI, ich wollte lediglich einen ersten vollständigen Beitrag verfassen und werde hier nicht wirklich mit Respekt behandelt zudem habe ich mehrfach um Hilfe gefragt...
(1) Wir gehen davon aus, dass der Text von einer KI verfasst wurde, Du selbst natürlich IRL auch existierst. (2) Dir wurde mehrfach geholfen: Bitte lies Dir die mehrfach genannten Relevanzkriterien durch, insbesondere für lebende Personen. Wenn Deine Person tatsächlich Relevanzhürden überspringen würde - wovon wir derzeit nicht ausgehen -, dann müssen diese durch reputable Belege aufgezeigt werden. Dein oben verlinkter Edit stellt so etwas nicht dar; sein Inhalt ist im Wesentlichen: "Er ist relevant, weil er so viel tolle Sachen macht." Gruß --Blik (Diskussion) 21:04, 26. Dez. 2024 (CET)Beantworten
Weil Du oben "schmunzeln" sagtest: ich fürchte, der Benutzer setzt wirklich etwas auf die KI als Ersatz für die RK und glaubt die Bewertung. Er hat überlesen, dass das Konjunktiv ist. Meiner Ansicht nach müsste in unsere Kriterien auch was über den Einsatz als "Hilfsmittel" gesagt werden. Ich dachte bisher nur an Recherche, Umformulierung etc. "Bewertungen der Enzyklopädietauglichkeit bzw. Relevanz" durch KI sollte man auch nicht trauen :-) Oder ist das trivial? --Wortulo (Disk. * KI-Projekt) 10:48, 27. Dez. 2024 (CET)Beantworten