Eliezer YudkowskyEliezer Shlomo Yudkowsky (* 11. September 1979) ist ein US-amerikanischer KI-Forscher[1] und Autor. Er beschäftigt sich mit Entscheidungstheorie und den Folgen der Entwicklung von Künstlicher Intelligenz.[2] Er lebt in Redwood City, Kalifornien.[3] LebenYudkowsky beendete seine Schulausbildung, als er 12 Jahre alt war. Er ist seither Autodidakt und hat keine formale Ausbildung im Bereich der Künstlichen Intelligenz.[4] Er gründete im Jahr 2000 zusammen mit Brian und Sabine Atkins die Non-Profit-Organisation Singularity Institute for Artificial Intelligence (SIAI), welche seit Ende Januar 2013 Machine Intelligence Research Institute (MIRI) heißt.[5] Er ist dort weiterhin als Forscher angestellt.[6] 2023 wurde er vom Time magazine zu den 100 einflussreichsten Persönlichkeiten im Bereich der KI gezählt.[7] WerkYudkowsky versucht nach eigenen Angaben eine Theorie zu entwickeln, die es ermöglicht, eine Künstliche Intelligenz mit reflexivem Selbstverständnis zu erschaffen, welche zudem in der Lage ist, sich selbst zu modifizieren und rekursiv zu verbessern, ohne dabei ihre ursprüngliche Präferenzen, insbesondere Moral und Ethik, zu verändern.[8] Der von ihm verwendete Begriff „Friendly AI“ beschreibt eine künstliche Intelligenz, die menschliche Werte vertritt und keine negativen Auswirkungen oder gar eine Vernichtung der Menschheit mit sich zieht. Mittlerweile vertritt er jedoch die Ansicht, dass künstliche Intelligenz die Menschheit vernichten wird und der einzige Weg dies zu stoppen eine große internationale Zusammenarbeit wäre, die alles Menschenmögliche unternehmen müsste, um den Betrieb und die Weiterentwicklung künstlicher Intelligenz zu stoppen.[9][10][11] Neben seiner Theorie hat Yudkowsky außerdem einige Einführungen in philosophische Themen geschrieben, wie zum Beispiel den Text „An Intuitive Explanation of Bayes' Theorem“ (deutsch „Eine intuitive Erklärung des Satz von Bayes“). OvercomingBias und LessWrongYudkowsky schrieb beim Blog OvercomingBias[12] und im Frühjahr 2009 mitbegründete er den Blog LessWrong. Dort schrieb er Beiträge zu Themen wie Erkenntnistheorie, Künstliche Intelligenz, Fehler der menschlichen Rationalität und Metaethik. Weitere PublikationenEr trug zwei Kapitel zu dem von Nick Bostrom und Milan Cirkovic herausgegebenen Sammelband „Global Catastrophic Risk“ bei.[13] Yudkowsky ist zudem der Autor folgender Publikationen: „Creating Friendly AI“ (2001),[14] „Levels of Organization in General Intelligence“ (2002), „Coherent Extrapolated Volition“ (2004) und „Timeless Decision Theory“ (2010).[15][16] Yudkowsky hat auch einige belletristische Werke geschrieben. Seine Harry-Potter-Fan-Fiction „Harry Potter and the Methods of Rationality“ ist momentan die beliebteste Harry-Potter-Geschichte der Website fanfiction.net. Sie behandelt Themen der Kognitionswissenschaft, Rationalität und Philosophie im Allgemeinen und wurde unter anderem durch den Science-Fiction-Autor David Brin[17] und den Programmierer Eric S. Raymond positiv bewertet.[18] Sein neuestes Buch, „Inadequate Equilibria: Where and How Civilizations Get Stuck“, hat Yudkowsky im Jahr 2017 veröffentlicht.[19] In dem Buch diskutiert er, welche Umstände Gesellschaften dazu führen, bessere oder schlechtere Entscheidungen zu treffen, um weithin anerkannte Ziele umzusetzen. Literatur
Weblinks
Einzelnachweise
|