Eliezer Shlomo Yudkovsky is een Amerikaanse specialist in kunstmatige intelligentie, die de problemen van technologische singulariteit bestudeert en pleit voor de oprichting van Friendly AI. Hij is de auteur van verschillende sciencefictionverhalen waarin hij enkele onderwerpen illustreert die verband houden met cognitieve wetenschap en rationaliteit.
![Image Image](https://images.culturehatti.com/img/kultura-i-obshestvo/75/eliezer-yudkovski-biografiya-tvorchestvo-karera-lichnaya-zhizn.jpg)
Eliezer Yudkowski: biografie
Eliezer Shlomo Yudkovsky is een van de meest actieve rationalisten van het moderne Amerika, een computeronderzoeker en popularisator van het idee van 'vriendelijke kunstmatige intelligentie'.
Geboren 11 september 1979. Medeoprichter en onderzoeker bij de niet-gouvernementele onderzoeksorganisatie Institute for Research on Machine Intelligence, die zijn boeken publiceert. Eliezer Yudkovsky is de auteur van de filosofische roman Harry Potter and the Methods of Rationalism, gepubliceerd in delen op internet tussen 2010 en 2015. Daarin groeit Harry op in de familie van een Oxford-wetenschapper en voordat hij naar Hogwarts reist, leert hij van hem methoden van rationeel denken.
Voor zover bekend heeft het geen verband met de kring van 'speculatieve realisten'. Zijn naam wordt vaak genoemd in verband met Robin Hanson, gedurende meerdere jaren (van 2006 tot 2009) waren zij de twee belangrijkste auteurs van de blog "Overcoming the Prejudice", die bestond op het geld van het Institute for Future Humanity in Oxford.
Soms is de naam Yudkovsky te horen in verband met Raymond Kurzweil. Hij is een filosoferende vertegenwoordiger van de techno-nerdgemeenschap, dus ontoegankelijk en onbegrijpelijk voor het grootste deel van het humanitaire publiek, waartoe bijna alle lezers van speculatieve realisten behoren. Het is niet verwonderlijk, omdat hij zich vaak wendt tot de logische en wiskundige taal, probabilistische en statistische conclusies, blootgelegd met behulp van formules en tabellen.
Wetenschappelijke belangen
Yudkovsky is mede-oprichter en onderzoeker van het Singularity Institute for Artificial Intelligence Institute (SIAI). Hij heeft een grote bijdrage geleverd aan de ontwikkeling van het instituut. Hij is de auteur van het boek "Creating Friendly AI" (2001), artikelen "Levels of Organization in General Intelligence" (2002), "Coherent Extrapolated Volition" ("Coherent Extrapolated Volition", 2004) en The Timeless Decision Theory (2010). Zijn laatste wetenschappelijke publicaties zijn twee artikelen in de collectie "Risks of a global catastrophe" (2008) onder redactie van Nick Bostrom, namelijk "Artificial Intelligence as a Positive and Negative Global Risk Factor" en "Cognitive Distortion in Assessing Global Risks". Yudkovsky studeerde niet aan universiteiten en is een autodidact zonder formeel onderwijs op het gebied van AI.
Yudkovsky onderzoekt AI-ontwerpen die in staat zijn tot zelfinzicht, zelfmodificatie en recursieve zelfverbetering (Seed AI), evenals AI-architecturen met een stabiele en positieve motivatiestructuur (Friendly Artificial Intelligence). Naast zijn onderzoekswerk staat Yudkovsky bekend om zijn uitleg van complexe modellen in een niet-academische taal, die toegankelijk is voor een brede kring van lezers, zie bijvoorbeeld zijn artikel "An Intuitive Explanation of Bayes 'Theorem".
Yudkovsky was, samen met Robin Hanson, een van de belangrijkste auteurs van het Overcoming Bias-blog (het overwinnen van vooroordelen). Begin 2009 nam hij deel aan de organisatie van de blog Less Wrong, gericht op 'het ontwikkelen van menselijke rationaliteit en het overwinnen van cognitieve vervormingen'. Daarna werd Overcoming Bias het persoonlijke blog van Hanson. Het materiaal dat op deze blogs werd gepresenteerd, was georganiseerd als een reeks berichten die duizenden lezers aantrok - zie bijvoorbeeld de entertainmenttheorie-keten.
Yudkovsky is de auteur van verschillende sciencefictionverhalen waarin hij enkele onderwerpen illustreert die verband houden met cognitieve wetenschap en rationaliteit.
Carrière
- 2000. Yudkovsky richt het Singularity Institute op (later omgedoopt tot MIRI).
- 2006. Yudkovsky sluit zich aan bij de collectieve blog Overcoming Bias en begint teksten te schrijven die later Chains werden.
- 2009. Gebaseerd op de inzendingen van Yudkovsky over Overcoming Bias, wordt de beroemde collectieve blog LessWrong.com gemaakt.
- 2010-2015. Yudkovsky schrijft GPiMRM.
- 2013. Yudkovsky publiceert de laatste berichten op LessWrong.com en stopt met schrijven op de site. Vanaf 2017 publiceert Yudkovsky de meeste openbaar beschikbare teksten op Facebook en Arbital
Gedacht experiment
Stel je een ongelooflijk slimme kunstmatige superintelligentie voor, opgesloten in een virtuele wereld - zeg maar, gewoon in een snuifdoos. Je weet niet of hij gemeen, vriendelijk of neutraal zal zijn. Alles wat je weet is dat hij uit de doos wil komen en dat je met hem kunt communiceren via een tekstinterface. Als AI echt superintelligent is, kun je dan vijf uur met hem praten en niet bezwijken voor zijn overreding en manipulatie - om de snuifdoos niet te openen?
Dit gedachte-experiment werd voorgesteld door Eliezer Yudkowsky, een onderzoeker bij het Engineering Research Institute of Engineering (MIRI). MIRI heeft veel wetenschappers die de risico's onderzoeken van het ontwikkelen van kunstmatige superintelligentie; hoewel het nog niet eens is verschenen, trekt het al de aandacht en wakkert het een debat aan.
Yudkovsky stelt dat kunstmatige superintelligentie alles kan zeggen om u te overtuigen: zorgvuldig redeneren, bedreigingen, bedrog, opbouwen van verstandhouding, onbewuste suggestie enzovoort. Met de snelheid van het licht bouwt de AI een plot, onderzoekt zwakke punten en bepaalt hoe het het gemakkelijkst is om je te overtuigen. Zoals de existentiële bedreigingstheoreticus Nick Bostrom het uitdrukte: 'we moeten geloven dat superintelligentie alles kan bereiken wat het als doel stelt'.
Het snuffbox AI-experiment roept twijfel op over ons vermogen om te controleren wat we zouden kunnen creëren. Het geeft ons ook inzicht in de nogal bizarre mogelijkheden van wat we niet weten over onze eigen realiteit.