Eliezer Yudkowsky ist einer der Pioniere der technischen KI-Sicherheitsforschung und Mitbegründer des Machine Intelligence Research Institute (MIRI) in Berkeley. Bereits Anfang der 2000er Jahre prägte er Konzepte wie »Friendly AI« und das »Alignment-Problem«. Er ist eine zentrale Figur der »Rationalist«-Community. Das Time-Magazine wählte ihn 2023 zu einer der einflussreichsten Personen im Bereich der Künstlichen Intelligenz. Bekanntheit erlangte er durch seine Warnungen vor einem unausweichlichen Weltuntergang durch unkontrollierte Superintelligenz.