Eliezer Yudkowsky

Eliezer Yudkowsky ist einer der Pioniere der technischen KI-Sicherheitsforschung und Mitbegründer des Machine Intelligence Research Institute (MIRI) in Berkeley. Bereits Anfang der 2000er Jahre prägte er Konzepte wie »Friendly AI« und das »Alignment-Problem«. Er ist eine zentrale Figur der »Rationalist«-Community. Das Time-Magazine wählte ihn 2023 zu einer der einflussreichsten Personen im Bereich der Künstlichen Intelligenz. Bekanntheit erlangte er durch seine Warnungen vor einem Weltuntergang durch unkontrollierte Superintelligenz, sofern deren Entwicklung nicht gestoppt wird.

Alle Bücher von Eliezer Yudkowsky

Alle Bücher