↓
 ↑
Регистрация
Имя/email

Пароль

 
Войти при помощи


loonyphoenixпереводчик
Матемаг, собественно, над созданием сверхчеловеческого ИИ, который не уничтожит нас всех, и размышляет Юдковски в своём институте :) Он считает, что ИИ создать не так сложно. Есть два пути: брутфорсить это дело (то есть при определённом уровне развития железа ИИ должно появиться обязательно, хоть путём эмуляции эволюции разума, хоть простым перебором...), либо построить его самостоятельно, поняв принципы строения разума. Юдковски считает, что ИИ первого типа с куда большей вероятностью погубит человечество, чем ИИ второго типа.


ПОИСК
ФАНФИКОВ









Закрыть
Закрыть
Закрыть