Известный физик предостерег о возможных глобальных последствиях развития технологий

Британский физик Стивен Хокинг еще в 2014 году заявлял о потенциальной угрозе искусственного интеллекта для человечества. В своих публичных выступлениях и книгах он призвал к жесткому контролю за развитием этой технологии.

В книге «Краткие ответы на большие вопросы» он подчеркивал, что создание полноценного ИИ может иметь непредсказуемые последствия. Ученый считал, что после достижения определенного уровня машины начнут самостоятельно совершенствоваться значительно быстрее людей.

По мнению Хокинга, человечество не сможет конкурировать с такими системами из-за ограничений биологической эволюции. Он также предупреждал об опасности развития военного искусственного интеллекта, который может вызвать глобальные конфликты.

Отдельно физик обращал внимание на экономические последствия: автоматизация способна сократить рабочие места и усугубить неравенство в мире. Наибольшим риском он считал возможность того, что ИИ будет действовать в соответствии с целями, которые не совпадают с интересами человечества.

В то же время Хокинг признавал и потенциальные преимущества этой технологии, в том числе в борьбе с бедностью, лечении болезней и восстановлении окружающей среды.