Відомий фізик застерігав про можливі глобальні наслідки розвитку технологій

Британський фізик Стівен Гокінг ще у 2014 році заявляв про потенційну загрозу штучного інтелекту для людства. У своїх публічних виступах і книгах він закликав до жорсткого контролю над розвитком цієї технології.

У книзі «Короткі відповіді на великі питання» він наголошував, що створення повноцінного ШІ може мати непередбачувані наслідки. Учений вважав, що після досягнення певного рівня машини почнуть самостійно вдосконалюватися значно швидше за людей.

На думку Гокінга, людство не зможе конкурувати з такими системами через обмеження біологічної еволюції. Він також попереджав про небезпеку розвитку військового штучного інтелекту, який може спричинити глобальні конфлікти.

Окремо фізик звертав увагу на економічні наслідки: автоматизація здатна скоротити робочі місця та посилити нерівність у світі. Найбільшим ризиком він вважав можливість того, що ШІ діятиме відповідно до цілей, які не збігаються з інтересами людства.

Водночас Гокінг визнавав і потенційні переваги цієї технології, зокрема у боротьбі з бідністю, лікуванні хвороб і відновленні довкілля.