Убий в собі SkyNet

Нейромережі увірвалися в наше життя відносно недавно і поряд з новими можливостями породили чимало нових проблем. Зокрема, виявилося, що нейромережі можуть бути потужною зброєю в руках зловмисників або просто інтернет-тролів. З питанням про те, що з цим робити, як до цього ставитися і які нові етичні питання це перед нами ставить, ми звернулися до культуролога, доцента РАНГіДС і МВШСЕН Оксани Мороз.


Новини про нейромережі виглядають як фіксація перемоги штучного інтелекту. Ці повідомлення можна розцінювати як свідчення успіху науки в питанні штучного моделювання процесів і дій, характерних для істот людської природи. Більше того, математичні моделі та відповідне програмне забезпечення вже можуть вчиняти дії, що перевершують можливості середньостатистичної людини: малювати, створювати електронну музику, писати сценарії тощо.


Однак одночасно функціонування нейромереж розглядається як ціла сукупність загроз: оскільки нейронні мережі не програмуються, а навчаються, контролювати їх «креативні здібності» досить складно. І, не завжди чітко бачачи, як система проводить пріоритизацію завдань і приймає рішення, люди нерідко всерйоз побоюються результатів подібного конструктивного ставлення машинного розуму до людини і її світу.

Поки кібероптимісти дискутують зі скептиками і песимістами, чи так вже утилітарно корисна і безпечна робота над штучним інтелектом і нейромережами, варто задуматися: а наскільки цей спір феноменологічно нов? Напевно кожне нове інженерне рішення, що здійснювалося в процесі цифрової революції, викликало дискусії між свого роду луддитами і поборниками технічного прогресу. Так чому сьогодні поява самовдосконалюваних нейромереж, спадкоємців кібернетичних моделей мозку, провокує спекотні дебати? І що так лякає і захоплює розробників, готових публічно розписуватися у власній некомпетентності і розповідати мало не про повстання машин?

Здається, цьому можна знайти кілька пояснень.

По-перше, озираючись на активність власних винаходів, людство ніби в кривому дзеркалі бачить себе, свою сутність. Ми навчаємо алгоритми виконувати найпростіші завдання, допомагати нам в управлінні середовищем і взаємодії з іншими людьми, а на виході отримуємо кібернетичних расистів, садистів і тролів - і швидше за все саме тому, що машини повторюють за своїми творцями.

Начебто штучний інтелект повинен наслідувати «людське, занадто людське», тобто специфічну для людей систему поглядів і поведінкових набоїв, сценаріїв дозволу етичних дилем. А вона в сучасному - як і раніше багато в чому європоцентричному світі - здається вибудуваною на принципах інклюзивної культури поваги, боротьби за права і гідність. Однак нейромережі - ці чи то імітації, чи то відносно примітивні зліпки людського мислення - поводяться часто вельми негуманно: виявляються схильні до насильства різного роду, не гребують знущаннями.

Мабуть, це означає, що і хвалений людський гуманізм - вигадка, тонка амальгама культурних значень, придуманих людством для самозаспокоєння. Мало того, що «гуманність» і «етичність» як працюючі категорії і передумови прийняття рішень не можуть бути раціонально описані і представлені нейромережі. Вони, судячи з результатів машинного навчання, ще й статистична рідкість.


По-друге, нейромережі виглядають жвавим пророцтвом наукової фантастики. Машини, які можуть думати, виносити власні рішення з низки питань, навіть «діагностувати» якісь потенційно небезпечні для абстрактного світу якості людини - абсолютне втілення відомих фантастичних історій. Їх сюжети зазвичай апокаліптичні, тому закінчуються тотальною війною між недосконалими людьми і залізками. Або, до речі, поневоленням людства холодним штучним інтелектом.

Очевидно, що багато інженерних рішень сучасні дизайнери і розробники дійсно почерпнули в улюблених ними книгах і фільмах в дусі кіберпанку (а ті, в свою чергу, з філософії), так що типологічна схожість деяких сучасних систем і SkyNet - не такий вже сюрприз. І навіть забавно, що sci-fi про цифрові технології не перетворився на палеофутурологію - морально застарілі оповіді про майбутнє, безвідповідально породжені нічого про нього не знаючим минулим. А навіть навпаки - судячи з усього, надовго запрограмував розвиток технологій.

Загалом, люди люблять розповідати один одному страшні історії. Просто тепер цей жанр дещо переріс межі художньої оповіді, тому його можна зустріти на серйозних професійних конференціях. І вгадувати знайомі інтонаційні нотки в коментарях розробників, які зовсім не хотіли створювати нейромережі-лиходіїв, але з жахом спостерігають, як математична логіка виявляється тотожна жорстокості. І нелояльна до відхилень від системи - в яких багато в чому і полягає суть людського існування.

Нейромережі лякають і захоплюють, тому що люди схильні переоцінювати свої досягнення і, відповідно, бачити в існуючих алгоритмах дійсні і дієві аналоги власної свідомості. Звичайно, нейромережі вміють всяке, але їх антропологізація, заява про те, що вони усвідомлено вчиняють якісь дії деструктивного характеру, - велике перебільшення. Набагато важливіше задатися питанням, а що таке взагалі етика, етичність вчинку в світі, де все більшу суб'єктність знаходять машини, а люди все частіше відстоюють право на вільну від усіляких обмежень і встановлених культурних норм поведінку.

Можливо, ми опинилися в точці біфуркації, і нам треба зробити вибір - або на користь довгих обговорень етичних парадоксів, яке зможуть породити гнучку систему соціальних компромісів, або на користь торжества суворої математичної логіки. І на перший погляд здається, що сучасний стан Буріданова осла ми все-таки зможемо змінити на симбіотичну систему взаємно корисного користування різними системами прийняття рішень та їх оцінки.

COM_SPPAGEBUILDER_NO_ITEMS_FOUND