Google сформулювала п'ять принципів безпеки робототехніки

Компанії Google і OpenAI спільно з Каліфорнійським університетом в Берклі і Стенфордським університетом сформулювали п'ять практичних проблем, які необхідно враховувати розробникам штучного інтелекту. Препринт їх статті доступний на ресурсі arXiv.org.


Як пише співробітник Google і один з авторів публікації Кріс Ола (Chris Olah) в корпоративному блозі, хоча пов'язані з ШІ ризики привертають велику суспільну увагу, дискусії з їх приводу зазвичай занадто гіпотетичні і спекулятивні. Стаття покликана конкретизувати потенційні небезпеки, які необхідно враховувати при розробках у цьому напрямку.


Серед проблем, які мають враховувати розробники систем ШІ для практичного застосування, автори роботи виділяють такі:

  • уникнення небажаних побічних ефектів (наприклад, робот може розбити вазу, якщо це прискорить процес прибирання);
  • уникнення шахрайства (той же робот може просто прикрити сміття, а не прибрати його);
  • гнучка потреба в нагляді (наприклад, якщо робот може порадитися з людиною при виконанні завдання, він не повинен набридати питаннями);
  • безпечне навчання (згаданому роботу-прибиральнику не варто експериментувати з протиркою розеток мокрою ганчіркою);
  • стійкість до зміни діяльності (наприклад, прибирання в цеху металообробки та хімічної лабораторії принципово відрізняється).

Серед можливих шляхів вирішення дослідники називають використання симуляцій у навчанні, обмеження простору діяльності роботів і людський нагляд, проте жоден з них не становить остаточного вирішення проблеми. На думку фахівців Google, забезпечити задану роботу систем машинного навчання можуть тільки відповідальні, відкриті та міждисциплінарні зусилля розробників.

COM_SPPAGEBUILDER_NO_ITEMS_FOUND