Спроби контролювати сферу штучного інтелекту призводять до гальмування її розвитку. У цьому переконаний Сергій Токарєв — IT-підприємець та інвестор, співзасновник та партнер інвестиційної групи Roosh. Він наголошує: основна проблема полягає в тому, що участь в обговоренні способів врегулювання галузі беруть представники влади та великих AI-компаній.
“Це означає, що великі компанії, на кшталт Meta чи OpenAI, можуть диктувати власні умови і, як результат, укріплювати свої позиції на ринку. Це ускладнює середовище для невеликих стартапів і сповільнює розвиток технологій загалом. Це не регулювання — це гальмування”, — ділиться бізнесмен.
Перші масштабні дискусії щодо контролю сфери Artificial Intelligence почали з’являтися у 2023 році. Так, у Лондоні відбувся AI Safety Summit, участь в якому взяли представники 28 країн та найбільших AI-компаній. Вони досягли спільної думки щодо необхідності тестувати ШІ-моделей на безпеку. Тоді ж Велика Британія анонсувала створення AI Safety Institute, мета якого — вирішувати питання безпеки технологій штучного інтелекту в інтересах суспільства.
Схожі процеси розпочались і в США. Згідно з наказом президента Джо Байдена, компанії, які розробляють штучний інтелект, зобов’язані інформувати федеральний уряд про тренування моделей, а також надавати результати безпекових випробувань.
А вже у лютому 2024 року Скотт Вінер, сенатор штату Каліфорнія, представив новий законопроєкт, що ґрунтується на указі Байдена, але пропонує жорсткіші заходи. Документ вимагає від компаній, що займаються тренуванням AI-моделей, перевіряти свої інструменти на “небезпечну” поведінку, впроваджувати захист від хакерських атак та розробляти технологію так, аби її можна було повністю вимкнути. ШІ-компанії будуть зобов’язані розкривати Департаменту технологій Каліфорнії запроваджені протоколи тестування та засоби захисту. А якщо технології завдадуть “критичної шкоди”, генеральний прокурор штату може подати в суд на розробників.
Законопроєкт Віннера називають знаковим, адже він може запустити механізм регулювання штучного інтелекту і в інших штатах. Не дивно, що така ініціатива з’явилась в Каліфорнії, адже саме там розташовані офіси багатьох найбільших технологічних компаній. Разом з цим очікується, що американська AI-індустрія розкритикує проєкт як надмірно агресивний і такий, що потенційно перешкоджає інноваціям.
Попри те, що саме програми зовнішньої допомоги США посприяли розвитку AI в Україні, за словами Бенджаміна Дженсена — представника американського Центру стратегічних і міжнародних досліджень — українці використовують технології штучного інтелекту значно активніше, ніж американці.
Допоки міжнародна спільнота та окремі країни обговорюють потенційний вплив штучного інтелекту на людство, в Україні технології застосовують у різноманітних сферах та спостерігають за їхнім розвитком.
На думку Сергія Токарєва, вирішувати проблеми, пов’язані з розвитком штучного інтелекту, потрібно не заздалегідь, а тоді, коли вони з’являються. Неможливо передбачити всі виклики, що принесе AI — але можна працювати над подоланням наявних. Натомість сьогоднішні дискусії фокусуються на малоймовірних сценаріях, на кшталт повстання Artificial Intelligence проти людства чи кінця цивілізації через ШІ. Страх перед цим відволікає від таких реальних проблем, як, наприклад, можливе використання технології deepfake перед президентськими виборами в США.
Раніше в інтерв’ю для РБК бізнесмен зазначав, що жодне з існуючих законодавств не було готове до такого стрімкого розвитку Artificial Intelligence. Століттями людство розробляло юридичні системи з чіткими правилами, за порушення яких мають відповідати конкретні люди. Утім наразі не існує механізму, який би визначав винуватих у тому випадку, якщо AI-алгоритм нашкодить людині. Розвиток технологій штучного інтелекту призвів до того, що людству доведеться серйозно змінювати наявні системи законів.
Не менш гостро стоїть питання етики у використанні штучного інтелекту. Наразі AI-технології не можуть давати “небезпечні” відповіді — наприклад, про те, як створити бомбу. Однак Токарєв вважає, що розвиток ШІ-інструментів у цьому напрямку — питання часу. На його думку, невдовзі окремі компанії та цілі країни створюватимуть для внутрішнього користування технології, що даватимуть відповіді навіть на найжорстокіші питання.
Партнерський матеріал