КультураНаука та життя

Штучний інтелект навчився брехати

00:45 11 тра 2024.  636Читайте на: УКРРУС

Письменники-фантасти попереджали про це вже багато десятиліть.

Якщо прокоментувати те, що написано нижче, одним реченням, воно має виглядати приблизно так: "Письменники-фантасти вас попереджали".

Як повідомляє The Guardian, аналіз, проведений дослідниками Массачусетського технологічного інституту (MIT), виявив широкий спектр випадків, коли системи штучного інтелекту обманюють опонентів, блефують та прикидаються. Одна система навіть змінила свою поведінку під час пробних тестів безпеки, щоб їх пройти.

Підписуйтеcь на наш Telegram-канал Lenta.UA - ЄДИНІ незалежні новини про події в Україні та світі

«У міру того, як можливості систем штучного інтелекту до обману стають все більш досконалими, небезпеки, які вони становлять для суспільства, стають все більш серйозними», - сказав доктор Пітер Парк, дослідник екзистенційної безпеки штучного інтелекту в Массачусетському технологічному інституті та автор дослідження .

Пак був змушений провести розслідування після того, як компанія Meta, яка володіє Facebook, розробила програму під назвою «Цицерон», яка потрапила до 10% найкращих гравців-людей у стратегічній грі з завоювання світу «Дипломатія». Пак та його колеги проаналізували загальнодоступні дані та виявили численні випадки, коли "Цицерон" говорив навмисну брехню та намагався залучити інших гравців до змов.

В іншому дослідженні організми штучного інтелекту в цифровому симуляторі «прикинулися мертвими», щоб обдурити тест, створений для усунення систем штучного інтелекту. «Це дуже тривожно, – сказав Пак. – Те, що система штучного інтелекту показує себе безпечною під час тесту, не означає, що вона безпечна у дикій природі. Це може бути просто вдавання».

Далі у статті наводиться довгі та, скажемо прямо, малопереконливі аргументи творців штучного інтелекту про те, що контролювати їх дітя таки можливо. Насправді ж, як здається, ми тут маємо справу з парадоксом "снаряду та броні", добре відомому у старомодному 20 столітті - чим потужніший снаряд, тим більш товсту робитимуть для захисту від нього броню, що в свою чергу викличе збільшення потужності снаряда і т.д. .

Інакше кажучи - якщо штучний інтелект досяг того ступеня, на якому він може обманювати, то чим більше в нього вставлятимуть "запобіжників" від обману, тим більше у нього буде причин удосконалювати свої прийоми обману, щоб обійти ці запобіжники.

Фото: Pinterest


 

Сергій Семенов

Новини

Найпопулярніше