Письменники-фантасти попереджали про це вже багато десятиліть.
Якщо прокоментувати те, що написано нижче, одним реченням, воно має виглядати приблизно так: "Письменники-фантасти вас попереджали".
Як повідомляє The Guardian, аналіз, проведений дослідниками Массачусетського технологічного інституту (MIT), виявив широкий спектр випадків, коли системи штучного інтелекту обманюють опонентів, блефують та прикидаються. Одна система навіть змінила свою поведінку під час пробних тестів безпеки, щоб їх пройти.
Підписуйтеcь на наш Telegram-канал Lenta.UA - ЄДИНІ незалежні новини про події в Україні та світі
«У міру того, як можливості систем штучного інтелекту до обману стають все більш досконалими, небезпеки, які вони становлять для суспільства, стають все більш серйозними», - сказав доктор Пітер Парк, дослідник екзистенційної безпеки штучного інтелекту в Массачусетському технологічному інституті та автор дослідження .
Пак був змушений провести розслідування після того, як компанія Meta, яка володіє Facebook, розробила програму під назвою «Цицерон», яка потрапила до 10% найкращих гравців-людей у стратегічній грі з завоювання світу «Дипломатія». Пак та його колеги проаналізували загальнодоступні дані та виявили численні випадки, коли "Цицерон" говорив навмисну брехню та намагався залучити інших гравців до змов.
В іншому дослідженні організми штучного інтелекту в цифровому симуляторі «прикинулися мертвими», щоб обдурити тест, створений для усунення систем штучного інтелекту. «Це дуже тривожно, – сказав Пак. – Те, що система штучного інтелекту показує себе безпечною під час тесту, не означає, що вона безпечна у дикій природі. Це може бути просто вдавання».
Далі у статті наводиться довгі та, скажемо прямо, малопереконливі аргументи творців штучного інтелекту про те, що контролювати їх дітя таки можливо. Насправді ж, як здається, ми тут маємо справу з парадоксом "снаряду та броні", добре відомому у старомодному 20 столітті - чим потужніший снаряд, тим більш товсту робитимуть для захисту від нього броню, що в свою чергу викличе збільшення потужності снаряда і т.д. .
Інакше кажучи - якщо штучний інтелект досяг того ступеня, на якому він може обманювати, то чим більше в нього вставлятимуть "запобіжників" від обману, тим більше у нього буде причин удосконалювати свої прийоми обману, щоб обійти ці запобіжники.
Фото: Pinterest
Новини
Нова влада Сирії спалила мільйон таблеток каптагону
21:30 25 гру 2024.
Порошенко замість купівлі дронів на передову, придбав сорочку LoroPiano за 180 тис., - блогер Іванов
20:50 25 гру 2024.
Оголошено про зйомки нової екранізації "Одіссеї"
20:45 25 гру 2024.
Названо винуватця сьогоднішньої катастрофи азербайджанського літака
20:18 25 гру 2024.
Трамп хоче страчувати ґвалтівників, вбивць та монстрів
19:55 25 гру 2024.
У РФ готові постачати газ до Європи через Україну
19:30 25 гру 2024.
Великобританія закликала Захід забезпечити Україні сильну позицію
19:15 25 гру 2024.
Зеленський домовився зустрітися з прем'єр-міністром Японії
18:55 25 гру 2024.
Авіакатастрофа в Казахстані: названо кількість загиблих
18:30 25 гру 2024.
Ігор Табурець про політику Героїв на Черкащині
18:15 25 гру 2024.