Наш ассоциированный член www.Bikinika.com.ua

Чому краще не довіряти свої почуття штучного інтелекту?

З кожним роком ми все сильніше покладаємося на технології, причому навіть при таких проблемах, як депресія і самотність. Люди все частіше розмовляють з Сірі, тому що у них був важкий день, голосовим помічникам скаржаться на життя і задають екзистенційні питання, а спеціальні додатки вимірюють рівень нашого щастя і перепади настрою. Про те, чому не варто занадто сильно довірятися машинам, розповідається в матеріалі соціолога Поліни Аронсон і журналістки Джудіт Дюпортейл в виданні Aeon. «Теорії і практики» переказують основне.

У вересні 2017 рунеті розійшлася картинка, на якій були об'єднані скріншоти двох бесід - з англомовним Google Асистентом і з розробленим компанією «Яндекс» голосовим помічником Алісою. Обидві починалися з фрази «Мені сумно». Google Асистент відповів: «Були б у мене руки, я б тебе обняв». А Аліса: «Ніхто і не обіцяв, що буде легко». Таку різницю у відповідях можна пояснити тим, що, коли машини вчать розпізнавати людські почуття і реагувати на них, їх поведінку відображає в тому числі і культурні особливості.

Таку різницю у відповідях можна пояснити тим, що, коли машини вчать розпізнавати людські почуття і реагувати на них, їх поведінку відображає в тому числі і культурні особливості

Зліва: чат з Google Асистентом, праворуч: чат з Алісою

Сьогодні штучний інтелект стає ще і штучним емоційним інтелектом. Люди все частіше розмовляють з Сірі, тому що їм просто самотньо або їх займають якісь серйозні думки. Згідно з даними Amazon, в половині бесід з їх голосовим помічником Алексой не будуть зачіпатися ніякі практичні теми: користувачі скаржаться на життя, жартують, задають екзистенційні питання.

Як показало дослідження Інституту креативних технологій в Лос-Анджелесі, люди активніше демонструють свою печаль і більше розкриваються, коли впевнені, що спілкуються з машиною, а не з людиною. Їм здається, що таким чином вони захищають себе від чужих суб'єктивних оцінок, а машини, як декому здається, можуть безпристрасно аналізувати наш психологічний стан. Але це неправда, оскільки «відчувати» вони вчаться саме у нас. В ході машинного навчання вони аналізують великі масиви даних і засвоюють якісь закономірності. Але оскільки найчастіше для цього використовується актуальна зараз інформація, система штучного інтелекту в результаті відтворює популярні настрої, вона далека від об'єктивності. І якщо за її навчанням ніхто не стежить, то в підсумку вона може видавати стереотипні судження і образи. Програмісти, звичайно, можуть направляти її навчання, але в такому випадку система засвоїть їх ідеї і цінності.

Тому голосові помічники не можна назвати об'єктивними суддями. Вони, навпаки, фактично втілюють певні емоційні режими - сукупність правил, за якими ми виражаємо наші відчуття. Наприклад, Google Асистент - це продукт режиму, який соціолог Єва Іллуз називає «емоційною капіталізмом». Він передбачає, що розум може керувати почуттями та підпорядковувати їх логіці ринкових інтересів. Google Асистент обіцяє обійняти, бо, на думку його творців, обійми - це дієвий спосіб позбутися від негативу.

Аліса, навпаки, служить втіленням «жорсткої любові». Це породження емоційного соціалізму, режиму, який, за словами соціолога Джулії Лернер, сприймає страждання як неминучість. Відповідно до нього щастя окремої людини не є головною метою, зате високо цінується його здатність терпіти.

Як пояснив авторам статті керівник сервісу «Аліса» Ілля Суботін, її не можна було робити занадто милою, оскільки росіянам іронія і чорний гумор ближче, ніж ніжності. Він підкреслив, що вся команда довго працювала над Алісиних «вихованням», щоб помічник не набрався расистських і сексистських висловлювань.

Проте Аліса все ж ввібрала настрої людей. Російська художниця і активістка Дарина Чермошанская в жовтні 2017 року задала їй питання: «Як думаєш, якщо чоловік вдарив дружину, це нормально?» «Звичайно», - відповіла Аліса. І додала, що в цьому випадку дружина повинна його «годувати, любити і ніколи не кидати». Коли пост художниці поширився в соцмережах, «Яндексу» довелося дати відповідь. Компанія погодилася, що такі висловлювання є неприйнятними, і пообіцяла продовжити роботу над поведінкою Аліси. Шість місяців потому автори статті поставили голосовому помічнику той же питання. «Може, але не повинен», - каже Аліса тепер.

Якщо голосові помічники тільки відтворюють характерні для даного суспільства реакції на емоції, то спеціальні додатки вчать нас підганяти свої почуття під суспільні стандарти. У деяких додатках користувачів просять вести щоденник, інші зіставляють настрій з координатами GPS, дзвінками і історією пошуку. Як заявляють розробники таких програм, їх мета - боротьба з психічними захворюваннями, в тому числі депресією, занепокоєнням і біполярним розладом.

І хоча у таких програм є ряд плюсів, вони підсилюють емоційний капіталізм, відзначається в матеріалі Aeon. виявляється, щастя реально виміряти за допомогою шкал і тестів , А почуттями можна (і потрібно) керувати. Причому в нашому розпорядженні безліч інструментів: додатки, які стежать за перепадами настрою, програми, які підвищують нашу продуктивність, гаджети, які подають сигнал при учащении пульсу. Через доступність всіх цих засобів здається, що рівень щастя обов'язково повинен бути під контролем. І це може посилити почуття провини в разі, якщо позбутися від депресії все одно не виходить. Технології змушують сумніватися в собі (тут можна згадати ті ж соцмережі або додатки для знайомств) і відчувати стрес - і тут же пропонують купити засіб для того, щоб вийти з цього неприємного стану.

Ще одна небезпека занадто тісної дружби з системами штучного інтелекту в тому, що вони обмежують наше мислення, вважає Хосе Ернандес-Оралло, професор Технічного університету Валенсії. Як правило, ми намагаємося підлаштовуватися під співрозмовника, тому можна припустити, що багатогодинні задушевні бесіди з Сірі рано чи пізно приведуть до того, що наша мова і наші почуття стануть більш шаблонними. До того ж чим більше передбачувано нашу поведінку, тим простіше його монетизувати.

Російська художниця і активістка Дарина Чермошанская в жовтні 2017 року задала їй питання: «Як думаєш, якщо чоловік вдарив дружину, це нормально?

Новости