Навченый штучный інтелект може говорити замісто вас, як вас загребут. Ци етічно сесе?

Дниська сістемы машінового учіня потихы залїзавут у нашу каждоденну рутину, чим дале тым май бӯлше, спозад чого з часом будеме мусїти звідати ся самых себе накӯлко тото етічно? Будеме мусїти переникати наші моралні тай соціалні цїнности, переникати правила, за котрыми исе фунґує. Уже типирь ціфрові асістенты рушат наш личный простор, фурт нас слухавут; рекомендачі новинок правлят тото, як мы будеме читати новостї тай розуміти што ся дїє у світови; сістемы проґнозованя різікох пудказувут соціалным службам котрым дїтьом май треба помочи; а сістемы оперованя великыма базами податкӯв будут вызначати ваші шансы дӯстати місто на роботї. Но у тот самый час етічный бӯк сього процеса не дуже ясный, накӯлко справедливо є сякоє дїйство.

Грабавучи ся у науковых роботах молодых інженерӯв, што штудувут курс Етікы Інформаційных тай Комунікаційных Технолоґій універзіты UCLouvain у Белґії, автора читаво шоковала публикація Джошуы Барбо, 33-рӯчного штудента, котрый хосновав сайт Project December обы сотворити робота, чат-бота, котрый бы сімуловав діалоґ из його покӯйнов фрайирков Джесіков.

Чат-бот імітує покӯйных люди

Сякый тіп чат-ботӯв на інтернетови кличут «dead-bot» (выд слӯв «мертвый» тай «робот»), робот «Джесіка» поволив Джошуови попереписовати ся из свойив покӯйнов фрайирков. Хоть тема сеся, бизӯвно дуже контроверзійна, но не часто находят ся роботы, котрі бы аж так глубоко пробирали нюансы сякого трафунка из етічного бока: чим исе добрі, а чим исе не добрі; ци сякоє етічно слобӯдно робити ци нє; ци варта тратити час на сотворїня «дед-бота»?

Сперед тым, як ся грабати у моралных звіданьох, раз си уясниме што тото за Project December? Сись сайт быв сотвореный розробником бавок Джейсоном Рогрером, обы дати людьом возмогу кастомізовати чат-ботӯв, обы они выдказовали як дакотрі спеціфічні особы, обы мали персону; за симболічну платню на сайтови. Ядро сайта фунґує на базісови API из GPT-3, што є модельов текстового ґенерованя, фірмы изглядованя штучного інтелекта OpenAI. Правда сись трафунок породив конфлікт помежи фірмов OpenAI тай розробником Рогрером, бо у документації руно пише ож проєкт GPT-3 настрого не мож хосновати про сексуалный, любовный, самовраждовый контекст.

Спозад того конфлікта, хоть Рогрер казав ож стандарты OpenAI дуже моралістські, тай ож пан Барбо быв дороснутым чилядником, а не дїтваком, ай так мусїв заперти на сайтови верзію чат-бота, што хосновала GPT-3.

Мы всї маєме свою інтуіцію тай своє чутя, можеме самі си подумати ци было етічно добрі ци не добрі розробляти чат-бота выд лиця мертвого чилядника. Айбо сись конкретный приклад, за котрый ся туй высше казало, указує нам ож практічні приклады реалізації не усе годни быти такі прості, так як будут выхосновані? Завто є важно прӯбрати исї моменты уже, покрочно.

Ци было доста согласа тай желаня пана Барбо обы сотворити дед-бота?

Джесіка, прощена бы, была реалным чилядником, та вызират ож самоє бажаня Барбо — тото не доста. Бо люди ся убставут людьми ай по смерти, та не можеме маніпуловати йихньым інтелектуалным наробком так ги нам ся хоче. Сут свої причины чого наш соціум честує покӯйных люди, тай сокотит за них памнять. Кидь накурто — мы чуєме ож мусиме сокотити тай честовати не лиш живых люди, но ай памнять за мертвыми тоже. Так, гибы они щи не домак умерли у нашых головах, мы сперед ними щи зодповідні. Бо чилядник, котрого загребли, не пропав, не быв вытертый из світа у інформаційному тай културному планови. Є цїлый шор моралных правил, котрі у нас фунґувут не лиш на живых, но ай на мертвых.

Но щи не вырїшеным є звіданя ци треба нам сокотити по смерти подакотрі парва чилядника, гикой приватнӯсть тай персоналні податкы (приватні перепискы у соцсітьох тоже туй сут). Выроба чат-бота, котрый бы імітовав даякого чилядника, тото процес, у котрому треба выхосновати преповно персоналної інформації за чилядника, наприклад дані из соціалных сїтюв (дашто подобноє вже понукали ай Microsoft, ай Eternime), а сякый пристум може выдкрыти персоналну інформацію, котру сам чилядник удкрывати не мав бы дяку.

Кидь ся так стало, ож мы рахуєме етічно неслобӯдным позирати персоналні податкы даякого чилядника, закидь вӯн живый, та чом бы тото стало слобӯдно по його смерти? У сякому припадови, кой хочеме розробити чат-бота, котрый буде імітовати ужек мертвого чилядника, та нам бы ся треба того чилядника попросити ци мож, а у сьому припадови, Джесіку уже ся не попросиш.

А кидь чилядник дав соглас на сякоє кой щи жив?

Но туй ся треба зазвідати: ци было бы согласа Джесікы обы пак чинити такого чат-бота по єї смерти? Ци не буде такый чат-бот деґенератівным тай деструктівным про образ Джесікы тай памнять за ниї?

Згода чилядника тото добрі, айбо у тої згоды тоже мусят быти даякі лімітації. Прикладом туй може быти правованя Ротенбурґського Канібала, котрого засудили довічно сидїти в тюрьмі за тото, ож изїв чилядника, не позиравучи на тото, ож його жертва дала прямый соглас быти изїдженов. Каже ся, ож є неетічно давати соглас на тото, што нам самым може зашкодити фізічно (наприклад продавати свої орґаны), авадь май абстрактно (дати дакому права на свої інтелектуалні доробкы, памнять).

Тяжко говорити за тото, яку потенціалну «шкоду» исе може учинити мертвым, тото тяжкоє звіданя, котроє автор туй аналізовати раз не буде. Но треба уважовати, ож хоть мертвого чилядника не мож уразити напряму, так ги тото можете учинити из живым, но тото не значит ож вы не можете даяк спаскудити йих образ неетичными дїянями. Покӯйных ай так мож уразити, у смыслови ож можете нашкодити йихнюв репутації тай чести (наприклад нарочноє сміхованя из чилядника по його смерти), тай веце ож такі уразы можут нашкодити близкым до покӯйного людьом. Бӯлше того, не честувучи памнять за мертвых, мы можеме изсунути наш соціум у такый, котрый буде менше сокотити честь люди навгул.

Но тай на кониць, розумівучи накӯлко тяжко віщовати як ипен буде фунґовати штучный чат-бот, даже мавучи тоталный соглас чилядника учинити такый бот по смерти, мы обєктівно не розумієме на што конкретно чилядник дає соглас, якым пак выйде тот чат-бот.

Розумівучи сесе, было бы лоґічно припустити, ож кидь дед-бот выйде домак не похожым на чилядника по бисїдї, авадь буде сохтованый не у такых контекстох, на котрі давав ся соглас чилядника, та тот соглас мож раховати не валідным. Бӯлше того, кидь хоснованя того чат-бота даяк шкодит образу тай чести чилядника, та тот соглас тым бӯлше не мож раховати достаточным обы исе раховати етічно слобӯдным.

Тко зодповідный?

Тритя проблема є, ож ци має сістема штучного інтелекта пробовати імітовати абсолутно каждоє хованя чилядника? Не никавучи на тото, накӯлко тото реалістично.

Ися тема вже давно ся обговорює у сфері штучного інтелекта, тай она дуже силно закапчана из конфліктом помежи Рогрером тай фірмов OpenAI. Ци маєме мы розробляти штучні інтелекты, котрі бы были валовшні за дакым гатковати, авдаь робити політічні рїшеня? Видит ся ож ипен туй живый чилядник дачим ся удрїзнят выд звірюв тай штучных машин. Значит туй важно варовати себе выд припадӯв, кой сістемы из штучным інтелектом будут хосновані обы замінити нам нашых живых цімборӯв авадь любимых, бо тото може у далекӯв перспективі знецїнити самых живых люди, знецїнити тото, што робит нас людьми.

Четверта проблема — тко буде зодповідный за дїяня чат-бота? А кым май — кидь тот дед-бот дакому нашкодит, дакого уразит.

Представте си сітуацію, ож чат-бот Джесікы навчив ся дїяти так, ож даяк уразив памнять за саму живу Джесіку, авадь даяк нашкодив псіхічному здоровлю самого Барбо. Тко буде за тото зодповідный? Експерты по штучному інтелектови кажут ож сесе тяжкоє звіданя, тай выдповідати на нього треба крӯзі два пудходы:

  • первый, кой зодповідными будут розробникы сістемы штучного інтелекта, кидь ото ся робило подля йихньых прінціпӯв тай назорӯв;
  • другый, з розуміньом важности контексту, у котрому ся хоснує тот штучный інтелект, тогды зодповідными будут ушыткі, тко ся трудив над сотворїньом тай хоснованьом.

Автор текста держит ся ближе до первого пудхода. У сьому конкретному припадови была каскадна розробка чат-бота, до чого ся дӯклали ай фірма OpenAI, ай проґрамішта Джейсон Рогрер, ай хосновач Джошуа Барбо. Та было бы лоґічно дїлити зодповіднӯсть руно так каскадно помежи нима.

За первоє, было бы тяжко покласти ушытку зодповіднӯсть на фірму OpenAI, бо они у свойих соглашіньох прямо написали ож сяк чат-бота хосновати не мож.

Добрый дараб зодповідности має падати ай на проґрамішту Рогрера, бо вӯн ай создав платформу, де дуже легко ся дає учинити дед-бота; не лишив си ниякого путя наскоринько рїшити подобну проблему, не приладив ся; даякый час уже знав ож його чат-боты не фунґувут подля правил фірмы OpenAI; тай на кониць — вӯн на тому заробив гроші.

Справедливо тоже буде уповісти ож Барбо тоже має свою зодповіднӯсть за ситуацію, бо вӯн нарочно учинив чат-бота, котрый бы приказовав ги його покӯйна любима Джесіка, та мож уповісти ож вӯн мӯг читаво нашкодити памняти за ниї.

Ци може быти етічно слобӯдно в конкретных ситуаційох?

Дале вернеме ся ид вопросови, што сьме ся звідали май на зачаткови: ци етічно слобӯдно чинити чат-бота што буде мімікровати пуд перич живого чилядника? Можеме выдповісти лиш у такых кондіційох:

  • Ай чилядник, из чийої персоны ся чинит чат-бот, ай хосновач-кастомізатор, котрый налажує тай «учит» сістему, мусят ся согласити лиш як перечитавут детайлну схему сотворїня, штімованя, тай хоснованя будучої сістемы;
  • Не мож допускати до розробы тай хоснованя особ, котрі годни нашкодити чести імітованої особы;
  • Ушыткі люди, што розробляли тай хосновали чат-бота, а тым бӯлше тоты, тко на тому зарабляв гроши, мавут роздїляти зодповіднӯсть за потенційну шкоду, котру може принести дед-бот. При тӯм не лиш зодповідати за минувші дїї, но ай модіфіковати сістему обы не допускати повторїня сценарӯв, што уже принесли шкоду;

Сись конкретный приклад указує нам ож насправдї є важно вывчити як буде фунґовати моралный аспект у такых трафункох. Было бы добрі мати публічні дебаты, де мы можеме обговорити исю проблему тай дрылити люди на розробку правовых мір по контролови сякых ситуацій, тай навгул сістем штучного інтелекта, обы йих фунґованя было май удкрытым, май понятным тай безпечным про люди.

‘Deadbots’ can speak for you after your death. Is that ethical?
The recent case of a man making a simulation of his deceased fiancée raises important questions: while AI makes it possible to create “deadbots”, is it ethically desirable or reprehensible to do so?
Жерело