Ілюстрацыя ласкава: Джо М.

Алгарытмы кажуць нам, як мысліць, і гэта змяняе нас

Калі кампутары вучацца нас пераймаць, мы пачынаем стаць больш падобнымі на іх?

Сіліконавая даліна ўсё часцей прадказвае, як мы адкажам на электронны ліст, адкажам на чужую Instagram-карцінку, якімі дзяржаўнымі паслугамі мы можам скарыстацца, і ў хуткім часе будучы памочнік Google можа патэлефанаваць для нас у цырульню. Час.

Мы запрасілі алгарытмы практычна ўсюды, ад бальніц і школ да залаў суда. Нас акружае аўтаномная аўтаматызацыя. Радкі кода могуць сказаць нам, што мы бачым, каго мы бачым дагэтуль і каго судовая сістэма павінна адправіць у турму.

Ці памыляемся мы, перадаючы столькі ўлады для прыняцця рашэнняў і кантроль над радкамі кода?

Мы апантаныя матэматычнымі працэсамі, таму што яны даюць нам хуткія і дакладныя адказы на шэраг складаных задач. Сістэмы машыннага навучання былі рэалізаваны практычна ва ўсіх сферах нашага сучаснага грамадства.

Што мы павінны спытаць, ці памыляемся мы, прымаючы столькі рашэнняў і кантролю над радкамі кода? І як алгарытмы ўплываюць на наша жыццё?

У свеце, які змяняецца, машыны выдатна працуюць над тым, каб даведацца, як паводзяць сябе людзі, што нам падабаецца і ненавідзець і што лепш для нас у хуткім тэмпе. У цяперашні час мы жывем у камерах прагнастычных тэхналогій - О, эй, там аўтазапаўненне!

Алгарытмы кардынальна змянілі наша жыццё шляхам сартавання велізарных дадзеных і прадастаўлення нам адпаведных імгненных вынікаў. Збіраючы вялікую колькасць дадзеных, за гэтыя гады мы далі кампаніям магчымасць самастойна вырашаць, што лепш для нас.

Такія кампаніі, як Alphabet ці Amazon, паставілі адпаведным алгарытмам сабраныя дадзеныя і даручылі AI выкарыстоўваць сабраную інфармацыю для адаптацыі да нашых патрэбаў і для таго, каб стаць больш падобнымі на нас. Калі мы прывыклі да гэтых практычных функцый, мы гаворым і паводзім сябе як кампутар?

"Алгарытмы па сваёй сутнасці не справядлівыя, таму што чалавек, які стварае мадэль, вызначае поспех". - Кэці О'Нэйл, навукоўца дадзеных

Дзякуючы гэтай тэхналагічнай хуткасці немагчыма ўявіць сабе бліжэйшую будучыню, у якой нашы паводзіны кіруюцца альбо дыктуюцца алгарытмамі. На самай справе гэта ўжо адбываецца.

Google распрацаваны, каб дапамагчы вам хутка пісаць паведамленні і адказваць на пытанні. Апошняя функцыя Gmail, Smart Replies, была прадстаўлена ў кастрычніку мінулага года. Паколькі многія людзі пачалі штурм Інтэрнэту, яны раскрытыкавалі майстра і сказалі, што ягоныя прапановы былі інвазіўнымі, прымусілі людзей выглядаць як машыны, а некаторыя нават сцвярджалі, што яго адказы ў канчатковым выніку могуць паўплываць на тое, як мы маем зносіны альбо, магчыма, змяніць этыкетку электроннай пошты.

Галоўная праблема з алгарытмамі, калі яны стануць настолькі вялікімі і складанымі, што негатыўна паўплываюць на наша цяперашняе грамадства, ставяць пад пагрозу дэмакратыю, - прывітанне Марк Цукерберг, альбо ўцягнуць грамадзян у мерапрыемствы Орвелія, такія як Кітай, праз крэдытаздольнасць людзей. Далей ацэньвайце свае паводзіны пры дапамозе дыстапскай праграмы назірання.

Таму што машыннае навучанне становіцца ўсё больш распаўсюджаным у многіх сферах грамадства. Ці будуць алгарытмы кіраваць светам і пераняць нашы думкі?

Зараз давайце прытрымлівацца падыходу Facebook. У 2015 годзе яны запусцілі больш новую версію стужкі навін, якая дазваляе карыстальнікам спрытна інтэграваць канал у персаналізаваную газету і публікаваць змест, які ім раней спадабаўся, дзяліўся і каментаваў.

Праблема з "персаналізаванымі" алгарытмамі заключаецца ў тым, што карыстальнікі могуць патрапіць у фільтруючыя бурбалкі ці рэха-камеры. У рэальным жыцці большасць людзей значна менш схільныя разглядаць праблемы, якія лічаць іх незразумелымі, раздражняльнымі, няправільнымі альбо агіднымі. З дапамогай алгарытмаў Facebook яны даюць карыстальнікам тое, што яны хочуць, так што кожны корм для чалавека становіцца унікальным светам. Безумоўная рэальнасць сама па сабе.

Фільтр-бурбалкі ўскладняюць публічную дыскусію, бо інфармацыя і дэзінфармацыя выглядаюць зусім аднолькава з пункту гледжання сістэмы. Як нядаўна Роджэр Макнамі пісаў у часопісе Time: "У Facebook факты не з'яўляюцца абсалютнымі фактамі. Гэта выбар, які першапачаткова пакідаюць карыстальнікі і іх сябры, але потым пашыраюцца з дапамогай алгарытмаў прасоўвання ўзаемадзеяння. "

Фільтр-бурбалкі ствараюць ілюзію, што кожны верыць у аднолькавыя рэчы, якія мы робім, альбо мае аднолькавыя звычкі. Як мы ўжо ведаем, алгарытмы ў Facebook абвастрылі праблему за кошт павелічэння палярызацыі і ў канчатковым выніку шкоды дэмакратыі. Маючы дадзеныя, якія паказваюць, што алгарытмы могуць паўплываць на рэферэндум у Вялікабрытаніі ці выбары ў ЗША 2016 года

"Алгарытмы Facebook прасоўваюць экстрэмальныя паведамленні аб нейтральных, якія могуць прывесці да дэзінфармацыі інфармацыі, тэорыі змовы пра факты". - Роджэр Макнамі, інвестар Сіліконавай даліны

У сучасным свеце, які ўвесь час напоўнены пагрозлівай колькасцю інфармацыі, для некаторых людзей прагляд з'яўляецца асноўнай праблемай. AI - выкарыстоўваецца з розумам - можа палепшыць чыйсьці досвед у Інтэрнэце альбо дапамагчы ім хутка справіцца з пастаянна расце зместам. Аднак для правільнай працы алгарытмам патрэбны дакладныя дадзеныя пра тое, што адбываецца ў рэальным свеце.

Прадпрыемствы і ўрады павінны сачыць за тым, каб дадзеныя алгарытму не былі скажоныя альбо недакладныя. Паколькі нішто не мае ідэальнага характару, можна чакаць, што неаб'ектыўныя дадзеныя ўжо ёсць у многіх алгарытмах, і гэта ставіць пад пагрозу не толькі наш інтэрнэт-свет, але і фізічны, рэальны.

Мы абсалютна павінны працаваць над укараненнем больш жорсткіх нарматыўных рамак, каб мы не апынуліся на дзікім захадзе тэхналогій.

Мы павінны быць вельмі ўважлівымі да выканання алгарытмаў. Выклікаюць заклапочанасць праблемы з празрыстасцю, якія алгарытмы прыносяць з сабой, этычныя наступствы рашэнняў і працэсаў, якія яны прымаюць, і сацыяльныя наступствы для людзей.

Напрыклад, ІІ, які выкарыстоўваецца ў судовых залах, можа павялічыць прадузятасць і дыскрымінаваць меншасці, разглядаючы "фактары рызыкі", такія як іх наваколлі і сувязі са злачыннасцю. Гэтыя алгарытмы маглі б сістэматычна рабіць катастрафічныя памылкі і адпраўляць у турму нявінных, сапраўдных людзей.

"Ці нам пагражае страта чалавечнасці?"

Як эксперт па пытаннях бяспекі, Брус Шнейер пісаў у сваёй кнізе "Націсніце тут, каб забіць усіх": "Калі мы прымусім кампутары думаць самі пра сябе, і базавыя дадзеныя будуць пашкоджаны, яны будуць думаць дрэнна, і мы ніколі не даведаемся".

Ханна Фрай, матэматык з Універсітэцкага каледжа ў Лондане, пераносіць нас у свет, дзе кампутары працуюць свабодна. У сваёй нядаўняй кнізе Hello World: быць чалавекам у эпоху алгарытмаў яна сцвярджае, што мы, грамадзяне, павінны больш увагі надаваць людзям, якія стаяць за клавіятурай, тым, хто праграмуе алгарытмы.

"Мы не павінны ствараць свет, дзе машыны кажуць нам, што рабіць і як думаць, хоць мы можам апынуцца ў такім свеце", - кажа яна. У кнізе яна часта пытаецца: "Ці нам пагражае страта чалавечнасці?"

У цяперашні час мы не знаходзімся ў той фазе, калі людзей няма на здымку. Наша роля ў гэтым свеце не выйшла з рук і пройдзе шмат часу. Людзі і машыны могуць працаваць разам са сваімі моцнымі і слабымі бакамі. Машыны няспраўныя і робяць тыя ж памылкі, што і мы. Мы павінны быць асцярожныя, колькі інфармацыі і энергіі мы адмаўляем, бо алгарытмы сёння з'яўляюцца неад'емнай часткай чалавецтва і больш нікуды не ідуць так хутка.