Skip to main content

Як Каталіцкі Касцёл адносіцца да выкарыстання штучнага інтэлекту ў штодзённым жыцці?

iigr

 

 Як Каталіцкі Касцёл адносіцца да выкарыстання штучнага інтэлекту ў штодзённым жыцці?

Адказвае кс. Валерый Спірыдон

Распачынаючы гэты артыкул, я пакорліва ўсведамляю, што ён можа стаць неактуальным, бо з вялікай хуткасцю выходзяць новыя абнаўленні мадэляў штучнага інтэлекту і могуць быць новыя магчымасці і небяспекі.

Як хрысціяне павінны ставіцца да штучнага інтэлекту — як да пагрозы альбо інструмента, магчымасці для духоўнага росту?

Звернемся да вучэння Каталіцкага Касцёла. Дыкастэрыі па справах дактрыны веры, культуры і адукацыі сумесна апублікавалі дакумент “Antiqua et Nova” пра сувязь паміж штучным інтэлектам і чалавечым інтэлектам.

Штучны інтэлект нельга разглядаць як асобу, нельга яго ідэалізаваць і нельга дазваляць яму замяняць міжасобасныя адносіны, а трэба выкарыстоўваць “выключна як дадатковы інструмент да чалавечага інтэлекту”.

З аднаго боку, можна пераацаніць перавагі, якія з гэтага вынікаюць, і нават казаць пра развіццё AI як “частку супрацоўніцтва” паміж чалавецтвам і Богам “у давядзенні бачнага стварэння да дасканаласці”. З іншага боку, наступствы застаюцца непрадказальнымі — нават тыя, якія ў цяперашні час здаюцца бяскрыўднымі, такія як стварэнне тэкстаў і малюнкаў.

Этычныя і антрапалагічныя аспекты:

Чалавечы інтэлект “рэалізуецца ва ўзаемаадносінах”, фармуецца Богам і “пластыфікуецца праз незлічоныя перажыванні, якія адчуваюцца ў целе”.
Штучны інтэлект “не мае здольнасці развівацца ў гэтым сэнсе”. Яго погляд “чыста функцыяналісцкі”, ён ацэньвае людзей выключна праз прызму іх працы і дасягненняў.

Таму “ўводзіць у зман” выкарыстанне слова “інтэлект” у дачыненні да штучнага інтэлекту: гэта не “штучная форма інтэлекту”, а “адзін з яго прадуктаў”.

Мы, людзі, звычайна асацыюем валоданне мовай з уменнем думаць – інтэлектам. У цэлым да апошняга часу гэта была абсалютна разумная метрыка. Калі чалавек умее прыгожа, глыбока размаўляць на розныя тэмы, значыць, ён, хутчэй за ўсё, разумны. Ніхто, акрамя людзей, казаць не ўмее, жывёлы не ўмеюць. Адпаведна, гэта ўнікальны спосаб вызначыць інтэлект, якім, як было нам вядома да гэтага часу, валодаў толькі чалавек.

Цяпер падобнае мышленне не працуе, таму што з’явіліся іншыя інструменты, якія могуць цудоўна гаварыць, пісаць вельмі прыгожыя тэксты, чытаць і разумець вельмі складаныя тэксты. Але прытым гэта зусім не значыць, што яны думаюць у тым сэнсе, у якім думаеш ты.

Як аказалася, ёсць больш чым адзін спосаб думаць. Гэта як калі б стварыць машыну, якая статыстычна, прачытаўшы ўсе тэксты, калі-небудзь напісаныя чалавекам, навучыцца прадстаўляць кожнае слова ў кантэксце ўсіх астатніх слоў у выглядзе нейкага слупка лічбаў і пабудуе гіганцкую табліцу, у якой будзе, у літаральным сэнсе, дзвесце мільярдаў параметраў. Гэтымі двумастамі мільярдамі параметраў яна апіша ўзаемаадносіны кожнага слова ў кожным кантэксце з кожным іншым словам у мове. І тады гэтая мадэль можа прадказваць наступнае слова для любога няскончанага ўрыўку тэксту. Напрыклад, пачаткам тэксту можа быць тваё пытанне, а далей будуць словы, якія найбольш верагодна павінны прытрымлівацца адказу на гэтае пытанне. Вось, простымі словамі, тое, як змайстраваны АІ.

Як і любы прадукт чалавечага генія, штучны інтэлект можа быць накіраваны “як на пазітыўныя, так і на адмоўныя мэты”, падкрэслівае “Antiqua et Nova”.
Касцёл не адмаўляе таго, што штучны інтэлект можа ўводзіць “важныя інавацыі” ў розных галінах; ён таксама можа павялічыць маргіналізацыю, дыскрымінацыю, беднасць, “лічбавы разрыў” і сацыяльную няроўнасць. У прыватнасці, ён выклікае “этычныя праблемы” з нагоды таго, што “большая частка ўлады над асноўнымі сферамі прымянення штучнага інтэлекту сканцэнтравана ў руках некалькіх магутных кампаній”, што азначае, што гэтай тэхналогіяй можна маніпуляваць дзеля “асабістай або карпаратыўнай выгады” або для “ўплыву на грамадскую думку ў інтарэсах пэўнага сектара”.

“Аналітычныя магчымасці” штучнага інтэлекту можна было б выкарыстоўваць, каб дапамагчы краінам імкнуцца да міру і бяспекі, але аўтаномныя і смяротныя сістэмы зброі, здольныя “ідэнтыфікаваць і атакаваць адзінкі без непасрэднага ўмяшання чалавека”, выклікаюць “сур’ёзныя этычныя праблемы”.

Папа падкрэсліў: “Ніводная машына ніколі не павінна вырашаць, ці варта пазбаўляць чалавека жыцця”.

Адносна міжасобасных адносін у дакуменце адзначаецца, што штучны інтэлект можа “спрыяць сувязі”, але ў той жа час прыводзіць да “шкоднай ізаляцыі”. Лёгка забыць, што вы пішаце або размаўляеце з машынай, а не з рэальным чалавекам, што стварае асаблівыя праблемы для развіцця дзяцей.

Выкарыстанне штучнага інтэлекту часта можа прыводзіць да дэзінфармацыі ў іншых кантэкстах, такіх як адукацыя. Гэта можа быць звязана з няправільнымі адказамі і лёгкасцю доступу да адказаў, што шкодзіць развіццю вучняў. Праблема заключаецца ў тым, што многія праграмы “абмяжоўваюцца гатовымі адказамі, а не заахвочваюць вучняў самастойна шукаць іх або ствараць свае ўласныя тэксты”.

Калі штучны інтэлект выкарыстоўваецца прадумана, ён можа палепшыць доступ да навучання і забяспечыць вучням “неадкладную зваротную сувязь”.
Нягледзячы на тое, што штучны інтэлект мае “патэнцыял” павысіць кампетэнтнасць, прадукцыйнасць і стварыць новыя працоўныя месцы, ён таксама можа “панізіць кваліфікацыю супрацоўнікаў з-за непахіснасці і зніжэння інтэлектуальнай актыўнасці”. У “Antiqua et Nova” падкрэсліваецца: “Мы не можам імкнуцца да ўсё большай замены чалавечай працы тэхналагічным прагрэсам — тым самым чалавецтва шкодзіць самому сабе”.

Значная ўвага надаецца тэме аховы здароўя. Нягледзячы на тое, што штучны інтэлект мае велізарны патэнцыял у розных медыцынскіх сферах, дапамагаючы ставіць дакладныя і хуткія дыягназы, існуе рызыка таго, што замена адносін паміж лекарам і пацыентам машынамі можа ўсё больш паглыбляць адзіноту, якая часта суправаджае хваробу.

Важна таксама памятаць пра рызыку таго, што некаторыя праграмы генеруюць “скажоную або ілжывую інфармацыю” або “недакладны кантэнт”, што можа спрыяць легітымізацыі фэйкавых навін.

Што датычыцца фэйкавых навін, у дакуменце падкрэсліваюцца сур’ёзныя рызыкі, калі такі выдуманы кантэнт наўмысна выкарыстоўваецца для маніпуляцый. Напрыклад, калі выявы, відэа або запісы, якія былі зменены або згенераваны алгарытмамі, наўмысна распаўсюджваюцца, каб “падмануць або нашкодзіць”, ці дзеля забавы. Таму заўсёды патрабуецца павага да чалавечай годнасці. Таксама неабходная пільнасць для “праверкі сапраўднасці” агульнага кантэнту. Штучны інтэлект можа “генераваць маніпуляцыйны кантэнт і ілжывую інфармацыю”, тым самым ствараючы “галюцынацыі” штучнага інтэлекту, г.зн. ілжывы кантэнт, які выглядае рэальным.

Аднойчы я сутыкнуўся з цікавым фактам. Штучны інтэлект вучыцца з усяго, што ёсць у інтэрнэце: Вікіпедыя-Instagram-артыкулы-кнігі.
Мадэлям патрэбен велізарны аб’ём высокаякасных дадзеных, створаных людзьмі, каб вучыцца. Але што адбудзецца, калі ў нас скончацца гэтыя якасныя дадзеныя?

У адной з кампаній, якія займаюцца штучным інтэлектам, узнікла ідэя: давайце проста выкарыстоўваць кантэнт, які быў створаны АІ, і вучыць на гэтым кантэнце новыя мадэлі. Уявіце: вы просіце напісаць Chat цікавую гісторыю, затым вучыце на гэтай гісторыі новую мадэль АІ, затым ужо гэтую мадэль просіце напісаць тую ж гісторыю, вучыце на ёй яшчэ адну мадэль і працягваеце так рабіць – па сутнасці, ствараючы новыя дадзеныя кожнае пакаленне.

Але ў працэсе гэтага здарылася нешта неспадзяванае: мадэлі пачалі вар’яцець. Усяго праз некалькі пакаленняў яны перайшлі ад напісання складнага кантэнту да абсалютнай бязглуздзіцы – гэта амаль нібы яны забыліся, як думаць. І што выклікае турботу — дык гэта тое, што кожны дзень мільёны артыкулаў, гісторый і пастоў у сацсетках, згенераваныя АІ, напаўняюць інтэрнэт. Такім чынам, выпадкова ствараецца кола, у якім мадэлі АІ вучацца на сваім уласным кантэнце, з кожным пакаленнем становячыся ўсё больш тупымі. І гэта падобна да лічбавай дэменцыі, якая распаўсюджваецца па ўсёй сістэме АІ, лічбавага пашкоджання мозгу для гэтай канкрэтнай мадэлі. Таму кампаніі спрабуюць сабраць апошнія макулінкі чыстага кантэнту, створанага людзьмі.

Гэтым прыкладам я хацеў бы матываваць чытаць і сузіраць – напаўняцца жывым зместам.

Адсюль і канчатковая рэкамендацыя: “Штучны інтэлект павінен выкарыстоўвацца толькі як інструмент для дапаўнення чалавечага інтэлекту, а не для замены яго багацця”.

З малітвай, кс. Валерый

Рэдагавана: 23 кастрычніка 2025