Чаму планаванне падарожжаў з ChatGPT ці Gemini небяспечнае
Уяўнае месца ў Перу ці Эйфелева вежа ў Пекіне: падарожнікі ўсё часцей выкарыстоўваюць інструменты накшталт ChatGPT для пошуку ідэй для маршрутаў — і трапляюць у месцы, якіх насамрэч не існуе, піша BBC Travel.
Ілюстрацыйны здымак. Фота: vecteezy.com
Мігель Анхель Гонгора Меса, заснавальнік і дырэктар Evolution Treks Peru, знаходзіўся ў сельскім перуанскім мястэчку, рыхтуючыся да паходу ў Андах, калі пачуў цікавую размову. Двое турыстаў без суправаджэння абмяркоўвалі свае планы выправіцца самастойна ў горы да «Свяшчэннага каньёна Хумантая».
«Яны паказалі мне скрыншот, упэўнена напісаны і напоўнены яркімі прыметнікамі, — але гэта была няпраўда. Ніякага Свяшчэннага каньёна Хумантая не існуе!» — кажа Гангора Меса.
«Гэтая назва з'яўляецца спалучэннем двух розных месцаў, якія не маюць ніякага дачынення да апісання. Турыст заплаціў амаль 160 долараў, каб дабрацца да сельскай дарогі паблізу Мальлепаты без гіда і нават без сапраўднага пункта прызначэння», — дадае ён.
Больш за тое, Гангора Меса сцвярджае, што гэтая, здавалася б, нявінная памылка магла каштаваць гэтым падарожнікам жыцця.
«Такія ілжывыя звесткі небяспечныя ў Перу, — тлумачыць ён. — Вышыня, кліматычныя змены і даступнасць маршрутаў павінны быць старанна пралічаны. Калі вы карыстаецеся праграмай накшталт ChatGPT, якая спалучае выявы і назвы, ствараючы выдумку, вы можаце апынуцца на вышыні 4000 м без кіслароду і без тэлефоннага сігналу».
Усяго за некалькі гадоў інструменты штучнага інтэлекту (ШІ), такія як ChatGPT, Microsoft Copilot і Google Gemini, прайшлі шлях ад простай навінкі да неад'емнай часткі планавання падарожжаў для мільёнаў людзей.
Згодна з адным апытаннем, 30% міжнародных турыстаў ужо выкарыстоўваюць генератыўныя інструменты ШІ і спецыяльныя сайты для падарожжаў, такія як Wonderplan і Layla, каб арганізаваць свае паездкі.
Хоць гэтыя праграмы могуць быць карыснымі, калі працуюць правільна, яны таксама здольныя завесці людзей у непрыемныя ці нават небяспечныя сітуацыі, калі даюць збой.
Некаторыя падарожнікі ўсведамляюць гэта, калі прыбываюць да свайго нібыта пункта прызначэння і высвятляюць, што іх накіравалі ў месца, якое існуе толькі ва ўбудаваным уяўленні робата.
Іншыя падарожнікі сутыкнуліся з праблемамі, калі спрабавалі дасягнуць месцаў, якія існуюць толькі ў фантазіях алгарытмаў. Напрыклад, блогерка Дана Яа са сваёй парай, карыстаючыся парадамі ChatGPT, не змагла спусціцца з гары Місен у Японіі, бо канатная дарога, насуперак сцвярджэнню ШІ, ужо была зачынена.
Некаторыя прыклады дэзынфармацыі выглядалі абсурдна: Layla сцвярджала, што Эйфелева вежа знаходзіцца ў Пекіне. Паводле апытання 2024 года, каля 33% карыстальнікаў ШІ атрымалі ад яго няпэўныя або памылковыя парады.
Ганаровы прафесар машыннага навучання Рэйдыд Гані тлумачыць, што вялікія моўныя мадэлі «не разумеюць», а проста статыстычна камбінуюць словы. Гэта вядзе да з’явы, якую спецыялісты называюць «галюцынацыяй» — калі ШІ выдумляе інфармацыю, падаючы яе як праўдзівую.
Некаторыя фэйкі наогул ствараюцца мэтанакіравана: так, у Малайзіі відэа ў TikTok паказвала неіснуючую канатную дарогу, згенераваную ШІ. А на YouTube, без дазволу аўтараў, ШІ «рэдагаваў» знешнасць людзей у відэа, што выклікала абурэнне.
Тэндэнцыя да «ўпрыгажэння» рэальнасці з дапамогай ШІ можа разбураць сутнасць падарожжа, лічыць псіхатэрапеўт Хаўер Лабурт: рэальны досвед, кантакт з культурай і людзьмі замяняецца фантазіямі.
У адказ на праблему некаторыя краіны, у тым ліку ЕС і ЗША, прапануюць увядзенне вадзяных знакаў і іншых маркераў на згенераваным кантэнце. Але, як адзначае Гані, рэгуляваць такія сістэмы цяжка, і галоўнае — навучыць карыстальнікаў распазнаваць фэйкі.
ШІ-сістэмы, па словах кіраўніка Google Сундара Пічаі, могуць у прынцыпе «заўсёды галюцынаваць». Таму адзіная гарантыя бяспекі падарожнікаў — крытычнае мысленне і праверка ўсіх звестак.
У рэшце, падарожжа можа застацца цудоўным досведам нават пасля няўдачы — калі здолець ператварыць памылку ў новае адкрыццё.