Openal, Microsoft і Amazon дамовіліся абараняць чалавецтва ад магутных ШІ-сістэм
Верагоднасць «уцёкаў» нейрасеткі ад чалавека расце. Гэта першае маштабнае пагадненне па бяспецы штучнага інтэлекту.

OpenAI, Microsoft, Amazon і яшчэ 13 буйных кампаній, якія займаюцца распрацоўкамі ў сферы штучнага інтэлекту, падпісалі маштабнае пагадненне аб бяспецы.
Дамова прадугледжвае, што кампаніі распрацуюць спецыяльныя пратаколы бяспекі, якія дазволяць не выкарыстоўваць штучны інтэлект у небяспечных для чалавецтва або злачынных мэтах. Кампаніі таксама павінны будуць растлумачыць, як яны збіраюцца ацэньваць рызыкі і якія пастановы будуць прымаць у тых ці іншых сітуацыях, паведамляе брытанскі ўрад.
Таксама падпісанты пагаднення вызначаць «чырвоныя лініі», пры перасячэнні якіх распрацоўкі будуць прыпыняцца, а праекты — адключацца. Вызначыць гэтыя «чырвоныя лініі» дапамогуць урады краін.
У ліку патэнцыйных рызык называюць аўтаматызаваныя кібератакі і пагрозу стварэння біялагічнай зброі з дапамогай ШІ. Для такіх выпадкаў кампаніі павінны будуць прадугледзець» аварыйныя выключальнікі», актывацыя якіх прыпыніць распрацоўкі.
Пагадненне было падпісана ў ходзе Саміту па ШІ ў Сеуле. Акрамя таго, на канферэнцыі кіраўнік OpenAI Сэм Альтман анансаваў выхад GPT-5. Падрабязнасцяў ён не раскрыў, аднак намякнуў, што новая версія ШІ будзе значна больш магутнай за папярэднюю — на слайдзе, які паказаў Альтман, GPT-5 прадстаўлена ў відэа вялізнага кіта, тады як GPT-4 намаляваная касаткай. Чакаецца, што сістэма будзе запушчана ў найбліжэйшыя месяцы.
Эксперты і карыстальнікі раней выказвалі меркаванне, што з выхадам GPT-5 верагоднасць «уцёкаў» ШІ з-пад чалавечага кантролю ўзрасце да 22%.
-
Студыя з мінскімі каранямі выпусціла відэагульню пра Галівуд. У яе можна гуляць па-беларуску
-
Навукоўцы сцвярджаюць, што адкрылі новы колер, які ніхто раней не бачыў. Але ўбачыць яго амаль нерэальна
-
Перасылка рылса ў інстаграме можа вас выдаць. Гэтую функцыю нельга адключыць, але можна абараніць сябе — вось як
Каментары