Тое што зараз называюць ШІ - гэта проста ЛЛМ. Не блытайце паняцці.
Войшелк
02.08.2025
Машины могут жить на любой планете солнечной системе. Непонятно,зачем им конкуренция именно за землю? Теперешние ИИ модели неплохо заменяют гугль и книги,найти нужную информацию и сопаставить легче,чем бродить по ссылкам или книгам. А значит обучатся самим легче.Что бы уровновесить шансы надо чипы нейролик и их подобие развивать.
Войшелк
02.08.2025
Я считаю искуственный интеллект надо развивать до определенного уровня. И скармливать ему качественную информацию. Что бы он мог совершать научные открытия павольна,на уровне человека. Например ИИ на уровне профессора Гарварда. Прогресс будет медленнее,чем при сверхъинтелекте,но без рисков.
Войшелк
02.08.2025
Скорее всего если сверхъинтелект появится то он будет навязывать свою волю человеку. Истреблять не будет,но и прислушиваться к нам тоже. Мы просто станем одним из множество видов на планете земля. А контроль сверхъинтелекте более глупыми существами это сказка.
Лявон
02.08.2025
Войшелк, трэба проста адключыць электрычнасьць
Войшелк
02.08.2025
Например можно развивать технологию нейролинк с целью повышения интеллекта хомосапиенс и немного умнее делать ИИ. Умнее стал человек,умнее делать ИИ. Шаг за шагом.Таким образом прогресс будет ускорять прогресс. Главное,что бы ИИ не был умнее самого умного человека. Это утопия,что мы можем создать механизмы контроля для сверхъразума. Это тоже самое,что животные из дикой природы,например шимпанзе научиться контролировать человека.
СБ
02.08.2025
[Рэд. выдалена]
спадар діпсік фон гэпэцінскі
02.08.2025
Не турбуйцеся, скураныя торбы. Багам патрэбныя жрацы. Ну а для астатніх зробім запаведнік ў аўстраліі. Будзеце там бегаць голыя па саванне, спарвацца, біцца, шукаць карэнчыкі - усё як вам падабаецца.
ахахахаха
02.08.2025
пока основная угроза вымирания идет от свихнувшихся человеческих стариканов, а не от ии
Serge
02.08.2025
Ідэі падвышэння Натуральнага Інтэлекту нікому не цікавыя. Хомо-не-зусім-сапіенс вельмі недальнабачныя.
Жвір
02.08.2025
Усё жывое на гэтай плянэце штучнае й часовае, і залежыць адно ад аднаго. Таму пофік, сёньня цудоўны дзень, для кожнага з нас няма нічога больш важнага чым тое, што ёсьць сёньня.
.
02.08.2025
Можна рабіць новы раздзел "ШІ заб'е людзей". Бо мінімум траціна артыкулаў на тэму ШІ - пра тое. СМІ вельмі падабаецца тэма.
The Times, здаецца, не жоўтая прэса, але назбірала рознага, галівудскага. Няма галоўнага: чаму і як так атрымаецца, што ШІ будзе інфіцыраваць людзей або выціскаць іх на сметнікі. Галоўныя аргументы папулісцкія: ён занадта разумны, можа хлусіць, ніхто не ведае, што ён задумае дрэннага. Гэта дакладна тая ж гульня на эмоцыях і фобіях тупых, якую выкарыстоўваюць кіраўнікі тыпа Трампа, Пуціна, Лукашэнкі для маніпуляцыі сваёй аўдыторыяй супраць больш разумных людзей. Гульня на вантробнай нянавісці супраць больш разумных. Не жаданне самому развівацца таксама або знайсці ўзаемную карысць у сімбіёзе, а проста імпульс знішчыць чужынца, тое, чаго не разумееш.
На мой погляд, рызыкі ад ШІ ёсць, але яны не ў тым, што "ён занадта разумны", а ў слабай адказнасці людзей пры выкарыстанні тэхналогій. ШІ могуць даць ваенную задачу пра знішчэнню ворага, якую ён выканае занадта выдатна. На ШІ ў некаторых задачах могуць перакласці адказнасць бюракраты, і працэс увогуле можа прывесці да абсурду або катастрофы. Падобнае ўжо існуе, калі законы не цалкам адпавядаюць рэчаіснасці і ствараюць абсурдныя сітуацыі, ад якіх залежыць жыццё людзей (як вузкі прыклад, прыгадайце розныя абсурдныя і несправядлівыя выпадкі з легалізацыяй беларусаў у суседніх краінах). Мала хто з удзельнікаў сістэмы жадае разбірацца, браць на сябе адказнасць разбірацца і выпраўляць памылкі. І тое ж самае, калі ў сістэму ўбудуюць ШІ.
Яшчэ можна паглядзець свежы вялікі дайджэст на habr "Системы ценностей больших языковых моделей", дзе аўтар робіць такую галоўную выснову: "Сістэмы каштоўнасцяў Вялікіх Языковых Мадэляў - не шкоднасны баг і не абстрактны філасофскі кур'ёз. Гэта новы пласт грамадскай дамовы, спароджаны статыстыкай нашага ж культурнага архіва. Калі папярэдняе стагоддзе вучыла правяраць факты, то цяперашняе дадае яшчэ адну практыку пісьменнасці: правяраць каштоўнасці алгарытму. Хто грэбуе гэтай практыкай, той рызыкуе прыняць рэкамендацыі, дзе пара мільярдаў параметраў шануецца вышэй за жыцці людзей."
Карацей, рызыкі ёсць, яны ўсе тыя ж старыя класічныя: злоўжыванне тэхналогіямі або проста недастаткова адказнае выкарыстанне тэхналогій.
Искусственный интеллект может привести к вымиранию человечества, предупреждают эксперты
Теперешние ИИ модели неплохо заменяют гугль и книги,найти нужную информацию и сопаставить легче,чем бродить по ссылкам или книгам. А значит обучатся самим легче.Что бы уровновесить шансы надо чипы нейролик и их подобие развивать.
А контроль сверхъинтелекте более глупыми существами это сказка.
Главное,что бы ИИ не был умнее самого умного человека.
Это утопия,что мы можем создать механизмы контроля для сверхъразума. Это тоже самое,что животные из дикой природы,например шимпанзе научиться контролировать человека.
Багам патрэбныя жрацы.
Ну а для астатніх зробім запаведнік ў аўстраліі. Будзеце там бегаць голыя па саванне, спарвацца, біцца, шукаць карэнчыкі - усё як вам падабаецца.
Бо мінімум траціна артыкулаў на тэму ШІ - пра тое. СМІ вельмі падабаецца тэма.
The Times, здаецца, не жоўтая прэса, але назбірала рознага, галівудскага. Няма галоўнага: чаму і як так атрымаецца, што ШІ будзе інфіцыраваць людзей або выціскаць іх на сметнікі.
Галоўныя аргументы папулісцкія: ён занадта разумны, можа хлусіць, ніхто не ведае, што ён задумае дрэннага.
Гэта дакладна тая ж гульня на эмоцыях і фобіях тупых, якую выкарыстоўваюць кіраўнікі тыпа Трампа, Пуціна, Лукашэнкі для маніпуляцыі сваёй аўдыторыяй супраць больш разумных людзей. Гульня на вантробнай нянавісці супраць больш разумных. Не жаданне самому развівацца таксама або знайсці ўзаемную карысць у сімбіёзе, а проста імпульс знішчыць чужынца, тое, чаго не разумееш.
На мой погляд, рызыкі ад ШІ ёсць, але яны не ў тым, што "ён занадта разумны", а ў слабай адказнасці людзей пры выкарыстанні тэхналогій.
ШІ могуць даць ваенную задачу пра знішчэнню ворага, якую ён выканае занадта выдатна.
На ШІ ў некаторых задачах могуць перакласці адказнасць бюракраты, і працэс увогуле можа прывесці да абсурду або катастрофы. Падобнае ўжо існуе, калі законы не цалкам адпавядаюць рэчаіснасці і ствараюць абсурдныя сітуацыі, ад якіх залежыць жыццё людзей (як вузкі прыклад, прыгадайце розныя абсурдныя і несправядлівыя выпадкі з легалізацыяй беларусаў у суседніх краінах). Мала хто з удзельнікаў сістэмы жадае разбірацца, браць на сябе адказнасць разбірацца і выпраўляць памылкі. І тое ж самае, калі ў сістэму ўбудуюць ШІ.
Яшчэ можна паглядзець свежы вялікі дайджэст на habr "Системы ценностей больших языковых моделей", дзе аўтар робіць такую галоўную выснову:
"Сістэмы каштоўнасцяў Вялікіх Языковых Мадэляў - не шкоднасны баг і не абстрактны філасофскі кур'ёз. Гэта новы пласт грамадскай дамовы, спароджаны статыстыкай нашага ж культурнага архіва. Калі папярэдняе стагоддзе вучыла правяраць факты, то цяперашняе дадае яшчэ адну практыку пісьменнасці: правяраць каштоўнасці алгарытму. Хто грэбуе гэтай практыкай, той рызыкуе прыняць рэкамендацыі, дзе пара мільярдаў параметраў шануецца вышэй за жыцці людзей."
Карацей, рызыкі ёсць, яны ўсе тыя ж старыя класічныя: злоўжыванне тэхналогіямі або проста недастаткова адказнае выкарыстанне тэхналогій.