СУНАК ПОЗВАО СВЕТСКЕ ЛИДЕРЕ: Треба да се позабавимо ризицима вештачке интелигенције
СВЕТСКИ лидери имају одговорност да се позабаве ризицима вештачке интелигенције, поручио је данас британски премијер Риши Сунак последњег дана инаугурационог самита о безбедности у области вештачке интелигенције (АИ) у Блечли парку, недалеко од Лондона.
-Желео сам да на посебној седници разговарамо о овом питању као лидери са заједничким вредностима, насамо, рекао је Сунак на самиту у Блечли парку, где је током Другог светског рата био дом британских разбијача шифри.
Он је поручио да лидери имају одговорност да се позабаве "опасностима у распону од друштвене штете и дезинформација, до екстремних ризика од вештачке интелигенције".
Сунак је рекао да жели да се сви осврну на овај тренутак за пет година и да „знају да су изабране праве опције да се искористе све предности вештачке интелигенције на начин који ће бити безбедан за наше заједнице, али и да пружи огроман потенцијал“.
Неки технолошки и политички лидери упозорили су да брзи развој вештачке интелигенције представља егзистенцијалну претњу ако се не контролише, преноси Ројтерс.
Председница Европске комисије Урсула фон дер Лајен, потпредседница САД Камала Харис, генерални секретар УН Антонио Гутереш и други лидери би на самиту требало да разговарају о плану тестирања и евалуације АИ модела које подржава држава пре него што буду пуштени у продају, саопштено је из Сунаковог кабинета.
Фон дер Лајен је рекла да је потребно успоставити безбедносне стандарде АИ који су прихваћени широм света.
-Сложени алгоритми никада се не могу исцрпно тестирати, тако да се пре свега морамо побринути да програмери реагују брзо када се појаве проблеми, и пре и након што су њихови модели стављени на тржиште, додала је.
Представници компанија као што су OpenAI, Anthropic, Google DeepMind, Microsoft, Meta и kAI, које подржава Мицрософт, требало је да се придруже каснијој сесији.
На завршној сесији дводневног самита о вештачкој интелигенцији предвиђен је разговор Сунака и америчког бизнисмена Илона Маска.
Маск је у среду учесницима скупа рекао да владе не би требало да журе са увођењем закона о вештачкој интелигенцији.
Он је сугерисао да су компаније које користе ову технологију у бољем положају да открију проблеме и да би могле да поделе своја открића са законодавцима одговорним за писање нових закона.
Првог дана самита који је фокусиран на високо способне моделе опште намене зване „гранична вештачка интелигенција“, око 100 званичника, академика и технолошких руководилаца разговарало је о ризицима од злоупотребе вештачке интелигенције и губитка контроле.
Више од 25 присутних земаља, укључујући Сједињене Америчке Државе и Кину, као и ЕУ, потписало је у среду „Блечли декларацију“ у којој се наводи да земље морају да раде заједно и успоставе заједнички приступ надзору.
БОНУС ВИДЕО - УЗНЕМИРУЈУЋИ СНИМЦИ ИЗ ПОЈАСА ГАЗЕ: Припадници Хамаса хватају таоце на граници са Израелом
Препоручујемо
КОЛИКО СУ СТАРЕ ВАШЕ ОЧИ: Револуционарно предвиђање вештачке интелигенције
30. 10. 2023. у 00:30
ИЗАЗОВИ ВЕШТАЧКЕ ИНТЕЛИГЕНЦИЈЕ: Почео мастер клас на Факултету организационих наука
27. 10. 2023. у 11:03
РАЗВОЈ ВЕШТАЧКЕ ИНТЕЛИГЕНЦИЈЕ: Рађају се два паралелна и супротстављена универзума
21. 10. 2023. у 23:16
ДРАМА У ФРАНЦУСКОЈ: Масовна пуцњава, учествовало неколико стотина људи
У МАСОВНОЈ пуцњави повезаној с трговином дрогом у западној Француској, тешко је повређено петоро људи, међу којима и један тинејџер, рекао је министар унутрашњих послова Бруно Ретаиллеау, пише Гардијан.
01. 11. 2024. у 11:25
ПУТИНУ У ПОМОЋ СТИЖЕ НАЈЕЛИТНИЈА ВОЈСКА: Шта је "Олујни корпус", једна од најмоћнијих специјалних јединица на свету
СЕВЕРНОКОРЕЈСКА појачања долазе усред назнака да се Русија бори с попуњавањем својих снага.
30. 10. 2024. у 12:37
ХРВАТ УГЛЕДАО СРПСКУ ЗАСТАВУ НА ПОДУ: Одмах упалио камеру и урадио ово - због његовог потеза се усијале мреже (ВИДЕО)
ИВАН из Хрватске одушевио је читав регион када је једним малим гестом показао како је мало потребно а јако лепо, држати се оне чувене реченице "воли своје, поштуј туђе".
01. 11. 2024. у 10:24 >> 10:28
Коментари (0)