19min.media

Забравете за апокалипсиса на изкуствения интелект. Истинските опасности вече са тук

Две седмици след като членове на Конгреса разпитаха главния изпълнителен директор на OpenAI Сам Олтман за потенциала на инструментите на изкуствения интелект да разпространяват дезинформация, да нарушават изборите и да изместват работни места, той и други представители на индустрията оповестиха една много по-страшна възможност: апокалипсис на изкуствения интелект.

 Олтман, чиято компания стои зад вирусния чатбот ChatGPT, се присъедини към главния изпълнителен директор на Google DeepMind Демис Хасабис, главния технически директор на Microsoft Кевин Скот и десетки други изследователи на ИИ и бизнес лидери, които миналия месец подписаха писмо с едно изречение, в което се казва "Намаляването на риска от изчезване, причинено от ИИ, трябва да бъде глобален приоритет наред с други рискове от обществен мащаб като пандемиите и ядрената война."

Суровото предупреждение беше широко отразено в пресата, като някои изказаха мнение, че то показва необходимостта от по-сериозно отношение към подобни апокалиптични сценарии. Но то също така подчертава една важна динамика в Силициевата долина в момента: В същото време се надпреварват да инвестират в тази технология и да я внедряват в продукти, които достигат до милиарди хора.

Тази динамика напоследък се проявява и на други места. Например главният изпълнителен директор на Tesla Елон Мъск заяви в телевизионно интервю през април, че ИИ може да доведе до "унищожаване на цивилизацията". Но той все още остава дълбоко ангажиран с технологията чрез инвестиции в своята разрастваща се бизнес империя и заяви, че иска да създаде конкурент на предложенията за ИИ на Microsoft и Google.


Според някои експерти в областта на ИИ вниманието към далечни сценарии може да се отклони от по-непосредствените вреди, които новото поколение мощни инструменти на ИИ може да причини на хората и общностите, включително разпространяване на дезинформация, затвърждаване на предразсъдъци и създаване на условия за дискриминация в различни услуги.


"Мотивите изглеждат смесени", казва пред CNN Гари Маркъс, изследовател на ИИ и почетен професор на Нюйоркския университет, който миналия месец свидетелства пред законодателите заедно с Алтман. Според него някои от изпълнителните директори вероятно са "искрено притеснени от това, което са отприщили", но други може би се опитват да насочат вниманието към "абстрактни възможности, за да отклонят вниманието от по-непосредствените възможности".


Представители на Google и OpenAI не са отговорили веднага на молбата за коментар. В изявление говорител на Microsoft каза: "В момента се работи по този въпрос: "Оптимистично настроени сме за бъдещето на ИИ и смятаме, че постиженията на ИИ ще решат много повече предизвикателства, отколкото представляват, но също така сме последователни в убеждението си, че когато създавате технологии, които могат да променят света, трябва също така да гарантирате, че технологията се използва отговорно."


Непосредствени проблеми срещу "въображаеми научнофантастични сценарии


За Маркъс, самоопределящ се като критик на хипотезата за ИИ, "най-голямата непосредствена заплаха от ИИ е заплахата за демокрацията от масовото производство на убедителна дезинформация".


Инструментите за генеративен ИИ като ChatGPT и Dall-E на OpenAI се обучават на огромни масиви от данни онлайн, за да създават убедителни писмени произведения и изображения в отговор на подкани от потребителите. С помощта на тези инструменти например може бързо да се имитира стилът или обликът на публични личности в опит да се създадат кампании за дезинформация.


В показанията си пред Конгреса Олтман също така заяви, че потенциалът за използване на изкуствен интелект за манипулиране на гласоподаватели и насочване на дезинформация са сред "областите, които ме тревожат най-много".


Дори и в по-обикновени случаи на използване обаче има опасения. Същите инструменти са били обвинявани в предлагане на грешни отговори на потребителски запитвания, откровено "халюциниране" на отговори и потенциално затвърждаване на расови и полови предразсъдъци.



Емили Бендер, професор във Вашингтонския университет и директор на Лабораторията за компютърна лингвистика, заяви пред CNN, че някои компании може би искат да отклонят вниманието от пристрастията, заложени в техните данни, както и от твърденията за начина, по който системите им са обучени.


Бендър цитира опасения, свързани с интелектуалната собственост на някои от данните, върху които се обучават тези системи, както и твърдения, че компаниите са възложили работата по обработката на някои от най-лошите части от данните за обучение на нископлатени работници в чужбина.


"Ако обществеността и регулаторните органи могат да се съсредоточат върху тези въображаеми научнофантастични сценарии, тогава може би тези компании ще могат да се измъкнат от кражбата на данни и експлоататорските практики за по-дълго време", каза Бендер пред CNN.


Оказване на влияние върху регулаторите


Регулаторните органи може би са истинската целева аудитория на съобщенията на технологичната индустрия за съдбата.


По думите на Бендър, изпълнителните директори по същество казват: "Тези неща са много, много опасни и ние сме единствените, които разбират как да ги ограничат".


Ако се съди по появата на Олтман пред Конгреса, тази стратегия може да проработи. Олтман изглежда спечели Вашингтон, като повтори опасенията на законодателите относно ИИ - технология, която мнозина в Конгреса все още се опитват да разберат - и предложи предложения как да се справим с нея.


Този подход към регулирането би бил "изключително проблематичен", каза Бендер. Той би могъл да даде на индустрията влияние върху регулаторите, натоварени да я държат отговорна, а също така да остави без внимание гласовете и приноса на други хора и общности, които изпитват негативното въздействие на тази технология.


"Ако регулаторите се ориентират към хората, които създават и продават технологията, като към единствените, които биха могли да разберат това и следователно да предоставят информация за това как трябва да работи регулацията, ние наистина ще пропуснем", каза Бендер.


Бендер каза, че при всяка възможност се опитва да каже на хората, че "тези неща изглеждат много по-умни, отколкото са". По думите ѝ това е така, защото "ние сме толкова умни, колкото сме", а начинът, по който осмисляме езика, включително отговорите на изкуствения интелект, "всъщност е като си представяме, че зад него стои ум".


В крайна сметка Бендър постави прост въпрос към технологичната индустрия относно ИИ: "Ако те наистина вярват, че това може да доведе до изчезването на човечеството, защо просто не спрат?"



Източник: CNN