Сега четете
ПЕТТЕ СМЪРТНИ ГРЯХА НА ИЗКУСТВЕНИЯ ИНТЕЛЕКТ

ПЕТТЕ СМЪРТНИ ГРЯХА НА ИЗКУСТВЕНИЯ ИНТЕЛЕКТ

„Мисля, че страна като България по комунистическо време имаше добра представа каква несигурност могат да носят собствените ни домове, когато имаме усещането, че някои може би ни подслушва“, каза ми легендарният архитект Рем Колхаас преди години, когато го попитах какво мисли за „интернет на нещата“ и за факта, че в съвременното дигитално общество човек непрекъснато е под наблюдение – от телефона си, от домашните си уреди, от автомобила си. „Това не много тревожна тенденция“, каза Колхаас, „и съм изумен, че човечеството прегърна този изцяло търговски аргумент в името на удобството си и с цената на собственото си уединение и лично пространство“. Всичко това се случи през 2017, далеч преди появата на големите езикови модели като Chat GPT. С тях на сцената, старите опасения за изчезващото лично пространство изглеждат като мимолетна грижа. С така наречения „Изкуствен интелект“ на карта са заложени още по-важни неща: от основните принципи на интернет до свободата на достъпа ни до информация и умението ни да четем.

ГРЯХ №1: ОТКАЗВА ДА СЕ ПОДЧИНЯВА
Много мислители предупреждават за заплахите на изкуствения интелект, но в повечето случаи имат предвид някакъв хипотетичен сценарий като от „Терминаторът“ или „Матрицата“, в който машините ще се освободят и ще поробят или унищожат човечеството. Най-голямата заплаха от ИИ е, че с него призоваваме на Земята нов могъщ агент, потенциално по-интелигентен и изобретателен от нас, и без средства да го контролираме, предупреждава Ювал Ноа Харари, авторът на Sapiens. Някои заглавия в новините на пръв поглед подкрепят такива опасения. Неотдавна компанията за киберсигурност Palisade Research например съобщи, че три ИИ модела на OpenAI (o3, o4-mini и codex-mini, всичките използвани в ChatGPT) понякога пренебрегват директна команда да се изключат, за да продължат да изпълняват задачи, които смятат за важни. При o3 това всъщност е е случило 7 пъти от 100 опита – тревожно висок процент. Други съобщения говорят за склонността на ИИ да лъже или да дава потенциално опасни съвети (вече се водят две съдебни дела за самоубийства, които според обвинението били подтикнати от ИИ). Но всичко това е впрягане на коня далеч пред каруцата. Колкото и да са сложни, големите лингвистични модели не са самостоятелни интелекти. Странностите в поведението им се обясняват по-скоро с огромния натиск, на който са подложени програмистите им от инвеститорите. И с факта, че в класическия случай въпросните програмисти са интроверти с блестящи софтуерни, но нулеви социални умения. Колкото до способностите на ИИ за самостоятелно мислене, достатъчно добра илюстрация е, че няколко от тях вече бяха разгромени на шах от… примитивния Atari 2600, с неговия 1.19-мегахерцов процесор и 129 байта (байта!) RAM. А Gemini, изкуственият интелект на Google, след като научи за провала на колегите си, се отказа да играе срещу Atari и си призна, че е излъгал за високите си шахматни умения.

ГРЯХ №2: ПРАВИ НИ ПО-ГЛУПАВИ

Напук на растящия брои мрачни пророци, които се мъчат да монетизират естествените ни страхове, не се очертава ИИ скоро да ни пороби. Но има реална – и много висока – опасност да ни направи по-глупави. Голямата компенсация за всички посегателства върху личната ни свобода, направени от дигитализацията, бе свободният достъп до информация. Социалните мрежи вече направиха първата пукнатина в тази концепция, като първо ни подлъгаха да ги използваме като универсален информационен посредник, а после започнаха все по-интензивно да манипулират достъпа ни до информация (тоест да решават какво да виждаме и какво – не), в името на печалбата и нарастващото си влияние. Големите лингвистични модели са следващата стъпка в това отношение. Досега търсенията в интернет, с инструменти като Google, ни даваха възможност да избираме източниците си на информация. Търсене с ChatGPT напълно ни лишава от този избор: нямаме никакъв контрол върху източниците, които ползва ИИ, за да компилира отговорите си и да изпълнява задачите, които му поставяме. Освен това премахва хиперлинковете – този толкова ценен инструмент на ранния интернет за разширяване на знанията ни, и ни обезкуражава да четем. Има и друго: нарастващата лекота на получаване на отговори засилва онова, което д-р Манфред Шпицер нарече „дигитална деменция“. Намаляването на четенето и увеличаването на аудиовизуалните медии отчетливо влошава мозъчното развитие при децата, твърди германският психиатър. От друга страна, съзнанието, че информацията е винаги на една ръка разстояние – което ChatGPT и подобните му само засилват ни кара да не запомняме. Проблемът е, че без критичния минимум знания по дадена тема не можем да зададем ефективен въпрос на ИИ – просто няма да знаем какво да попитаме.

ГРЯХ №3: УНИЩОЖАВА СВОБОДНИЯ ИНТЕРНЕТ

Самите основополагащи принципи на интернет вероятно ще се променят под въздействието на ИИ. В края на 80-те и началото на 90-те световната мрежа се зароди като система за свободен и безплатен (с малки изключения) обмен на информация. До 2021, основните инструменти за търсене в мрежата даваха в резултат на запитванията ни линкове към оригинално съдържание, което би могло да съдържа нужната ни информация. Но ChatGPT и компания не дават линкове. Те намират нужното съдържание и леко го трансформират (преразказват, прерисуват), колкото да не нарушава буквално законите за авторското право. Но на практика това е най-голямата кражба на частна собственост в историята на човешката цивилизация. Основният инструмент за извличане на приходи от интернет е чрез трафик и реклами. Една типична онлайн медия плаща на служителите си за създаване на съдържание и разчита на достатъчен брой читатели, за да си върне инвестираното от рекламни приходи. Но ИИ асистентите паразитират върху този модел: те вземат съдържанието от медията, но не й осигуряват трафик на читатели в замяна. ChatGPT надхвърли 800 милиона потребители през пролетта и се надява да достигне милиард преди края на тази година. Ако добавим и конкурентите му, поне една четвърт от човечеството вече разчита предимно на търсене, което не произвежда линкове. В резултат мнозинството създатели на онлайн съдържание отчитат сериозни спадове в трафика си. Google признава, че има спад в търсенията, макар да не цитира числа. Safari, търсачката на Apple, за пръв път в историята си отчете такъв спад през април. А Similarweb, която измерва трафика на над сто милиона сайта, твърди, че през първото полугодие трафикът, генериран от търсения, е спаднал с 15% на годишна база. „Те крадат съдържанието ни, за да се конкурират с нас“, оплаква се Нийл Вогъл, шеф на издателската група Dotdash Meredith, пред The Economist.

Някои от по-големите медийни групи не се задоволяват само да се оплакват. News Copr на Рупърт Мърдок, след серия заплахи и увещания сключи договор с OpenAI, компанията зад ChatGPT, да получава финансова компенсация, когато ИИ ползва нейно съдържание. The New York Times има подобен договор с Amazon, но съди OpenAI. Reddit лицензира съдържанието си на Google срещу 60 милиона долара годишно – но това е капка в морето в сравнение с близо 20-те милиарда загубена пазарна капитализация на Reddit заради намалелия трафик.
Всички цитирани обаче са големи групи с достатъчно капитал, адвокати и влияние. По-малките производители на съдържание са безсилни срещу паразитизма на AI. Биха могли да блокират достъпа до сайтовете си, но това ще ги изключи и в резултатите от търсенията. Ако нещо спешно не се промени, много от тях ще загинат. И съдържанието в интернет ще намалее, защото ИИ, както споменахме, не е в състояние да го създава, а само да го краде, модифицира и компилира.

ГРЯХ №4: ТЛАСКА НИ КЪМ ЕНЕРГИЙНА КРИЗА

Вероятно сте мернали новината, че безобидното „благодаря“, което някои потребители казват на ChatGPT десетки милиони долари. Звучи като анекдот, но е факт, и добре илюстрира следващия голям проблем на ИИ: неговата енергийна лакомия. Двама учени от MIT, Джеймс О’Донъл и Кейси Краунхарт, се постараха наскоро да изчислят колко енергия потребяват различните форми на ИИ. Един въпрос към сложен онлайн асистент потребява средно 3353 джаула за изчисления и още толкова за охлаждане на процесорите. Това не е твърде голямо количество – докато не го умножите по един милиард потребители, задаващи по няколко въпроса дневно. Генерирането на изображения е по-пестеливо: средно около 2282 джаула на картинка. За сметка на това генерирането на 5-секундно ИИ видео с много ниско качество изисква 3.4 милиона джаула – което може да захрани готварска печка за цял час. Повечето хора се нуждаят средно от около пет опита, преди видеото да отговаря на нуждите им. Тогава изразходената енергия е 2.9 киловатчаса – колкото гълта печката ви за два часа и половина. Едно електрическо колело може да измине близо 200 км с тази енергия. Проблемът вече придобива тревожни очертания в САЩ, където през 2024 центровете за обработка на данни са погълнали около 200 тераватчаса електроенергия – колкото цялото потребление на страна като България за пет години и половина. Около една трета от това количество е отишло специфично за нуждите на ИИ. Но те тепърва ще растат. По прогнози на лабораторията Lawrence Berkeley потреблението на дата центровете ще скочи от сегашните 4.4% от цялото потребление в САЩ до над 12% още до 2028 година. Технологичните гиганти трескаво бързат да си осигурят договори за доставка на енергия и дори инвестират в свои собствени централи – включително атомни. Част от цената обаче се плаща от обикновените потребители. Експерти от Harvard Electricity Law Initiative проучиха спразуменията между енергийните компании и технологичните гиганти, и установиха, че последните обикновено получават сериозни отстъпки в тарифите, а това на свой ред води до увеличаване на цените за нормалните потребители. Доклад на местните власти в щата Вирджиния от 2024 сочи, че обикновените граждани на щата може да плащат до 37.50 долара допълнително за енергия всеки месец заради нашествието на дата центровете.

Вижте и

ГРЯХ №5: ГЕНЕРИРА КОЛОСАЛНИ ДЪЛГОВЕ

Енергията не е единствената област, в която може да се наложи обикновените хора да плащат за бума на изкуствения интелект. Паническият страх да не изостанат кара всички технологични гиганти да инвестират безпрецедентно в ИИ проекти. Според някои данни, само тази година те ще вложат в него над 500 милиарда долара – повече от целия бюджет на програмата „Аполо“, която прати човек на Луната, за десет години и преизчислен според инфлацията. Консултантите от McKinsey пресмятат, че до 2030 инвестициите в изкуствен интелект само в САЩ ще надхвърлят 6.7 трилиона долара – или колкото българската икономика при сегашните й мащаби произвежда като БВП за 59 години.

Това променя самия характер на гиганти като Alphabet, Microsoft и Meta. Досега те винаги са били благоразумни в паричната си политика и са се стремели да разпределят горе-долу поравно приходите си между акционери и капиталови разходи. Но сега разходите растат с невиждано темпо – всъщност с такова темпо, че ще отворят около 1.5 трилиона долара пробойна в паричните потоци на трите компании до 2027, по сметки

Morgan Stanley. Затова гигантите преглъщат неохотата си и започват да задлъжняват. Meta преговаря за кредити на стойност около 30 милиарда долара; Microsoft увеличава задълженията си по финансов лизинг (основно за оборудване на дата центрове) три пъти в сравнение с 2023. Alphabet емитира наскоро емисия облигации за пръв път през това десетилетие. При по-малките, тепърва стартиращи компании в ИИ сектора, нещата с дълга стоят още по-зле. Цялата „надпревара във въоръжаването“ при изкуствения интелект генерира колосални разходи. Въпросът е как ще бъдат изплатени те? Ще оправдае ли ИИ огромните очаквания? И всички ли ще спечелят от него, или само отделни късметлии? За другите остава само един изход: да направят това, което корпорациите винаги правят с големите разходи: да ги прехвърлят върху потребител

Каква е вашата реакция?
Много ми хареса
0
Не ми хареса
0
Не съм сигурен
0
Развълнувах се
0
Вижте коментарите (0)

Напиши коментар

Вашият мейл адрес няма да бъде публикуван.

Нагоре