1007 hPa
94 %
17 °C
Скопје - Вто, 10.09.2024 21:59
Понекогаш вестите од светот на вештачката интелигенција повеќе личат на заплет од серијата Faulty Towers наместо на оној од серијата Succession, на фарса во манирот на Станлио и Олио отколку на шекспировска трагедија. OpenAi е технолошка компанија која во моментов го привлекува вниманието благодарение на огромниот успех на четботот ChatGPT, нејзиниот најпознат производ. Неочекуваната смена, а набрзо и враќањето на Сем Алтман на местото шеф на компанијата очекувано привлекоа големо внимание кај зачудените и изненадени глобални медиуми.
Некои веста ја протолкуваа како доказ за некомпетентноста на управниот одбор; други веруваат дека зад сè стои повредено его. На едно подлабоко ниво, овие настани укажуваат на контрадикциите во самото јадро на високотехнолошките индустрии. На пример, контрадикцијата помеѓу внимателно негуваниот мит за техно-претприемачите како бунтовни „револуционери“ и фактот дека истите бунтовници управуваат со чудовиштето на индустријата вредна многу милијарди долари која директно влијае на нашите животи. Тука е и тензијата помеѓу визијата на вештачката интелигенција како механизам за подобрување на човечкиот живот и стравот дека таа претставува егзистенцијална закана за човештвото.
Има малку организации во кои споменатите контрадикции се толку нагласени и воочливи како во случајот со компанијата OpenAI. Богаташите од Силиконската долина кои ја основаа во 2015 година, меѓу другите и Илон Маск и Питер Тихел, се доживуваа себеси како евангелисти на вештачката интелигенција и пророци кои предупредуваат на можната закана. „Со развојот на вештачката интелигенција ги повикуваме демоните“, изјави Маск драматично.
Бидејќи покрај бескрајната воодушевеност од себеси, како исклучителни индивидуи кои го воведуваат човештвото во иднината, чувствуваат и бескраен песимизам во погледот на другите луѓе и општеството во целина, технолошките титани живеат во вечен страв од апокалипса која демне зад аголот. Многу од нив се „препери“ и сериозно се подготвуваат за свет како оној од филмот Лудиот Макс. „Имам оружје, злато, калиум јодид, антибиотици, батерии, вода, израелски гас маски и големо парче земја во Биг Сур каде секогаш можам да одлетам“, изјави Сем Алтман за Њујоркер набрзо по основањето на компанијата OpenAI. Сите најдобри претприемачи се „параноици, измачувани од егзистенцијални кризи“, додаде. Една од причините за паранојата е вештачката интелигенција.
Компанијата OpenAI е основана како непрофитен добротворен труст со задача да развива општа вештачка интелигенција, или AGI, што, начелно е машина која може да ги извршува сите интелектуални задачи кои ги извршуваат луѓето, и повеќе од тоа. Идејата била да се направи машина која ќе го прави тоа на етички прифатлив начин и во корист на „целото човештво“.
Потоа непрофитната организација во 2019 година основаше профитен огранок за да привлече повеќе инвеститори, во што и успеа кога од Мајкрософт доби повеќе од 11 милијарди долари. Надредената непрофитна организација сепак задржа целосна контрола, со што беше институционализирана тензијата помеѓу желбата за стекнување профит и апокалиптичните стравови заради производите кои треба да донесат профит. Тензијата дополнително се заостри со големиот успех на ChatGPT.
Пред две години група истражувачи загрижени заради темпото на развојот на вештачката интелигенција одлучија да го напуштат OpenAI и да направат нова организација, Anthropic. Еден од нив изјави дека „постои шанса од 20 проценти вештачката интелигенција да излезе од контрола и да го уништи човештвото следната деценија“. Изгледа дека тоа се стравувањата кои предизвикаа хаос во управниот одбор и доведоа до обид за смена на Сем Алтман.
Тука се наметнува прашањето за психологијата на луѓето кои продолжуваат да работат на проектот за кој веруваат дека е способен да го уништи човечкиот род. Иронијата е во тоа што самиот тој страв, очигледно преувеличен, претставува голема опасност. Преувеличувањето на стравовите е последица на преголемите очекувања од вештачката интелигенција. ChatGPT е добар кога треба да се погоди следниот збор во низата, доволно добар за да ни се причини дека разговараме со човек. Но машината не ги знае значењата на зборовите како што ги знаеме ние, а нејзиното разбирање на реалниот свет е незначително. Далеку сме од сонот за „општа вештачка интелигенција“. „AGI нема да се појави“, тврди Грејди Буч, шеф на софтверскиот инженеринг во IBM, „дури ни во ерата на децата на вашите деца“.
Луѓето од Силиконската долина кои размислуваат поинаку и очекуваат AGI да стане реалност во секој момент, веруваат дека човештвото мора да се заштити со „прилагодување“ - осигурување дека вештачката интелигенција секогаш ќе биде „прилагодена на човечките вредности и човечките намери“. Тоа звучи како добар начин да се спречи можна катастрофа. Сè додека не стигнеме до прашањето што се „човечки вредности“, кој е повикан да ги дефинира и што се случува во случај на нивен конфликт?
Општествените вредности отсекогаш биле предмет на спорење, а особено денес, во доба на апатија и отуѓеност предизвикани од крахот на општоприфатените стандарди. Предмет на дебата е и самиот однос кон технологијата. Некои луѓе веруваат дека сузбивањето на омразата и заштитата на личноста во онлајн светот се поважни од правото на слобода на говорот и приватноста. Овие ставови се вградени во новиот британски Закон за онлајн безбедност. Но многумина стравуваат од можните последици од овој закон.
Тука е и проблемот со дезинформациите. Малкумина нема да се сложат дека дезинформациите веќе претставуваат сериозен проблем кој во иднина ќе биде сè поголем, што отвора комплицирани прашања за демократијата и довербата. Тоа е повод за жолчни полемики зашто во обидите за сузбивање на дезинформациите големите технолошки компании добиваат уште пошироки овластувања за контрола на јавноста и јавното мислење.
Исто така, проблемот со пристрасноста на машинските алгоритми ја открива слабата точка во аргументот за „прилагодувањето“ на машините на човечките вредности. Алгоритмите страдаат од истите предрасуди и пристрасност како и луѓето, особено кога се во прашање малцинствата, токму затоа што се прилагодуваат на човечките вредности. Вештачката интелигенција се обучува со податоци од реалниот човечки свет кој изобилува со дискриминаторни практики и идеи. Овие идеи се вградуваат во софтверот на вештачката интелигенција, на пример, во правосудството и здравството, како и во системите за препознавање лица или селекција на кандидатите.
Вистинскиот проблем пред нас не е можноста машините да ги поробат луѓето во далечна иднина. Тоа е шпекуација без основа во сегашните знаења за вештачката интелигенција. Проблем е што веќе живееме во општество во кое мал број луѓе имаат можност да ја користат натрупаната моќ на штета на мнозинството. Технологијата е само средство за консолидација на оваа моќ. Секако дека на луѓето кои имаат општествена, политичка и економска моќ им одговара проблемот да се прикаже како технолошки, а не општествен, и да се проектира во иднината, наместо да му се посветиме во сегашноста.
Нема многу алати кои ги измислиле луѓето и кои не можат да се искористат за правење штета. Но тие не го прават тоа самите; тоа може да се направи само ако луѓето ги искористат на тој начин, особено оние кои имаат моќ. Тоа би требало да биде појдовна точка на нашата дискусија за вештачката интелигенција, а не фантазија за крај на човештвото.
Превод: Алек Кузмановски
Слики: Arghavan Khosravi
Извор: https://www.theguardian.com/