Вештачка интелигенција/ Фото: GORODENKOFF PRODUCTIONS / Sciencephoto / Profimedia

Оваа година започна нова ера во дезинформирањето во која технолошкиот напредок воведе поинаква динамика во производството и ширењето на лажни, намерно и ненамерно погрешни содржини, преку употреба на вештачка интелигенција. Моќната технологија е способна да произведува содржина во различни формати – текстуални, аудио или визуелни.


Па така периодов во многу наврати медиумиите пишуваа за примери за дезинформирање и лажни вести кои се произведени со помош на вештачка интелигенција – меѓу нив беа и неодамна објавените лажни фотографии од папата во бела монтка од Баленсијага и поранешниот американски претседател Доналд Трамп кој наводно бил уапсен и одведен во затвор. Во тој контекст во продолжение важно е да се посочи дека текстуалното изразување како производ на генеративните алатки за вештачка интелигенција не сомнено ќе влијае на ширењето дезинформаци, и тоа во насока како ќе влијае визуелното изразување.

Генеративните алатки за вештачка интелигенција со првенствено текстуални излези, како што се Open AI Chat GPT или слични програми и алатки познати како „големи јазични модели“ или Large Language Models (LLM), имаат многу потенцијални ризици за производство и ширење лажни вести и дезинформации. Тука дури и настрана ги оставаме проблемите кои не се строго поврзани со квалитетот на информациите, како што се, на пример, загриженоста за приватноста, поради што италијанската агенција за заштита на податоци на 31 март годинава ја забрани употребата на ChatGPT во земјата.

Значи, пред сè, алатките за вештачка интелигенција со текстуални изрази се склони кон она што е познато како „халуцинации“, односно фактички грешки во информациите кои му се даваат на корисникот. Јавните презентации на големиот јазичен модел од страна на технолошките гиганти како што се Мајкрософт и Гугл беа опфатени со грешки, вклучувајќи и промотивни видеа. Експертите предупредуваат дека таквите грешки не се обични грешки во системот, туку неизбежни исходи на технологијата во нејзината сегашна состојба. Имено, технологијата е одлична во предвидувањето на следниот збор во реченицата, но нема поим што всушност значи реченицата. Накратко, начинот на кој тие се дизајнирани и нивната моментална состојба на развој ги прават големите јазични модели добри во некои работи, како што е пишување код, но и лоши во многу други, вклучувајќи ги игрите со сложување или обезбедувањето точни информации.

Исто така, тука е и прашањето на скалата. Направени се да произведуваат и текстови за теории на заговор или урбани митови, а многу аналитичари го истакнаа ризикот од поттикнување на „лудило за лажни вести“.

Важно е да се истакне дека OpenAI препозна можна злоупотреба на својата технологија во кампањи за дезинформација и се обиде да го предвиди идниот развој во анализа развиена со независни истражувачи, која се занимава со „потенцијалните закани и решенија“.

Сепак, најзагрижувачкиот аспект на чет-ботовите кои користат големи јазични модели произлегува од директниот пристап кој им дава на корисниците персонализиран, човечки, разговорен начин на презентирање на содржината. Во споредба со традиционалните пребарувачи, алатките како ChatGPT нудат единствен одговор кој лесно може да се толкува како најдобар или најточен резултат од нивното пребарување на информации на интернет.

Корисниците – особено кога не се соодветно информирани за технологијата, нејзините предности и слабости, како и за она што моментално може да го прави – би можеле да бидат измамени повеќе да се потпрат на резултатите што ги обезбедува разговорниот четбот отколку на други, поотворени алатки за пребарување информации, што им го отежнува правилното проценување на веродостојноста на резултатите и на крајот да го применат своето критичко размислување. За да бидат работите уште полоши, корисниците пристапуваат до големите јазични модели без посредство – додека преку традиционалните пребарувачи пристапуваат до список на резултати произведени и објавени на друго место, во извесна смисла скенирајќи го она што веќе е таму. Преку чет-ботови можат директно да пристапат до „новите“ информации, произведени од големите јазични модели како одговор на нивното конкретно барање.

Овој непосреден пристап ја прави таа информација практично невозможна за проверка на фактите. Имено, големиот јазичен модел произведува лажни или погрешно-наведувачки резултати и ги доставува директно до корисниците, додека досега дезинформациите мораше да бидат објавени некаде (било да е тоа веб-страница, профил на социјалните мрежи, подкаст) за да бидат достапни за другите корисници. Затоа се потребни информативни кампањи за јавноста, за да се разјаснат границите на алатката, како и ризиците од неа.

Кога станува збор за потенцијалната употреба на генеративна вештачка интелигенција за проверка на фактите, истражувачите од Универзитетот во Цирих откриле дека ChatGPT во 72% од случаите бил во состојба прецизно да ги категоризира проверените изјави како точни илин лажни.

Извор : Demostat Автор : Тамара Бајчиќ

Целиот текст на македонски на следниот линк: