Измамнички текстови, лажни вести, па дури и цела серија на лажни рецензии на производи кои може да бидат генерирани во само неколку минути може сериозно да го поткопаат не само во светот на бизнисот, туку и општеството во целина
Системот на вештачка интелигенција кој е обучен да го имитира природниот човечки јазик, неговите сопствени творци го сметаат за премногу опасен за лансирање.
Истражувачите на компанијата OpenAI тврдат дека создале вештачка интелигенција која “генерира кохерентни ставови на текстот, постигнува супериорни перформанси на многу референтни јазични модели и врши рудиментирано читање и разбирање на текстот, машинско преведување, одговарање на прашања и пишување на резимеа – и сето тоа без специјална обука за посебни задачи. “
Според нивните тврдења, на системот на вештачка интелигенција е доволно да му се дадат неколку клучни зборови, а системот врз основа на своето учење сам ќе пишува кохерентни ставови на тема која ќе ја препознае од клучните зборови и фрази.
Но, самите истражувачи се одлучија да не одат со пошироката јавна употреба на овој систем, “поради загриженоста од злоупотреба на оваа технологија.”
Меѓу опасностите, ја наведоа можноста за користење на оваа технологија за генерирање лажни вести и опонирање на луѓето на интернет.
“Поради загриженоста за големите јазични модели што се користат за генерирање на измамнички, пристрасен или навредлив јазик, ја објавуваме само помалата верзија на GPT-2, заедно со кодот”, наведоа од OppenAl на својот блог, истакнувајќи дека тие нема да ја споделат базата на податоци, ниту кодовте за тестирање на оваа вештачка интелигенција.
“Оваа одлука, како и нашата дискусија за тоа, претставува експеримент: иако не сме сигурни дека тоа е правилна одлука денес, веруваме дека заедницата на вештачка интелигенција на крајот треба да го разгледа прашањето за стандардите за објавување на внимателен начин во одредени области на истражување.”