Учени от университета в Цюрих показаха, че езиковият модел OpenAI GPT-3 е по-ефективен от хората по отношение на създаването и разпространението на дезинформация. Това се съобщава в статия, публикувана в списание Science Advances.
Проучването е проведено с участието на 697 души, които са били помолени да разграничат точната информация, представена под формата на туитове, от дезинформацията. Освен това беше тествано дали доброволците могат да определят дали даден туит е написан от истински потребител на Twitter или е генериран от GPT-3 Advanced Language Model. Обхванатите теми включват изменението на климата, безопасността на ваксините, пандемията от COVID-19, теорията за плоската земя и хомеопатичните лечения за рак.
GPT-3 демонстрира способността да генерира точна и по-четлива информация в сравнение с туитове от реални потребители на Twitter. Изследователите обаче откриха също, че езиковият модел има обезпокоителното свойство да създава силно убедителна дезинформация. В допълнение, участниците не успяха надеждно да разграничат туитове, генерирани от GPT-3, от туитове, написани от реални потребители на Twitter.
Информацията, генерирана от GPT-3 въз основа на добре структурирани подкани и оценена от обучени хора, ще бъде по-ефективна, например, при криза на общественото здраве, когато се изисква бърза и ясна комуникация с обществеността. В същото време GPT-3 може да се използва в широкомащабни кампании за масова дезинформация, които представляват заплаха за хората по време на извънредни ситуации за общественото здраве, като епидемии или пандемии.
Изследователите призовават политиците да приемат строги, основани на доказателства и етично разумни правила, за да се справят с потенциалните заплахи, породени от разрушителните технологии, и да гарантират отговорното използване на ИИ.
Превод и редакция: TRENDY NEWS