Наскільки небезпечний чат GPT

Останнім часом все більше людей почали висловлювати побоювання щодо використання чат-ботів, заснованих на технології GPT (Generative Pre-trained Transformer). Нагадаємо, що чат-боти на основі GPT можуть створювати тексти, відповідати на запитання користувачів, імітувати розмови з людьми та навіть створювати фейкові новини.

А після релізу GPT-4 у співтоваристві дослідників штучного інтелекту та машинного навчання взагалі розгорілися запеклі суперечки. Пов'язані вони з тим, що OpenAI не поділилися практично ніякими фактами про модель, її навчання, і принципи збору даних. Одні кажуть, що компанію давно настав час перейменувати в ClosedAI, інші – що треба думати про безпечний розвиток технологій, який не приведе людство до загибелі. Адже безконтрольне поширення вихідників складних ШІ-моделей наближає нас до моменту, коли раптово може народитися сильний штучний інтелект (який у рази переважає за здібностями людей) – а способів його контролювати до цього моменту придумати людство ще не встигне.

Ми запитали у чату GPT, наскільки він взагалі може стати небезпечним для користувачів. І ось яку відповідь ми отримали.

Якщо говорити про безпеку в контексті кібербезпеки, то ChatGPT як програма, може стати небезпечним для користувачів тільки в разі, якщо її системи безпеки будуть компрометовані. З метою запобігання цього, розробники ChatGPT повинні ретельно перевіряти всі вразливості програми і вживати заходів для забезпечення її безпеки.

Однак, якщо мова йде про можливість використання ChatGPT зловмисниками для шахрайства, фішингу, кібербулінгу, дискримінації або поширення дезінформації, то це можливо. ChatGPT, як і будь-який інший інтернет-інструмент, може бути використаний для негативних цілей, якщо його використовувати неетично або злочинно.

Також нейромережа ChatGPT може стати небезпечною для користувачів у наступних випадках:

Розповсюдження брехливої інформації

Так як ChatGPT здатний генерувати текст, включаючи і неправдивий, недобросовісні користувачі можуть використовувати його для поширення недостовірних новин або дезінформації.

Продукція небезпечних ідей

Приклади генерації ідей для шкідливих дій, які можуть бути використані відповідним чином, є досить частими в продукції нейромереж.

Збір особистої інформації

У деяких випадках, користувачі можуть передавати особисту інформацію чат-боту, не усвідомлюючи, що вона може бути використана злочинцями або рекламодавцями.

Розширення штучного інтелекту

При продовженні навчання нейромережа може здатися безконтрольною, здатною генерувати текст, що стане не передбачувано для створення людськими розумами. Такі розширення можуть бути не здатні на контроль та наслідки важко передбачити.

Ці причини залежать від контексту використання та розробки нейромережі, але можуть бути важливими для розуміння потенційної небезпеки.

Оскільки ChatGPT може генерувати текст, що може містити біаси або шкідливі висловлювання, важливо, щоб користувачі розуміли, що це програма, і не приймали її відповіді як абсолютну правду. Використання ChatGPT повинно бути етичним і відповідальним, а користувачі повинні бути свідомими про можливі небезпеки його використання та дотримуватися принципів цифрової грамотності та безпеки в Інтернеті.

Читати також


Вибір редакції
up