Послаблення функції блокування в соціальних мережах

Послаблення функції блокування в соціальних мережах

Користувачі Х потребуватимуть захисту після того, як функцію блокування буде вилучено — виявляється, що компанії вміють модерувати негативні коментарі краще за людей

Авторка: Деніца Динєва, професорка маркетингу Кардифського університету

У нещодавньому дописі власник X (раніше Twitter) Ілон Маск оголосив про свої плани щодо вилучення функції блокування з цієї соціальної мережі, за винятком її використання в особистих повідомленнях.

Користувачі стурбовані тим, що ця зміна в модерації платформи може призвести до збільшення кількості агресивного та образливого контенту, через що користувачі платформи не матимуть змоги захистити себе від наслідків такої зміни.

Не лише користувачі соціальних мереж покладаються на функцію блокування X для контролю контенту, який вони бачать і з яким взаємодіють. Компанії та бренди з офіційними акаунтами в соціальних мережах також залежать від вбудованих функцій модерації. Це гарантує, що їхні шанувальники та підписники залучаються до позитивної та доброзичливої взаємодії.

Компанії повинні мати можливість заохочувати конструктивні дискусії у своїх акаунтах соціальних мереж. Це допомагає їм налагоджувати стосунки з клієнтами, збільшувати кількість рефералів від користувачів та покращувати продажі. Ворожий онлайн-контент, спрямований проти компанії, не сприяє досягненню таких бізнес-цілей.

Якщо функцію «блокування» значно обмежать, компанії та окремі користувачі, які прагнуть контролювати розповсюдження ворожого онлайн-контенту, будуть змушені вдаватися до інших засобів модерації. Хоча компанії іноді просять окремих користувачів допомоги в модеруванні контенту, наше нещодавнє дослідження показує, що офіційні облікові записи компаній набагато краще підходять для деескалації ворожого контенту.

Важливість блокування

Дослідження показують, що коли користувачі соціальних мереж стикаються з агресивним та образливим контентом в Інтернеті, це може призвести до низки негативних наслідків. Вони можуть відчувати психологічний тиск та занепокоєння, подібні до тих, що виникають у результаті домагань у реальному житті.

Згідно з тією ж працею, коли користувачі бачать ворожий або образливий контент у соціальних мережах, вони також можуть відчувати негативні емоції та утримуватися від взаємодії з іншими людьми. Це може призвести до негативного ставлення до компанії, яке може поширитися серед інших користувачів, і до втрати довіри до бренду.

Вимкнення сповіщень, повідомлення про порушення та блокування є вбудованими функціями більшості соціальних мереж, які можна використовувати для модерування ворожого контенту. Вони дозволяють користувачам обмежувати контент, який вони бачать, а також тих, хто може взаємодіяти з їхнім профілем. Ці функції дозволяють користувачам отримувати такі переваги соціальних мереж, як стеження за трендами, отримання інформації та взаємодія з іншими. Вони також дозволяють користувачам уникати образливого або небажаного контенту.

Але ці функції лише частково вирішують проблему, оскільки не заважають зловмисникам взаємодіяти з користувачами соціальних мереж або переслідувати їх в мережі. Блокування, мабуть, є найефективнішою функцією модерування платформи. Це дає користувачам повний контроль над тим, з ким і з яким контентом вони взаємодіють у соціальних мережах.

Блокування — це не лише бажана функція модерування; це вимога відповідальної ділової практики. Щоб запобігти образливому та агресивному контенту, політика компаній App Store і Google Play Store передбачає, що надання «можливості блокувати агресивних користувачів» та встановлення «вбудованої в програму системи для блокування створеного користувачами контенту і користувачів» є необхідними умовами для всіх програм, які вони пропонують.

У Великій Британії поточна версія законопроекту про онлайн-безпеку вимагатиме від платформ соціальних медіа пропонувати дорослим відповідні інструменти, щоб захистити себе від образливого чи агресивного контенту. Зазвичай це забезпечує функція блокування.

Майбутнє модерування контенту

У майбутньому повідомлення про порушення та приховування ворожого контенту можуть бути життєздатними варіантами модерування для X. Однак малоймовірно, що цього буде достатньо. Видалення функції «блокування» може означати, що як компаніям, так і окремим користувачам доведеться взяти на себе більшу відповідальність за модерування контенту.

Деякі дослідження вже показали, що в офіційних бізнес-акаунтах використовуються різноманітні модераційні комунікації, крім цензури, за наявності ворожого контенту. І це може покращити ставлення клієнтів та імідж бізнесу.

Іншим рішенням було б покладатися на окремих користувачів соціальних мереж для модерування, особливо на відомі облікові записи, які відрізняють свій статус від інших за допомогою цифрових бейджів (значків), таких як «блакитна галочка» («blue check») у X і «найбільший шанувальник» («top fan») на Facebook.

Це пояснюється тим, що дослідження показують, що облікові записи цифрових бейджів активно й позитивно беруть участь в обговореннях і створеному користувачами контенті в соціальних мережах. У результаті ці облікові записи можуть діяти як неофіційні та тимчасові модератори.

В нашому дослідженні було розглянуто те, чи облікові записи компаній або ж відомі особисті акаунти краще модерували ворожий контент в соціальних мережах. У нашому першому експерименті ми ознайомили учасників з двома сценаріями. У першому облікові записи компаній модерували ворожий контент. В іншому випадку у ворожу взаємодію втрутився обліковий запис користувача цифрового бейджа.

Ми виявили, що компанії оцінюються як модератори, які заслуговують на більшу довіру. Вони найкраще підходять для усунення ворожого контенту без необхідності його приховування чи видалення його або блокування задіяних акаунтів.

У соціальних мережах часто модераторські втручання отримують реакцію та відповіді від користувачів, які підтримують або не погоджуються з висновками цих втручань. Наявність реакції, ймовірно, впливає на те, як сприймають модератора. Щоб перевірити це припущення, в нашому другому експерименті ми вивчали адекватність модератора залежно від того, чи отримував акаунт позитивні чи негативні реакції від інших користувачів, які спостерігали за взаємодією.

Учасникам було запропоновано чотири сценарії: два, в яких модераторське втручання з боку офіційного бізнес-акаунта отримувало позитивні або негативні емодзі, і два, в яких акаунт користувача цифрового бейджа модерував ворожу взаємодію, і це отримувало позитивні або негативні емодзі.

Наші результати знову підтвердили, що інші користувачі соціальних мереж вважають, що саме акаунти компаній дл модерації ворожого контенту. Це відбувається навіть тоді, коли модерація отримує негативну реакцію від підписників бізнес-акаунтів. Облікові записи користувачів цифрових бейджів, навпаки, вважаються надійними лише тоді, коли їхня модерація отримує позитивну реакцію від тих, хто стежить за акаунтами компанії в соціальних мережах.

Незалежно від того, чи буде вилучена функція «блокування» в X, модерація образливого та нецензурного контенту не повинна бути виключною відповідальністю компаній та приватних акаунтів.

Модерування контенту має бути колективним зусиллям платформ, компаній та окремих користувачів. Соціальні медіа-компанії несуть відповідальність за надання своїм користувачам відповідних функцій та інструментів на своїх платформах, що забезпечать приємне спілкування.

Стаття вперше була опублікована англійською мовою під назвою «X users will need protection after the “block” feature is removed — here’s why businesses are better than people at moderating negative comments» в журналі The Conversation 29 серпня 2023 року.

Переклали Маргарита Клименко і Давид Курачов

Читати також


Вибір редакції
up