матеріал 8

Виборчі технології та політичний маркетинг

Матеріал

Урок 23. Виборчі технології та політичний маркетинг


Які результати уроку?

За Державним стандартом:

  • верифікує судження з використанням кількох джерел інформації [12 ГІО 4.2.1-1];
  • добирає та оцінює різноманітну інформацію щодо важливих суспільних питань [12 ГІО 4.2.1-2];
  • доцільно застосовує поняттєвий апарат історії та соціальних наук [12 ГІО 4.3.1-1];
  • оцінює історичні процеси за запропонованими/обраними самостійно критеріями [12 ГІО 4.3.1-1 П];
  • описує виборчий процес та пов’язані з ним ризики [12 ГІО 6.1.2-1];
  • пояснює механізм і процедури виборчого процесу та пов’язані з ними ризики [12 ГІО 6.1.2-1 П];
  • моделює варіанти власної участі у розв’язанні проблем державного і/чи глобального рівнів [12 ГІО 6.2.1-3 П].

На уроці учні / учениці:

  • аналізують сучасні виборчі технології та їхні етичні межі;
  • досліджують принципи політичного маркетингу та брендингу;
  • вивчають роль соціологічних досліджень у формуванні виборчих стратегій;
  • розуміють механізми впливу соціальних мереж на електоральну поведінку;
  • аналізують технології мікротаргетингу та персоналізованої реклами;
  • оцінюють загрози дезінформації та маніпулятивних технологій;
  • розвивають критичне мислення щодо політичної інформації;
  • формують навички медіаграмотності для протидії маніпуляціям.

Ключові терміни та концепції

Поняття:

  1. Виборчі технології — сукупність методів і засобів впливу на електоральну поведінку з метою отримання політичної влади.
  2. Політичний маркетинг — застосування маркетингових принципів та інструментів у політичній діяльності.
  3. Політичний брендинг — створення та просування унікального образу політика або партії.
  4. Мікротаргетинг — точкове спрямування рекламних повідомлень на вузькі сегменти аудиторії.
  5. Big Data у політиці — використання великих масивів даних для аналізу електоральної поведінки.
  6. Астротурфінг — штучне створення видимості низового громадського руху.
  7. Спін-докторинг — мистецтво подачі інформації в потрібному контексті.
  8. Негативна кампанія — стратегія дискредитації політичних опонентів.
  9. Емоційний маркетинг — апелювання до почуттів замість раціональних аргументів.
  10. Вірусний контент — інформація, що швидко поширюється в соціальних мережах.
  11. Ехокамери — інформаційні бульбашки, де люди отримують лише підтверджувальну інформацію.
  12. Дипфейки — штучно створені відео з підміненими особами.

Персоналії:

  • Едвард Бернейс (1891-1995) — “батько” PR та пропаганди.
  • Девід Аксельрод (1955) — стратег виборчих кампаній Барака Обами.
  • Келлі-Енн Конвей (1967) — політтехнолог, популяризатор терміну “альтернативні факти”.
  • Доміник Каммінгс (1971) — стратег кампанії Brexit, експерт з data-driven політики.
  • Олександр Нікс — колишній CEO Cambridge Analytica.
  • Володимир Петров — український політтехнолог, експерт з виборчих технологій.

Як підготуватися до уроку?

Теоретична база

Еволюція виборчих технологій. Розвиток виборчих технологій пройшов кілька етапів, кожен з яких відображав технологічні можливості свого часу. До початку XX століття політики покладалися на особистий контакт, друковані матеріали та публічні виступи. Радіо в 1920-х роках вперше дозволило політикам звертатися безпосередньо до мас, що продемонстрував Франклін Рузвельт зі своїми “бесідами біля каміна”. Телебачення в 1960-х кардинально змінило політику — знамениті дебати Кеннеді-Ніксона показали, що імідж може бути важливішим за програму. Інтернет у 1990-х відкрив нові можливості для комунікації та збору коштів, а соціальні мережі 2000-х створили епоху мікротаргетингу та персоналізованого впливу.

Принципи політичного маркетингу базуються на класичній маркетинговій концепції “4P”, адаптованій для політичного контексту. Product (продукт) у політиці — це кандидат, партія та їхня програма. Політичний продукт має унікальну особливість: його неможливо “спробувати” перед покупкою, а результат стає відомим лише після виборів. Price (ціна) включає не лише фінансові витрати кампанії, але й “ціну”, яку платить виборець: час на ознайомлення з програмою, емоційні інвестиції, ризик розчарування. Place (місце) охоплює всі канали комунікації з виборцями: від традиційних ЗМІ до соціальних мереж та особистих зустрічей. Promotion (просування) включає рекламу, PR, агітацію та всі форми комунікації з цільовою аудиторією.

Сегментація електорату є ключовим елементом політичного маркетингу. Традиційна сегментація відбувається за демографічними ознаками (вік, стать, освіта, дохід), географічними (регіон, тип поселення), психографічними (цінності, стиль життя) та поведінковими (електоральна історія, медіаспоживання) критеріями. Сучасні технології дозволяють створювати мікросегменти з десятків тисяч параметрів, що забезпечує надзвичайно точне таргетування повідомлень.

Соціологічні дослідження у виборчих кампаніях виконують роль “радара” для політичних стратегів. Кількісні дослідження (опитування з репрезентативною вибіркою) показують загальні тенденції та рейтинги, але мають обмеження через небажання респондентів відкрито висловлювати непопулярні погляди. Якісні дослідження (фокус-групи, глибинні інтерв’ю) розкривають мотивацію та емоційні реакції виборців, дозволяючи зрозуміти “що” стоїть за “чому”. Щоденні мініопитування дають змогу відстежувати динаміку настроїв у режимі реального часу. Однак соціологія має принципові обмеження: вона фіксує настрої на момент опитування, не завжди прогнозує поведінку в день виборів і може впливати на результат.

Роль соціальних мереж у сучасних виборчих кампаніях важко переоцінити. Facebook з його 2.9 мільярдами користувачів став головною платформою для політичної комунікації. Алгоритми соціальних мереж створюють інформаційні бульбашки, де користувачі бачать лише контент, що підтверджує їхні погляди. Це посилює поляризацію та ускладнює діалог між різними політичними групами. Twitter (X) перетворився на платформу для миттєвих реакцій та формування порядку денного, TikTok завоював молодіжну аудиторію завдяки короткому вірусному контенту, а YouTube став головним джерелом довгого контенту та альтернативних медіа.

Технології мікротаргетингу дозволяють політикам надсилати персоналізовані повідомлення конкретним групам виборців. Cambridge Analytica довела, що психографічне профілювання може бути ефективнішим за традиційну демографічну сегментацію. Компанія використовувала модель OCEAN (Openness, Conscientiousness, Extraversion, Agreeableness, Neuroticism) для створення психологічних портретів 87 мільйонів користувачів Facebook. Наприклад, людям з високими показниками нейротизму надсилали повідомлення про загрози та страхи, а екстравертам — оптимістичний контент про спільноту та єдність.

Етичні проблеми сучасних виборчих технологій стають дедалі актуальнішими. Маніпулятивні технології можуть підривати основи демократії, перетворюючи виборців на об’єкти впливу замість суб’єктів вибору. Використання персональних даних без згоди користувачів порушує приватність. Дезінформація та фейкові новини можуть спотворювати уявлення про реальність. Мікротаргетинг може поглиблювати соціальні розколи, надсилаючи різним групам суперечливі повідомлення. Автоматизація та боти можуть створювати хибне враження про громадську думку.

Практична підготовка

Статистичні дані про цифрову політику:

Глобальні тренди (2023):

  • 4.8 мільярда людей користуються соціальними мережами
  • 68% отримують новини з соціальних платформ
  • $16 мільярдів витрачено на цифрову політичну рекламу у 2022 році
  • 73% політиків мають акаунти в соціальних мережах

Українські реалії:

  • 27 мільйонів користувачів інтернету (73% населення)
  • Facebook: 13 мільйонів активних користувачів
  • Instagram: 11.9 мільйонів користувачів
  • Telegram: 10.5 мільйонів користувачів
  • TikTok: 7.2 мільйонів користувачів (швидко зростає)

Витрати на політичну рекламу:

  • США 2020: $8.5 мільярдів на цифрову рекламу
  • Великобританія 2019: £3.2 мільйони на Facebook-рекламу
  • Україна 2019: приблизно $50 мільйонів на онлайн-кампанії

Ефективність різних каналів комунікації (дослідження 2022):

  • Соціальні мережі: 34% найвпливовіший канал
  • Телебачення: 28%
  • Особисті розмови: 18%
  • Радіо: 12%
  • Друковані ЗМІ: 8%

Кейси успішних цифрових кампаній:

Барак Обама 2008-2012 — перша по-справжньому цифрова президентська кампанія:

  • Зібрано $750 мільйонів онлайн
  • 13 мільйонів email-адрес
  • 5 мільйонів волонтерів через соцмережі
  • Інноваційне використання big data для ідентифікації потенційних прихильників

Brexit 2016 — кампанія “Vote Leave”:

  • Використання емоційних меседжів замість фактів
  • Мікротаргетинг через Facebook
  • Мобілізація раніше пасивних виборців
  • Бюджет £7 мільйонів, з яких значна частина на цифрову рекламу

Володимир Зеленський 2019 — медійна особистість в політиці:

  • Використання популярності серіалу “Слуга народу”
  • Активна присутність у соціальних мережах
  • Мінімальна участь у традиційних дебатах
  • Акцент на молодіжну аудиторію через цифрові канали

Дизайн уроку

Провокація

Варіант А (Експеримент з маніпуляцією): покажіть учням дві версії одного політичного повідомлення:

  • Версія 1: “Кандидат Х підтримує збільшення фінансування освіти на 20%. Це дозволить підвищити зарплати вчителів та покращити матеріальну базу шкіл”.
  • Версія 2: “Кандидат Х захистить наших дітей від недофінансування освіти! Досить терпіти, коли наші школи розвалюються, а вчителі працюють за копійки!”

Запитання: про що йдеться в обох повідомленнях? Яке з них справляє сильніше враження? Чому політики обирають другий варіант?

Варіант Б (Соціальний експеримент): проведіть швидке опитування класу: “За кого б ви проголосували: за досвідченого 55-річного політика чи за молодого 30-річного реформатора?” Після голосування запитайте: “А якщо я скажу, що 55-річний — це жінка, а 30-річний — чоловік? Хтось змінив би свою думку?”

Варіант В (Медіапровокація): покажіть скриншот із соціальної мережі: пост політика з великою кількістю лайків та коментарів підтримки. Потім розкрийте, що 70% коментарів залишені ботами. Запитання: Як це впливає на ваше сприйняття популярності політика? Чи можна довіряти “цифрам” у соцмережах?


Практика
Робота з джерелами: аналіз виборчих технологій (20 хв).

Рівень А (Базовий). Класифікація виборчих технологій.

Джерело: систематизація сучасних виборчих технологій за способом впливу.

Тип технологіїМетаІнструментиЕтичністьПриклади
ІнформаційніДонести програмуРеклама, дебати, програмиЕтичніТелевізійні ролики, листівки
ЕмоційніВикликати почуттяМузика, символи, образиСумнівніПатріотичні гімни, сімейні фото
МаніпулятивніОбманути виборцівФейки, дезінформаціяНеетичніПідроблені скандали, боти
МобілізаційніПримусити голосуватиПідкуп, тиск, погрозиНезаконні“Каруселі”, підвезення

Завдання для рівня А:

  1. Наведіть по 2 приклади кожного типу технологій з українських виборів
  2. Оцініть ефективність кожного типу (1-5 балів)
  3. Запропонуйте заходи для обмеження маніпулятивних технологій

Рівень Б (Середній). Аналіз кейсу Cambridge Analytica.

Джерело: звіт про діяльність Cambridge Analytica (2013-2018), свідчення Крістофера Вайлі.

Компанія Cambridge Analytica стала символом зловживань персональними даними у політичних цілях. Засновані в 2013 році британським мільярдером та американськими республіканцями, вони розробили технологію психографічного профілювання виборців. Ключовою інновацією став психологічний тест “This Is Your Digital Life”, який пройшли 270,000 користувачів Facebook. Завдяки особливостям API Facebook, додаток отримав доступ не лише до даних тестованих, але й до інформації про їхніх друзів — загалом 87 мільйонів профілів.

Алгоритм роботи Cambridge Analytica:

Крок 1. Збір даних.

  • Лайки у Facebook (улюблені фільми, музика, бренди)
  • Демографічна інформація (вік, стать, освіта, місце роботи)
  • Соціальний граф (список друзів та їхні характеристики)
  • Геолокаційні дані (де людина бувала)

Крок 2. Психологічне профілювання.

Використання моделі OCEAN для визначення особистісних рис:

  • Openness (відкритість): чи готова людина до нових ідей?
  • Conscientiousness (сумлінність): чи дисциплінована та організована?
  • Extraversion (екстраверсія): чи соціально активна?
  • Agreeableness (доброзичливість): чи схильна до кооперації?
  • Neuroticism (невротизм): чи емоційно нестабільна?

Крок 3. Створення персоналізованого контенту.

Для кожного психотипу розроблялися різні повідомлення на одну тему:

Приклад — право на зброю:

  • Високий невротизм: “Злочинці можуть напасти на вашу родину! Захистіть тих, кого любите!”
  • Висока сумлінність: “Друга поправка — це конституційне право відповідальних громадян”
  • Висока відкритість: “Розумне регулювання зброї знижує рівень насильства в суспільстві”

Крок 4. Цільова доставка.

Через Facebook Ads персоналізовані повідомлення надсилалися конкретним користувачам у найвпливовіший момент.

Кейси застосування:

  • Brexit 2016: мобілізація євроскептиків через страхи про імміграцію
  • Вибори США 2016: демобілізація афроамериканських виборців Клінтон
  • Вибори в Кенії 2017: поглиблення етнічних розколів

Завдання для рівня Б:

  1. Проаналізуйте етичні проблеми методів Cambridge Analytica
  2. Оцініть ефективність психографічного таргетингу порівняно з традиційним
  3. Запропонуйте правила використання персональних даних у виборчих кампаніях
  4. Спрогнозуйте майбутнє психографічного маркетингу в політиці

Рівень В (Поглиблений). Дослідження впливу алгоритмів соціальних мереж.

Джерела: дослідження MIT “The spread of true and false news online” (2018), Facebook Internal Research on Polarization (2021).

Алгоритми соціальних мереж кардинально змінили споживання політичної інформації. Дослідження Массачусетського технологічного інституту показало, що фальшиві новини поширюються в 6 разів швидше за правдиві. Причина — у психології людини: ми охочіше ділимося шоковою, незвичайною інформацією. Алгоритми соціальних мереж, оптимізовані для максимізації engagement (залученості), посилюють цю тенденцію.

Механізм роботи алгоритмів:

1. Збір сигналів про поведінку:

  • Час перегляду контенту
  • Лайки, коментарі, шери
  • Клікабельність посилань
  • Час, проведений у коментарях

2. Машинне навчання для прогнозування:

  • Який контент найімовірніше викличе реакцію?
  • Які користувачі схожі за поведінкою?
  • Коли користувач найактивніший?

3. Персоналізована стрічка:

  • Пріоритет емоційно заряженому контенту
  • Посилення наявних переконань (confirmation bias)
  • Створення залежності від платформи

Наслідки для політики:

Поляризація: алгоритми показують користувачам контент, що підтверджує їхні погляди. Дослідження Facebook показало, що лише 6% контенту в стрічці суперечить політичним переконанням користувача.

Радикалізація: алгоритм YouTube схильний рекомендувати дедалі екстремістський контент, щоб утримати увагу. Дослідження показало, що перегляд помірних політичних відео часто веде до рекомендацій радикального контенту.

Дезінформація: емоційно заряджений фальшивий контент отримує більше взаємодій, тому алгоритм частіше його показує. Дослідження NewsGuard виявило, що сайти з низькими рейтингами достовірності мають вищі показники engagement.

Інформаційні бульбашки: кожен користувач бачить унікальну версію реальності. Дослідження Eli Pariser показало, що навіть пошук одного терміну в Google може давати різні результати різним користувачам.

Кількісні показники впливу:

  • 64% людей, які приєдналися до екстремістських груп, заявили, що алгоритми рекомендували їм такий контент
  • Фейкові новини про COVID-19 набрали в 6 разів більше engagement, ніж наукові статті
  • 26% американців отримують новини виключно з соціальних мереж

Завдання для рівня В:

  1. Дослідіть власну стрічку в соціальній мережі: яку політичну інформацію ви бачите?
  2. Проаналізуйте, як алгоритми можуть впливати на електоральну поведінку.
  3. Розробіть пропозиції для регулювання алгоритмів соціальних мереж.
  4. Оцініть потенціал використання ШІ у виборчих кампаніях майбутнього.
Лабораторія політичних технологій (25 хв)

Клас обʼєднується у 4 групи політтехнологів:

Група А. Аналітики.

Завдання: розробити профіль цільової аудиторії для гіпотетичного кандидата.

Інструменти для роботи:

  • Демографічні дані: вік, стать, освіта, дохід, сімейний стан
  • Психографічні характеристики: цінності, інтереси, стиль життя
  • Поведінкові патерни: медіаспоживання, електоральна історія
  • Географічні особливості: регіон, тип поселення, економічна ситуація

Приклад завдання: створіть профіль виборця для молодого кандидата-реформатора у великому місті:

“Анна, 28 років, маркетологиня в IT-компанії. Живе в Києві, орендує квартиру. Не заміжня, але у стосунках. Має вищу освіту, заробляє $1500/місяць. Активно користується Instagram та LinkedIn. Цінує кар’єрний ріст, подорожі, екологію. Голосувала за Зеленського в 2019, але розчарована темпами реформ. Ключові проблеми: доступне житло, якість медицини, корупція”.

Завдання для групи:

  1. Створіть 3 різні профілі цільових виборців.
  2. Визначіть ключові повідомлення для кожної групи.
  3. Оберіть найефективніші канали комунікації.
  4. Спрогнозуйте поведінку кожної групи на виборах.

Група Б. Креативні директори.

Завдання: розробити концепцію політичної реклами для різних платформ.

Брифінг: кандидат – мер великого міста, 45 років, досвід управління. Ключовий меседж: “Досвід + інновації = результат”. Цільова аудиторія: середній клас, 30-50 років. Бюджет: обмежений, акцент на цифрові канали.

Платформи для адаптації:

  1. Facebook: детальний пост з фактами та досягненнями
  2. Instagram stories: серія коротких відео за один день з кандидатом
  3. TikTok: креативний челендж або тренд
  4. YouTube: 3-хвилинний фільм про бачення майбутнього міста
  5. Telegram: щоденна розсилка з аналітикою та планами

Креативні принципи:

  • Автентичність: реальні люди, реальні історії
  • Емоційність: зв’язок з особистим досвідом виборців
  • Простота: зрозумілі меседжі без політичного жаргону
  • Інтерактивність: можливість залучення аудиторії

Завдання для групи:

  1. Створіть концепції для кожної платформи.
  2. Розробіть візуальний стиль кампанії.
  3. Придумайте хештег та слоган.
  4. Заплануйте календар публікацій на тиждень.

Група В. Соціологи.

Завдання: розробити дослідницьку стратегію для виборчої кампанії.

Види досліджень у політиці:

1. Базове опитування

  • Мета: визначити стартові позиції кандидатів
  • Час проведення: на початку кампанії
  • Вибірка: 1000+ респондентів, репрезентативна
  • Ключові питання: рейтинги, знання кандидатів, ключові проблеми

2. Трекінгові опитування

  • Мета: відстежувати динаміку рейтингів
  • Частота: щотижня або щодня
  • Вибірка: 300-500 респондентів
  • Особливість: ковзна середня для згладжування коливань

3. Фокус-групи

  • Мета: зрозуміти мотивацію та емоції виборців
  • Учасники: 8-12 людей зі схожими характеристиками
  • Тривалість: 2-3 години
  • Методи: модерована дискусія, тестування повідомлень

4. Тестування з циферблатом

  • Мета: оцінити реакцію на виступи в реальному часі
  • Інструмент: циферблат від 0 до 100 для оцінки кожної фрази
  • Використання: підготовка до дебатів, тестування реклами

5. Екзит-поли

  • Мета: прогнозування результатів у день виборів
  • Місце проведення: біля виборчих дільниць
  • Особливість: високий рівень точності (помилка 1-2%)

Проблеми сучасної політичної соціології:

  • Сором’язливі виборці: небажання зізнаватися в підтримці непопулярних кандидатів
  • Мобільні телефони: складність досягнення молодих респондентів
  • Онлайн-опитування: проблеми з репрезентативністю
  • Поляризація: відмова брати участь в опитуваннях

Завдання для групи:

  1. Спроєктуйте дослідницьку програму на 6 місяців кампанії.
  2. Складіть анкету для базового опитування (15 питань).
  3. Розробіть сценарій фокус-групи.
  4. Оцініть бюджет дослідницької програми.

Група Г. Кібербезпека та етика.

Завдання: проаналізувати загрози та етичні дилеми цифрових виборчих технологій.

Цифрові загрози виборчим процесам:

1. Дезінформація та фейк-ньюз Приклади технологій:

  • Дипфейки: відеоматеріали з підміненими особами
  • Астротурфінг: створення штучних низових рухів
  • Спам-боти: масова розсилка неправдивої інформації
  • Координовані атаки: синхронізовані кампанії в соцмережах

2. Кібератаки на виборчу інфраструктуру

  • Злом серверів виборчих комісій
  • DDoS-атаки на сайти кандидатів
  • Фішинг персональних даних виборців
  • Маніпуляції з базами даних виборців

3. Мікротаргетинг та порушення приватності

  • Збір персональних даних без згоди
  • Психологічне профілювання для маніпуляцій
  • Продаж електоральних даних третім особам
  • Створення детальних досьє на виборців

4. Алгоритмічні маніпуляції

  • Штучне підсилення певного контенту
  • Пригнічення небажаних повідомлень
  • Створення ехокамер та filter bubbles
  • Маніпулювання трендами в соцмережах

Етичні дилеми:

Дилема 1. Ефективність і Чесність. Ситуація: ваш кандидат програє, але у вас є компромат на опонента (особисте життя, не пов’язане з професією). Питання: чи етично використовувати цю інформацію?

Дилема 2. Таргетинг і Маніпуляція. Ситуація: дані показують, що певна група виборців болісно реагує на тему імміграції. Питання: чи можна використовувати ці страхи для мобілізації?

Дилема 3. Правда і Простота. Ситуація: складна економічна програма потребує спрощення для широкої аудиторії. Питання: де межа між спрощенням та спотворенням?

Дилема 4. Приватність і Ефективність. Ситуація: детальні дані про виборців дозволяють створювати ефективніші повідомлення. Питання: чи виправдовує результат порушення приватності?

Міжнародні практики регулювання:

Європейський Союз:

  • Згода на обробку персональних даних
  • Право на забуття
  • Прозорість алгоритмів
  • Штрафи до 4% від річного обороту

США:

  • Обмежена відповідальність платформ за контент
  • Саморегулювання соціальних мереж
  • Дебати про розділення великих технологічних компаній

Канада:

  • Обов’язкове повідомлення про збір даних
  • Контроль за політичною рекламою
  • Реєстрація онлайн-платформ під час виборів

Завдання для групи:

  1. Розробіть “Етичний кодекс цифрових виборчих кампаній”.
  2. Запропонуйте систему верифікації політичної реклами в соцмережах.
  3. Створіть чекліст для виявлення дезінформації.
  4. Оцініть ефективність різних підходів до регулювання.
Симуляція виборчої кампанії (15 хв)

Сценарій: вибори мера міста “Технополіс” (500,000 населення, IT-кластер)

Умови симуляції:

  • Бюджет кампанії: $200,000
  • Тривалість: 3 місяці
  • Цільова аудиторія: молоді професіонали (25-40 років)
  • Головні проблеми: дорожні затори, екологія, цифровізація послуг

Ролі:

Кандидат А: Досвідчений управлінець

  • 52 роки, колишній заступник мера
  • Слоган: “Досвід, який працює”
  • Цільова аудиторія: 40+ років, стабільність

Кандидат Б: IT-інноватор

  • 35 років, засновник стартапу
  • Слоган: “Майбутнє починається сьогодні”
  • Цільова аудиторія: 25-40 років, інновації

Кандидат В: Екологічна активістка

  • 29 років, лідер екологічної організації
  • Слоган: “Зелене місто для наших дітей”
  • Цільова аудиторія: молоді батьки, екологічно свідомі

Етапи симуляції:

1. Стратегічне планування (5 хв). Команди кандидатів розробляють:

  • Ключові меседжі (3 основні)
  • Розподіл бюджету між каналами
  • Календар основних подій кампанії
  • Стратегію роботи з опонентами

2. Тактичне виконання (7 хв). Моделювання конкретних ситуацій:

  • Криза: у соцмережах з’являється компромат на одного з кандидатів
  • Можливість: великий IT-інвестор обіцяє підтримку
  • Випадкова подія: екологічна катастрофа у сусідньому місті

3. Дебати та голосування (3 хв).

  • Кожен кандидат має 1 хвилину на фінальну промову
  • Таємне голосування учнів
  • Підрахунок та аналіз результатів

Аналітичні питання після симуляції:

  • Які технології виявилися найефективнішими?
  • Як кризові ситуації вплинули на стратегії кампаній?
  • Чи використовувались етично сумнівні методи?
  • Що вирішило результат виборів?

Підсумки і рефлексія

Прогрес (самооцінка)

ТвердженняНіЧастковоТак
Я розумію різні типи виборчих технологій та їхню етичність
Я можу аналізувати механізми політичного маркетингу
Я розпізнаю маніпулятивні техніки в політичній рекламі
Я розумію роль соціальних мереж у сучасній політиці
Я можу критично оцінювати політичну інформацію

Швидкий тест медіаграмотності:

1. Ви бачите пост політика з тисячами лайків та коментарів підтримки. Ваша перша думка: □ “Цей політик справді популярний” □ “Потрібно перевірити, чи не боти це”
□ “Популярність в соцмережах не завжди відображає реальні рейтинги”

2. Вам надсилають персоналізовану політичну рекламу про проблему, яка вас турбує: □ Радію, що політики знають мої інтереси □ Цікавлюсь, звідки вони отримали мої дані □ Підозрюю спробу маніпуляції

3. Ви читаете шокуючу новину про політика, яка швидко поширюється: □ Одразу ділюся з друзями □ Перевіряю в кількох джерелах □ Шукаю спростування

Рефлексивні запитання:

  1. Яка виборча технологія вас найбільше вразила або занепокоїла?
  2. Чи вважаєте ви себе захищеними від політичних маніпуляцій?
  3. Де, на вашу думку, проходить межа між переконанням та маніпуляцією?
  4. Як ви плануєте змінити споживання політичної інформації після цього уроку?
  5. Що може зробити суспільство для захисту від недобросовісних виборчих технологій?
  6. Чи готові ви пожертвувати приватністю заради більш релевантної політичної інформації?

Самостійна робота

Рівень А. Створіть “Детектор політичних маніпуляцій” — інфографіку з 10 ознак недобросовісної політичної реклами.

Рівень Б. Проведіть аналіз політичної присутності одного кандидата в соціальних мережах (1500 слів): контент-стратегія, аудиторія, технології впливу.

Рівень В. Розробіть концепцію “Етичної цифрової виборчої кампанії” (2000+ слів) з прозорими принципами використання даних та технологій.


Творчі проєкти

(на вибір)

Варіант А. Створіть мокап політичної кампанії в соціальних мережах — повний комплект постів, сторіз, відео для гіпотетичного кандидата

Варіант Б. Знімите документальний фільм “Як нами маніпулюють” (10-15 хв) з інтерв’ю, прикладами та аналізом.

Варіант В. Розробіть браузерне розширення або мобільний додаток для перевірки політичної інформації.

Варіант Г. Створіть подкаст “Технології влади” з серією епізодів про різні аспекти політичного маркетингу.

Урок 23. Виборчі технології та політичний маркетинг

Робочий аркуш учнів і учениць

Провокація

Експеримент з маніпуляцією:

  • Версія 1: “Кандидат Х підтримує збільшення фінансування освіти на 20%”
  • Версія 2: “Кандидат Х захистить наших дітей від недофінансування освіти!”

Яке повідомлення справляє сильніше враження? □ Версія 1 □ Версія 2

Чому? _________________________________

Що це говорить про політичні технології?

________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________

Практика

Ваш рівень: □ А (Класифікація) □ Б (Cambridge Analytica) □ В (Алгоритми)

Рівень А. Класифікація виборчих технологій.

Наведіть приклади з українських виборів:

Тип технологіїПриклад 1Приклад 2Оцінка етичності (1-5)
Інформаційні
Емоційні
Маніпулятивні
Мобілізаційні

Ваші пропозиції для обмеження маніпулятивних технологій:

  1. ______________________________________________________________________________________________
  2. ______________________________________________________________________________________________
  3. ______________________________________________________________________________________________

Рівень Б. Кейс Cambridge Analytica.

Оцініть етичність методів (1-5 балів):

  • Збір даних через психологічний тест: ___
  • Використання даних друзів без їхньої згоди: ___
  • Психологічне профілювання виборців: ___
  • Персоналізована політична реклама: ___

Ваші правила використання персональних даних у виборах:

  1. ______________________________________________________________________________________________
  2. ______________________________________________________________________________________________
  3. ______________________________________________________________________________________________

Прогноз майбутнього психографічного маркетингу:

________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________

Рівень В. Алгоритми соціальних мереж

Проаналізуйте власну стрічку:

  • Яку політичну інформацію ви бачите найчастіше? _______________
  • Чи збігається вона з вашими поглядами? _______________
  • Чи бачите ви альтернативні точки зору? _______________

Вплив алгоритмів на електоральну поведінку:

________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________

Ваші пропозиції для регулювання алгоритмів:

  1. ______________________________________________________________________________________________
  2. ______________________________________________________________________________________________
  3. ______________________________________________________________________________________________

Лабораторія технологій

Ваша роль: □ Аналітики □ Креативні директори □ Соціологи □ Кібербезпека

Аналітики: Профілі виборців.

Створіть профіль цільового виборця:

Профіль 1:

  • Демографія: вік ___, стать ___, освіта _______________
  • Психографія: цінності _______________
  • Поведінка: медіа _______________, голосування _______________
  • Ключові проблеми: _______________

Ключові повідомлення для цієї групи:

  1. ______________________________________________________________________________________________
  2. ______________________________________________________________________________________________

Найефективніші канали комунікації:

________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________

Креативні директори: Креативна концепція.

Ваш кандидат: мер міста, 45 років, “Досвід + інновації = результат”

Концепції для платформ:

Facebook: _______________________________________________ Instagram Stories:_______________________________________________ TikTok:_______________________________________________ YouTube:_______________________________________________

Слоган кампанії: _______________ Хештег: _______________ Візуальний стиль: _______________

Pollsters: Дослідницька стратегія

Спроєктуйте дослідження на 6 місяців:

МісяцьТип дослідженняМетаВибірка
1
2
3
4
5
6

Складіть 5 ключових питань для базового опитування:

  1. ______________________________________________________________________________________________
  2. ______________________________________________________________________________________________
  3. ______________________________________________________________________________________________
  4. ______________________________________________________________________________________________
  5. ______________________________________________________________________________________________

Cyber Security: Етика та безпека.

Етичний кодекс (5 принципів):

  1. ______________________________________________________________________________________________
  2. ______________________________________________________________________________________________
  3. ______________________________________________________________________________________________
  4. ______________________________________________________________________________________________
  5. ______________________________________________________________________________________________

Чекліст виявлення дезінформації: 

□ Перевірити джерело

□ _______________________________________________

□ _______________________________________________

□ _______________________________________________

□ _______________________________________________

Система верифікації політичної реклами:

________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________

Симуляція кампанії

Ваш кандидат: □ Досвідчений управлінець □ IT-інноватор □ Екологічна активістка

Ключові меседжі (3 основні):

  1. ______________________________________________________________________________________________
  2. ______________________________________________________________________________________________
  3. ______________________________________________________________________________________________

Розподіл бюджету $200,000:

  • Телебачення: $_______ (___%)
  • Соціальні мережі: $_______ (___%)
  • Зовнішня реклама: $_______ (___%)
  • Дослідження: $_______ (___%)
  • Інше: $_______ (___%)

Реакція на кризу (компромат у соцмережах):

________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________

Результат голосування:

  • Ваш кандидат: ___ голосів
  • Що вирішило результат: _______________

Тест медіаграмотності
  1. Пост політика з тисячами лайків: □ Справді популярний □ Можливо боти □ Не показник реальності
  2. Персоналізована політична реклама: □ Радію таргетингу □ Цікавлюсь джерелом даних □ Підозрюю маніпуляцію
  3. Шокуюча новина про політика: □ Ділюся одразу □ Перевіряю джерела □ Шукаю спростування

Ваш рівень медіаграмотності: ___/3


Рефлексія

Найвразливіша технологія:

________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________

Чи відчуваєте захищеність від маніпуляцій? □ Так □ Ні □ Частково

Межа між переконанням та маніпуляцією:

________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________

Як зміните споживання політичної інформації:

________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________

Три дії суспільства проти недобросовісних технологій:

  1. ______________________________________________________________________________________________
  2. ______________________________________________________________________________________________
  3. ______________________________________________________________________________________________

Оцінка уроку
Аспект12345
Актуальність теми
Практична корисність
Якість матеріалів
Інтерактивність

Найцікавіше відкриття:

________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________

Пропозиції для покращення:

________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________
Додаткові джерела та ресурси

Теоретичні праці

  1. Едвард Бернейс “Пропаганда” (1928) — класика PR та політичного впливу
  2. Шошана Зубофф “Епоха капіталізму спостереження” (2019) — про використання даних
  3. Кас Санстейн “Echo Chambers” (2017) — про інформаційні бульбашки

Документальні фільми

  1. “The Great Hack” (Netflix, 2019) — про Cambridge Analytica та маніпуляції даними
  2. “The Social Dilemma” (Netflix, 2020) — про вплив соціальних мереж на суспільство
  3. “Privacy Uprising” (2021) — про боротьбу за цифрові права

Дослідницькі центри

  1. Oxford Internet Institute — дослідження цифрової політики
  2. Reuters Institute for the Study of Journalism — медіа та політика
  3. Pew Research Center — американські дослідження політики та технологій
  4. DETECTOR MEDIA — українські дослідження медіа та дезінформації

Онлайн-ресурси

  1. Political Tech Timeline — хронологія політичних технологій
  2. Facebook Ad Library — архів політичної реклами
  3. PropOrNot — ідентифікація пропагандистських ресурсів
  4. MediaBias/FactCheck — перевірка політичних фактів

Інтерактивні інструменти

  1. Who Targets Me — аналіз політичної реклами в соцмережах
  2. DataViewer — візуалізація політичних даних
  3. Politecho — аналіз політичних ехокамер у Twitter
Статистичні дані

Ефективність політичної реклами за каналами (2023):

  • Цільова реклама в соцмережах: 23% CTR
  • Телевізійна реклама: 2-5% recall rate
  • Email-розсилки: 18% open rate
  • Зовнішня реклама: 1-3% attention rate

Вартість залучення виборця (Cost Per Acquired Voter):

  • Facebook Ads: $2-8 за клік, $50-200 за конверсію
  • Google Ads: $1-5 за клік, $30-150 за конверсію
  • Телевізійна реклама: $500-2000 за 1000 переглядів
  • Пряма пошта: $0.5-2 за контакт

Демографія споживання політичного контенту:

  • 18-29 років: 71% отримують новини з соцмереж
  • 30-49 років: 56% соцмережі, 44% традиційні ЗМІ
  • 50-64 роки: 35% соцмережі, 65% традиційні ЗМІ
  • 65+ років: 20% соцмережі, 80% традиційні ЗМІ
Цитати для роздумів

“В епоху інформації, той, хто контролює алгоритми, контролює реальність” (Юваль Ноа Харарі)

“Найкращі маніпулятори — ті, хто переконують людей, що вони ухвалюють власні рішення” (Роберт Чалдіні)

“Ми формуємо наші інструменти, а потім вони формують нас” (Маршалл Маклюен)

“Демократія не може вижити в екосистемі альтернативних фактів” (Марія Ресса)

Практичні вправи для закріплення

Вправа “Розбір політичної реклами”: учні аналізують 5 прикладів політичної реклами за схемою: цільова аудиторія, ключовий меседж, емоційні прийоми, етичність.

Експеримент “Персональні дані”: учні завантажують свої дані з Google/Facebook та аналізують, що про них “знають” алгоритми.

Гра “Фейк або факт”: командна гра з аналізом 20 новин: учні мають визначити достовірність та пояснити ознаки.

Проєкт “Етична кампанія”: розробка повноцінної виборчої кампанії з дотриманням етичних принципів.

Міжпредметні зв’язки

Інформатика:

  • Алгоритми машинного навчання
  • Структури баз даних
  • Принципи кібербезпеки

Психологія:

  • Когнітивні спотворення
  • Психологія переконання
  • Групова динаміка

Соціологія:

  • Методи соціологічних досліджень
  • Теорії масової комунікації
  • Соціальна стратифікація

Математика:

  • Статистичний аналіз
  • Теорія ймовірностей
  • Математичне моделювання

Ділись та обговорюй важливе

Обкладинка коментарів до матеріалу