190. Етичні питання, ризики та майбутнє ШІ в медицині.
Матеріал
Урок №190. Етичні питання, ризики та майбутнє ШІ в медицині.

Мета уроку:
- Навчити учнів критично оцінювати переваги й ризики використання ШІ в медицині.
- Сформувати моральну позицію щодо відповідальності та безпеки.
Цілі сталого розвитку:

Які цілі сталого розвитку (в порядку пріоритетності) опрацьовуємо на уроці:
- ЦСР 3: Міцне здоров’я.
- ЦСР 10: Зменшення нерівності.
- ЦСР 16: Мир, справедливість та ефективні інститути
Ключові слова: Етика, приватність, алгоритм, відповідальність, медична помилка, дискримінація даних.
Очікувані результати для учнівства:
Очікувані результати для вчителя:
Дружня порада вчителю
Подивися серію «Чорного дзеркала» — “Arkangel” (про медичний контроль і ШІ)
Обговорення: Подивіться один із згаданих епізодів “Чорного дзеркала” (наприклад, “Nosedive” чи “Hated in the Nation”).
Штучний інтелект (ШІ) уже працює разом із лікарями у лікарнях: він виявляє рак шкіри раніше за людину, аналізує рентген, запам’ятовує тисячі симптомів і не втомлюється.
Але чи означає це, що йому можна довірити своє життя?
Лікар довіряє системі ШІ, яка не рекомендує госпіталізувати пацієнта. Пацієнт помирає вдома.
Чи мав лікар перевірити рішення? Чи має пацієнт право знати, що рішення ухвалив комп’ютер?
Запитання:«Хто відповідальний, якщо ШІ помилиться і пацієнт постраждає:
Лікар? Програміст? Держава?»
У 2023 році хакери зламали медичну базу даних у США, викравши інформацію про 2,6 мільйона пацієнтів. Уявіть, що вони могли б зробити з ШІ-системами!

«Чорне дзеркало» (англ. Black Mirror) – британський науково-фантастичний телесеріал, створений журналістом Чарлі Брукером. Уперше серіал було показано на каналі Channel 4 у 2011 році.
Штучний інтелект — це круто, але він також ставить перед нами складні питання:
1. Приватність даних
Ваші медичні дані — це як ваш особистий щоденник. Але ШІ для роботи потребує купи інформації: аналізи, історію хвороб, навіть ваші звички. Що, якщо ці дані потраплять до хакерів? Або якщо їх використають страхові компанії, щоб відмовити вам у страховці?
У серії “Hated in the Nation” серіала “Чорне дзеркало” (Сезон 3, Епізод 6) показують, як технології стеження за людьми виходять з-під контролю. Уявіть, що ваші медичні дані використовують не для лікування, а щоб маніпулювати вами!
2. Помилки алгоритмів: ШІ тренується на даних, але якщо дані упереджені (наприклад, зібрані лише від певної групи людей), він може неправильно діагностувати інших. Програма, яка частіше не діагностує рак у темношкірих пацієнтів (через недостатні дані у тренувальній вибірці).
Хто винен, якщо ШІ помиляється?
Якщо ШІ поставить неправильний діагноз і людина постраждає, хто відповідальний: програміст, лікар чи сама машина?
У серії “White Bear” серіала “Чорне дзеркало” (Сезон 2, Епізод 2) технології використовуються для покарання, але що, якщо ШІ помилково “покарає” здорову людину неправильним лікуванням?
3. Нерівність у доступі
ШІ-технології дорогі. Що, якщо тільки багаті країни чи люди зможуть їх використовувати? Чи справедливо, що хтось отримує суперлікування від ШІ, а хтось — ні?
У серії “Nosedive” (Сезон 3, Епізод 1) суспільство поділене на “елітних” і “звичайних” через технології. Уявіть, що ШІ в медицині доступний лише для “еліт”!
4. Чи може ШІ вирішувати, кому жити?
У критичних ситуаціях (наприклад, у реанімації) ШІ може оцінювати, у кого більше шансів вижити, і рекомендувати, кому надавати допомогу.
Але чи правильно довіряти машині такі рішення?
У серії “White Christmas” (Сезон 2, Спеціальний епізод) технології контролюють свідомість і приймають моральні рішення. Що, якщо ШІ вирішить, що чиєсь життя “менш цінне”?
5. Залежність від технологій: Якщо лікарі покладатимуться лише на ШІ, вони можуть втратити навички самостійної роботи.
6. Втрата людяності: ШІ не відчуває емпатії. Чи може машина замінити душевну розмову з лікарем? Отже, ШІ — це не лише етичні дилеми, а й реальні ризики:
- Who Takes the Blame When AI Makes a Medical Mistake?
- Should AI be used in health care? Risks, regulations, ethics and benefits of AI in medicine
Відео
Дружня порада вчителю
Можна обрати 1–2 серії на урок заздалегідь (наприклад, «Be Right Back» і «San Junipero») та обговорити в парах або групах.
Також діти можуть обрати серію самостійно (за інтересом) і заповнити таблицю як проєкт.
Штучний інтелект і здоров’я людини по серіалу “Чорне дзеркало”
| Назва серії / сезон і епізод | Короткий зміст сюжету | Як у серії використано ШІ | Які проблеми зі здоров’ям або психікою розкрито | Технологія — благо чи загроза? | Що вас вразило / Що викликало дискусію? |
|---|---|---|---|---|---|
| Be Right Back (S02E01) | Молодий чоловік гине в автокатастрофі. Його дівчина замовляє послугу, яка на основі його даних з соцмереж відтворює його особистість у чаті, а потім — у гуманоїдному тілі. | ||||
| White Christmas (S02E04) | Серія з трьох історій, пов’язаних із технологіями читання думок, «заблокованих» людей та створення цифрових копій свідомості для в’язниці чи слуг. | ||||
| San Junipero (S03E04) | Старші люди можуть завантажувати свою свідомість у цифровий рай — молоде тіло в 80-х, де вони можуть жити вічно. | ||||
| Black Museum (S04E06) | Історії з музею про жорстокі експерименти на мозку, цифрове безсмертя, етичні порушення — все це використовувалось у сфері медицини. | ||||
| Joan Is Awful (S06E01) | Жінка дізнається, що її життя транслюється в реальному часі як серіал, створений алгоритмом за її даними. |
Інструкція до роботи з таблицею
1. Оберіть одну з серій серіалу «Чорне дзеркало», які ви переглядали, або усі якщо подивилися заздалегідь.
2. Уважно прочитайте короткий сюжет у таблиці.
3. Заповніть 4 праві стовпчики таблиці самостійно або в парі:
- Як саме використано штучний інтелект?
- Які психологічні, етичні або медичні проблеми підіймаються?
- Як ви оцінюєте технологію в цьому контексті — вона допомагає чи шкодить?
- Що саме вас зачепило? Які емоції викликала серія?
4. Підготуйтеся поділитися своїми думками або захистити свою точку зору в дискусії:
- Чи здається вам реалістичною така технологія? Чи можливе це найближчим часом?
- Як би ви вчинили на місці головного героя / героїні?
- Чи вважаєте ви морально допустимим використання ШІ в такій ситуації? Чому?
- Чи змінилося ваше ставлення до ШІ після перегляду? У який бік?
- Якби ця технологія стала масовою, що б змінилося в суспільстві? Добре це чи погано?
- Які ризики або небезпеки ви бачите в застосуванні ШІ в медицині або психології?
- Які етичні правила мали би регулювати такі технології?
Таблиця для аналізу ситуацій, де ШІ діє безпомилково технічно, але ігнорує людські почуття, індивідуальні особливості, біль, не враховує “живу людину”.
Мета: зрозуміти, що технічна правильність ШІ — не завжди етична правильність.
Коли ШІ діє правильно, але несправедливо
| Ситуація / кейс | Що зробив ШІ (логічне рішення) | Що відчуває пацієнт / людина | У чому проявляється проблема | Як би вчинила людина-лікар | Який баланс потрібен між ШІ та емпатією |
|---|---|---|---|---|---|
| Онкохворий просить знеболювальне, але ШІ не дає, бо не бачить об’єктивних показників болю | Відмовив у ліках через ризик залежності / протокол | Відчуває нестерпний біль, відчай | ШІ не вміє розпізнати біль через емоції, тільки за даними | ||
| Людина після втрати близької має депресію, але ШІ ставить «нормальний» діагноз, бо аналізи в нормі | Не дає направлення до психіатра | Людина страждає, не спить, втрачає інтерес до життя | Ігнорування емоцій, бо все «в межах норми» | ||
| Дитина з аутизмом не дозволяє себе обстежити, ШІ не може зібрати дані | Пропускає діагностику, не може оцінити стан | Дитина боїться, уникає контактів | ШІ не вміє будувати контакт | ||
| Пацієнт відмовляється від лікування, бо має релігійні переконання — ШІ не розуміє і наполягає | Система вважає це помилкою і блокує виписку | Людина почувається знеособленою, позбавленою права вибору | Відсутність поваги до автономії людини |
Завдання для учнів:
- Заповніть таблицю.
- Потім обговорити: чи є “правильне рішення” завжди справедливим?
- Можна доповнити вправою: як запрограмувати ШІ, щоб він “відчував”? Чи можливо це?
Чи дійсно технології забирають роботу?
| № | Етап / Технологія | Страх людей | Що реально сталося | Що змінилось | Висновок, роблять учні |
|---|---|---|---|---|---|
| 1 | Промислова революція (XVIII–XIX ст.)→ Ткацькі верстати, фабрики | «Машини заберуть роботу у ремісників» | Частково зникла ручна праця, але з’явилось багато нових робочих місць | З’явилися нові професії: машиністи, інженери, майстри | |
| 2 | Автоматизація на заводах (XX ст.)→ Роботи, конвеєри, комп’ютери | «Роботи витіснять людей з заводів» | Частина монотонної праці зникла, але зросла потреба в обслуговуванні техніки | З’явилися ІТ-спеціалісти, техніки, оператори | |
| 3 | Штучний інтелект у медицині (XXI ст.)→ Аналіз знімків, діагнозів, геномів | «ШІ забере роботу лікарів» | ШІ став помічником, а не заміною. Лікар приймає фінальні рішення | Лікарі працюють зі ШІ: більше аналітики, менше рутини |
- Які ризики використання ШІ тебе найбільше турбують?
- Чи потрібна людина-контролер для кожного рішення ШІ?
- Чи хочеш, щоб у майбутньому діти лікувалися у «розумних» клініках?
- Проведи міні-опитування серед дорослих: «Чи довірили б ви своє лікування ШІ?»
- Зроби постер або пост у соцмережі: «3 правила безпечного ШІ в медицині»
- Творче завдання: Напишіть коротке оповідання (5–7 речень) про те, як ШІ в медицині врятував або, навпаки, створив проблеми для людини в 2050 році.
Урок №190. Етичні питання, ризики та майбутнє ШІ в медицині.
Мета уроку:
- Навчити учнів критично оцінювати переваги й ризики використання ШІ в медицині.
- Сформувати моральну позицію щодо відповідальності та безпеки.
Цілі сталого розвитку:

Які цілі сталого розвитку (в порядку пріоритетності) опрацьовуємо на уроці:
- ЦСР 3: Міцне здоров’я.
- ЦСР 10: Зменшення нерівності.
- ЦСР 16: Мир, справедливість та ефективні інститути
Ключові слова: Етика, приватність, алгоритм, відповідальність, медична помилка, дискримінація даних.
Очікувані результати для учнівства:
Штучний інтелект (ШІ) уже працює разом із лікарями у лікарнях: він виявляє рак шкіри раніше за людину, аналізує рентген, запам’ятовує тисячі симптомів і не втомлюється.
Але чи означає це, що йому можна довірити своє життя?
Лікар довіряє системі ШІ, яка не рекомендує госпіталізувати пацієнта. Пацієнт помирає вдома.
Чи мав лікар перевірити рішення? Чи має пацієнт право знати, що рішення ухвалив комп’ютер?
Запитання:«Хто відповідальний, якщо ШІ помилиться і пацієнт постраждає:
Лікар? Програміст? Держава?»
У 2023 році хакери зламали медичну базу даних у США, викравши інформацію про 2,6 мільйона пацієнтів. Уявіть, що вони могли б зробити з ШІ-системами!

«Чорне дзеркало» (англ. Black Mirror) – британський науково-фантастичний телесеріал, створений журналістом Чарлі Брукером. Уперше серіал було показано на каналі Channel 4 у 2011 році.
Штучний інтелект — це круто, але він також ставить перед нами складні питання:
1. Приватність даних
Ваші медичні дані — це як ваш особистий щоденник. Але ШІ для роботи потребує купи інформації: аналізи, історію хвороб, навіть ваші звички. Що, якщо ці дані потраплять до хакерів? Або якщо їх використають страхові компанії, щоб відмовити вам у страховці?
У серії “Hated in the Nation” серіала “Чорне дзеркало” (Сезон 3, Епізод 6) показують, як технології стеження за людьми виходять з-під контролю. Уявіть, що ваші медичні дані використовують не для лікування, а щоб маніпулювати вами!
2. Помилки алгоритмів: ШІ тренується на даних, але якщо дані упереджені (наприклад, зібрані лише від певної групи людей), він може неправильно діагностувати інших. Програма, яка частіше не діагностує рак у темношкірих пацієнтів (через недостатні дані у тренувальній вибірці).
Хто винен, якщо ШІ помиляється?
Якщо ШІ поставить неправильний діагноз і людина постраждає, хто відповідальний: програміст, лікар чи сама машина?
У серії “White Bear” серіала “Чорне дзеркало” (Сезон 2, Епізод 2) технології використовуються для покарання, але що, якщо ШІ помилково “покарає” здорову людину неправильним лікуванням?
3. Нерівність у доступі
ШІ-технології дорогі. Що, якщо тільки багаті країни чи люди зможуть їх використовувати? Чи справедливо, що хтось отримує суперлікування від ШІ, а хтось — ні?
У серії “Nosedive” (Сезон 3, Епізод 1) суспільство поділене на “елітних” і “звичайних” через технології. Уявіть, що ШІ в медицині доступний лише для “еліт”!
4. Чи може ШІ вирішувати, кому жити?
У критичних ситуаціях (наприклад, у реанімації) ШІ може оцінювати, у кого більше шансів вижити, і рекомендувати, кому надавати допомогу.
Але чи правильно довіряти машині такі рішення?
У серії “White Christmas” (Сезон 2, Спеціальний епізод) технології контролюють свідомість і приймають моральні рішення. Що, якщо ШІ вирішить, що чиєсь життя “менш цінне”?
5. Залежність від технологій: Якщо лікарі покладатимуться лише на ШІ, вони можуть втратити навички самостійної роботи.
6. Втрата людяності: ШІ не відчуває емпатії. Чи може машина замінити душевну розмову з лікарем? Отже, ШІ — це не лише етичні дилеми, а й реальні ризики:
- Who Takes the Blame When AI Makes a Medical Mistake?
- Should AI be used in health care? Risks, regulations, ethics and benefits of AI in medicine
Відео
Штучний інтелект і здоров’я людини по серіалу “Чорне дзеркало”
| Назва серії / сезон і епізод | Короткий зміст сюжету | Як у серії використано ШІ | Які проблеми зі здоров’ям або психікою розкрито | Технологія — благо чи загроза? | Що вас вразило / Що викликало дискусію? |
|---|---|---|---|---|---|
| Be Right Back (S02E01) | Молодий чоловік гине в автокатастрофі. Його дівчина замовляє послугу, яка на основі його даних з соцмереж відтворює його особистість у чаті, а потім — у гуманоїдному тілі. | ||||
| White Christmas (S02E04) | Серія з трьох історій, пов’язаних із технологіями читання думок, «заблокованих» людей та створення цифрових копій свідомості для в’язниці чи слуг. | ||||
| San Junipero (S03E04) | Старші люди можуть завантажувати свою свідомість у цифровий рай — молоде тіло в 80-х, де вони можуть жити вічно. | ||||
| Black Museum (S04E06) | Історії з музею про жорстокі експерименти на мозку, цифрове безсмертя, етичні порушення — все це використовувалось у сфері медицини. | ||||
| Joan Is Awful (S06E01) | Жінка дізнається, що її життя транслюється в реальному часі як серіал, створений алгоритмом за її даними. |
Інструкція до роботи з таблицею
1. Оберіть одну з серій серіалу «Чорне дзеркало», які ви переглядали, або усі якщо подивилися заздалегідь.
2. Уважно прочитайте короткий сюжет у таблиці.
3. Заповніть 4 праві стовпчики таблиці самостійно або в парі:
- Як саме використано штучний інтелект?
- Які психологічні, етичні або медичні проблеми підіймаються?
- Як ви оцінюєте технологію в цьому контексті — вона допомагає чи шкодить?
- Що саме вас зачепило? Які емоції викликала серія?
4. Підготуйтеся поділитися своїми думками або захистити свою точку зору в дискусії:
- Чи здається вам реалістичною така технологія? Чи можливе це найближчим часом?
- Як би ви вчинили на місці головного героя / героїні?
- Чи вважаєте ви морально допустимим використання ШІ в такій ситуації? Чому?
- Чи змінилося ваше ставлення до ШІ після перегляду? У який бік?
- Якби ця технологія стала масовою, що б змінилося в суспільстві? Добре це чи погано?
- Які ризики або небезпеки ви бачите в застосуванні ШІ в медицині або психології?
- Які етичні правила мали би регулювати такі технології?
Таблиця для аналізу ситуацій, де ШІ діє безпомилково технічно, але ігнорує людські почуття, індивідуальні особливості, біль, не враховує “живу людину”.
Мета: зрозуміти, що технічна правильність ШІ — не завжди етична правильність.
Коли ШІ діє правильно, але несправедливо
| Ситуація / кейс | Що зробив ШІ (логічне рішення) | Що відчуває пацієнт / людина | У чому проявляється проблема | Як би вчинила людина-лікар | Який баланс потрібен між ШІ та емпатією |
|---|---|---|---|---|---|
| Онкохворий просить знеболювальне, але ШІ не дає, бо не бачить об’єктивних показників болю | Відмовив у ліках через ризик залежності / протокол | Відчуває нестерпний біль, відчай | ШІ не вміє розпізнати біль через емоції, тільки за даними | ||
| Людина після втрати близької має депресію, але ШІ ставить «нормальний» діагноз, бо аналізи в нормі | Не дає направлення до психіатра | Людина страждає, не спить, втрачає інтерес до життя | Ігнорування емоцій, бо все «в межах норми» | ||
| Дитина з аутизмом не дозволяє себе обстежити, ШІ не може зібрати дані | Пропускає діагностику, не може оцінити стан | Дитина боїться, уникає контактів | ШІ не вміє будувати контакт | ||
| Пацієнт відмовляється від лікування, бо має релігійні переконання — ШІ не розуміє і наполягає | Система вважає це помилкою і блокує виписку | Людина почувається знеособленою, позбавленою права вибору | Відсутність поваги до автономії людини |
Завдання для учнів:
- Заповніть таблицю.
- Потім обговорити: чи є “правильне рішення” завжди справедливим?
- Можна доповнити вправою: як запрограмувати ШІ, щоб він “відчував”? Чи можливо це?
Чи дійсно технології забирають роботу?
| № | Етап / Технологія | Страх людей | Що реально сталося | Що змінилось | Висновок, роблять учні |
|---|---|---|---|---|---|
| 1 | Промислова революція (XVIII–XIX ст.)→ Ткацькі верстати, фабрики | «Машини заберуть роботу у ремісників» | Частково зникла ручна праця, але з’явилось багато нових робочих місць | З’явилися нові професії: машиністи, інженери, майстри | |
| 2 | Автоматизація на заводах (XX ст.)→ Роботи, конвеєри, комп’ютери | «Роботи витіснять людей з заводів» | Частина монотонної праці зникла, але зросла потреба в обслуговуванні техніки | З’явилися ІТ-спеціалісти, техніки, оператори | |
| 3 | Штучний інтелект у медицині (XXI ст.)→ Аналіз знімків, діагнозів, геномів | «ШІ забере роботу лікарів» | ШІ став помічником, а не заміною. Лікар приймає фінальні рішення | Лікарі працюють зі ШІ: більше аналітики, менше рутини |
- Які ризики використання ШІ тебе найбільше турбують?
- Чи потрібна людина-контролер для кожного рішення ШІ?
- Чи хочеш, щоб у майбутньому діти лікувалися у «розумних» клініках?
- Проведи міні-опитування серед дорослих: «Чи довірили б ви своє лікування ШІ?»
- Зроби постер або пост у соцмережі: «3 правила безпечного ШІ в медицині»
- Творче завдання: Напишіть коротке оповідання (5–7 речень) про те, як ШІ в медицині врятував або, навпаки, створив проблеми для людини в 2050 році.
Ділись та обговорюй важливе