матеріал 20

190. Етичні питання, ризики та майбутнє ШІ в медицині.

Матеріал

Урок №190. Етичні питання, ризики та майбутнє ШІ в медицині.


Очікувані результати навчання:
  • формулює самостійно або у співпраці з іншими мету дослідження [12 ПРО 1.2.1]
  • порівнює, аналізує самостійно або у співпраці з іншими природні і техногенні об’єкти, явища і процеси на основі наукових методів пізнання та законів природи [12 ПРО 3.1.1]
  • інтерпретує самостійно або у співпраці з іншими інформацію природничого змісту, представлену в різний спосіб [12 ПРО 2.2.2]
  • визначає самостійно або у співпраці з іншими аргументи/твердження, теорії, що ґрунтуються на наукових фактах і доказах [12 ПРО 4.1.1]
  • застосовує самостійно або у співпраці з іншими наукове знання і власний досвід для розв’язання життєвої/ навчальної проблеми [12 ПРО 4.3.2]
  • оцінює самостійно або у співпраці з іншими значення природничих наук, техніки і технологій для суспільного прогресу і сталого розвитку [12 ПРО 3.4.1]
  • виявляє ціннісне ставлення до набутих дослідницьких навичок для пізнання природи [12ПРО 1.6.3]

Мета уроку:

  • Навчити учнів критично оцінювати переваги й ризики використання ШІ в медицині.
  • Сформувати моральну позицію щодо відповідальності та безпеки.
Цілі сталого розвитку: 

Які цілі сталого розвитку (в порядку пріоритетності) опрацьовуємо на уроці:

  • ЦСР 3: Міцне здоров’я.
  • ЦСР 10: Зменшення нерівності.
  • ЦСР 16: Мир, справедливість та ефективні інститути

Ключові слова: Етика, приватність, алгоритм, відповідальність, медична помилка, дискримінація даних.

Очікувані результати для учнівства:
  • Називають етичні виклики використання ШІ.
  • Аналізують переваги й недоліки рішень, які приймає ШІ.
  • Висловлюють власну думку з приводу використання ШІ в медицині.
Очікувані результати для вчителя:
  • Поглиблюють знання про міждисциплінарний підхід.
  • Отримують інструменти для організації дебатів, рефлексій, проєктів.

1. Мотивація

Штучний інтелект (ШІ) уже працює разом із лікарями у лікарнях: він виявляє рак шкіри раніше за людину, аналізує рентген, запам’ятовує тисячі симптомів і не втомлюється.
Але чи означає це, що йому можна довірити своє життя?
Лікар довіряє системі ШІ, яка не рекомендує госпіталізувати пацієнта. Пацієнт помирає вдома.
Чи мав лікар перевірити рішення? Чи має пацієнт право знати, що рішення ухвалив комп’ютер?
Запитання:«Хто відповідальний, якщо ШІ помилиться і пацієнт постраждає:
Лікар? Програміст? Держава?»
У 2023 році хакери зламали медичну базу даних у США, викравши інформацію про 2,6 мільйона пацієнтів. Уявіть, що вони могли б зробити з ШІ-системами!


2. Тобі може знадобитися:

«Чорне дзеркало» (англ. Black Mirror) – британський науково-фантастичний телесеріал, створений журналістом Чарлі Брукером. Уперше серіал було показано на каналі Channel 4 у 2011 році.
Штучний інтелект — це круто, але він також ставить перед нами складні питання:

1.  Приватність даних
Ваші медичні дані — це як ваш особистий щоденник. Але ШІ для роботи потребує купи інформації: аналізи, історію хвороб, навіть ваші звички. Що, якщо ці дані потраплять до хакерів? Або якщо їх використають страхові компанії, щоб відмовити вам у страховці?

У серії “Hated in the Nation” серіала “Чорне дзеркало” (Сезон 3, Епізод 6) показують, як технології стеження за людьми виходять з-під контролю. Уявіть, що ваші медичні дані використовують не для лікування, а щоб маніпулювати вами!

2.  Помилки алгоритмів: ШІ тренується на даних, але якщо дані упереджені (наприклад, зібрані лише від певної групи людей), він може неправильно діагностувати інших. Програма, яка частіше не діагностує рак у темношкірих пацієнтів (через недостатні дані у тренувальній вибірці).
Хто винен, якщо ШІ помиляється?
Якщо ШІ поставить неправильний діагноз і людина постраждає, хто відповідальний: програміст, лікар чи сама машина?

У серії “White Bear” серіала “Чорне дзеркало” (Сезон 2, Епізод 2) технології використовуються для покарання, але що, якщо ШІ помилково “покарає” здорову людину неправильним лікуванням?

3.  Нерівність у доступі
ШІ-технології дорогі. Що, якщо тільки багаті країни чи люди зможуть їх використовувати? Чи справедливо, що хтось отримує суперлікування від ШІ, а хтось — ні?

У серії “Nosedive” (Сезон 3, Епізод 1) суспільство поділене на “елітних” і “звичайних” через технології. Уявіть, що ШІ в медицині доступний лише для “еліт”!

4.  Чи може ШІ вирішувати, кому жити?
У критичних ситуаціях (наприклад, у реанімації) ШІ може оцінювати, у кого більше шансів вижити, і рекомендувати, кому надавати допомогу.
Але чи правильно довіряти машині такі рішення?
У серії “White Christmas” (Сезон 2, Спеціальний епізод) технології контролюють свідомість і приймають моральні рішення. Що, якщо ШІ вирішить, що чиєсь життя “менш цінне”?

5. Залежність від технологій: Якщо лікарі покладатимуться лише на ШІ, вони можуть втратити навички самостійної роботи.

6.  Втрата людяності: ШІ не відчуває емпатії. Чи може машина замінити душевну розмову з лікарем? Отже, ШІ — це не лише етичні дилеми, а й реальні ризики:

Відео


3. Життєва ситуація:

Можна обрати 1–2 серії на урок заздалегідь (наприклад, «Be Right Back» і «San Junipero») та обговорити в парах або групах.
Також діти можуть обрати серію самостійно (за інтересом) і заповнити таблицю як проєкт.

Штучний інтелект і здоров’я людини по серіалу “Чорне дзеркало”

Назва серії / сезон і епізодКороткий зміст сюжетуЯк у серії використано ШІЯкі проблеми зі здоров’ям або психікою розкритоТехнологія — благо чи загроза?Що вас вразило / Що викликало дискусію?
Be Right Back (S02E01)Молодий чоловік гине в автокатастрофі. Його дівчина замовляє послугу, яка на основі його даних з соцмереж відтворює його особистість у чаті, а потім — у гуманоїдному тілі.
White Christmas (S02E04)Серія з трьох історій, пов’язаних із технологіями читання думок, «заблокованих» людей та створення цифрових копій свідомості для в’язниці чи слуг.
San Junipero (S03E04)Старші люди можуть завантажувати свою свідомість у цифровий рай — молоде тіло в 80-х, де вони можуть жити вічно.
Black Museum (S04E06)Історії з музею про жорстокі експерименти на мозку, цифрове безсмертя, етичні порушення — все це використовувалось у сфері медицини.
Joan Is Awful (S06E01)Жінка дізнається, що її життя транслюється в реальному часі як серіал, створений алгоритмом за її даними.

Інструкція до роботи з таблицею

1. Оберіть одну з серій серіалу «Чорне дзеркало», які ви переглядали, або усі якщо подивилися заздалегідь.

2. Уважно прочитайте короткий сюжет у таблиці.

3. Заповніть 4 праві стовпчики таблиці самостійно або в парі:

  • Як саме використано штучний інтелект?
  • Які психологічні, етичні або медичні проблеми підіймаються?
  • Як ви оцінюєте технологію в цьому контексті — вона допомагає чи шкодить?
  • Що саме вас зачепило? Які емоції викликала серія?

4. Підготуйтеся поділитися своїми думками або захистити свою точку зору в дискусії:

  1. Чи здається вам реалістичною така технологія? Чи можливе це найближчим часом?
  2. Як би ви вчинили на місці головного героя / героїні?
  3. Чи вважаєте ви морально допустимим використання ШІ в такій ситуації? Чому?
  4.  Чи змінилося ваше ставлення до ШІ після перегляду? У який бік?
  5. Якби ця технологія стала масовою, що б змінилося в суспільстві? Добре це чи погано?
  6. Які ризики або небезпеки ви бачите в застосуванні ШІ в медицині або психології?
  7. Які етичні правила мали би регулювати такі технології?

4. Попрактикуймо самостійно:

Таблиця для аналізу ситуацій, де ШІ діє безпомилково технічно, але ігнорує людські почуття, індивідуальні особливості, біль,  не враховує “живу людину”.
Мета: зрозуміти, що технічна правильність ШІ — не завжди етична правильність.

Коли ШІ діє правильно, але несправедливо

Ситуація / кейсЩо зробив ШІ (логічне рішення)Що відчуває пацієнт / людинаУ чому проявляється проблемаЯк би вчинила людина-лікарЯкий баланс потрібен між ШІ та емпатією
Онкохворий просить знеболювальне, але ШІ не дає, бо не бачить об’єктивних показників болюВідмовив у ліках через ризик залежності / протоколВідчуває нестерпний біль, відчайШІ не вміє розпізнати біль через емоції, тільки за даними
Людина після втрати близької має депресію, але ШІ ставить «нормальний» діагноз, бо аналізи в норміНе дає направлення до психіатраЛюдина страждає, не спить, втрачає інтерес до життяІгнорування емоцій, бо все «в межах норми»
Дитина з аутизмом не дозволяє себе обстежити, ШІ не може зібрати даніПропускає діагностику, не може оцінити станДитина боїться, уникає контактівШІ не вміє будувати контакт
Пацієнт відмовляється від лікування, бо має релігійні переконання — ШІ не розуміє і наполягаєСистема вважає це помилкою і блокує випискуЛюдина почувається знеособленою, позбавленою права виборуВідсутність поваги до автономії людини

Завдання для учнів:

  • Заповніть таблицю.
  • Потім обговорити: чи є “правильне рішення” завжди справедливим?
  • Можна доповнити вправою: як запрограмувати ШІ, щоб він “відчував”? Чи можливо це?

Чи дійсно технології забирають роботу?

Етап / ТехнологіяСтрах людейЩо реально сталосяЩо змінилосьВисновок, роблять учні 
1Промислова революція (XVIII–XIX ст.)→ Ткацькі верстати, фабрики«Машини заберуть роботу у ремісників»Частково зникла ручна праця, але з’явилось багато нових робочих місцьЗ’явилися нові професії: машиністи, інженери, майстри
2Автоматизація на заводах (XX ст.)→ Роботи, конвеєри, комп’ютери«Роботи витіснять людей з заводів»Частина монотонної праці зникла, але зросла потреба в обслуговуванні технікиЗ’явилися ІТ-спеціалісти, техніки, оператори
3Штучний інтелект у медицині (XXI ст.)→ Аналіз знімків, діагнозів, геномів«ШІ забере роботу лікарів»ШІ став помічником, а не заміною. Лікар приймає фінальні рішенняЛікарі працюють зі ШІ: більше аналітики, менше рутини

Рефлексія:
  • Які ризики використання ШІ тебе найбільше турбують?
  • Чи потрібна людина-контролер для кожного рішення ШІ?
  • Чи хочеш, щоб у майбутньому діти лікувалися у «розумних» клініках?

У вільний від відпочинку час:
  • Проведи міні-опитування серед дорослих: «Чи довірили б ви своє лікування ШІ?»
  • Зроби постер або пост у соцмережі: «3 правила безпечного ШІ в медицині»
  • Творче завдання: Напишіть коротке оповідання (5–7 речень) про те, як ШІ в медицині врятував або, навпаки, створив проблеми для людини в 2050 році.

Урок №190. Етичні питання, ризики та майбутнє ШІ в медицині.


Очікувані результати навчання:

Мета уроку:

  • Навчити учнів критично оцінювати переваги й ризики використання ШІ в медицині.
  • Сформувати моральну позицію щодо відповідальності та безпеки.
Цілі сталого розвитку: 

Які цілі сталого розвитку (в порядку пріоритетності) опрацьовуємо на уроці:

  • ЦСР 3: Міцне здоров’я.
  • ЦСР 10: Зменшення нерівності.
  • ЦСР 16: Мир, справедливість та ефективні інститути

Ключові слова: Етика, приватність, алгоритм, відповідальність, медична помилка, дискримінація даних.

Очікувані результати для учнівства:
  • Називають етичні виклики використання ШІ.
  • Аналізують переваги й недоліки рішень, які приймає ШІ.
  • Висловлюють власну думку з приводу використання ШІ в медицині.

1. Мотивація

Штучний інтелект (ШІ) уже працює разом із лікарями у лікарнях: він виявляє рак шкіри раніше за людину, аналізує рентген, запам’ятовує тисячі симптомів і не втомлюється.
Але чи означає це, що йому можна довірити своє життя?
Лікар довіряє системі ШІ, яка не рекомендує госпіталізувати пацієнта. Пацієнт помирає вдома.
Чи мав лікар перевірити рішення? Чи має пацієнт право знати, що рішення ухвалив комп’ютер?
Запитання:«Хто відповідальний, якщо ШІ помилиться і пацієнт постраждає:
Лікар? Програміст? Держава?»
У 2023 році хакери зламали медичну базу даних у США, викравши інформацію про 2,6 мільйона пацієнтів. Уявіть, що вони могли б зробити з ШІ-системами!


2. Тобі може знадобитися:

«Чорне дзеркало» (англ. Black Mirror) – британський науково-фантастичний телесеріал, створений журналістом Чарлі Брукером. Уперше серіал було показано на каналі Channel 4 у 2011 році.
Штучний інтелект — це круто, але він також ставить перед нами складні питання:

1.  Приватність даних
Ваші медичні дані — це як ваш особистий щоденник. Але ШІ для роботи потребує купи інформації: аналізи, історію хвороб, навіть ваші звички. Що, якщо ці дані потраплять до хакерів? Або якщо їх використають страхові компанії, щоб відмовити вам у страховці?

У серії “Hated in the Nation” серіала “Чорне дзеркало” (Сезон 3, Епізод 6) показують, як технології стеження за людьми виходять з-під контролю. Уявіть, що ваші медичні дані використовують не для лікування, а щоб маніпулювати вами!

2.  Помилки алгоритмів: ШІ тренується на даних, але якщо дані упереджені (наприклад, зібрані лише від певної групи людей), він може неправильно діагностувати інших. Програма, яка частіше не діагностує рак у темношкірих пацієнтів (через недостатні дані у тренувальній вибірці).
Хто винен, якщо ШІ помиляється?
Якщо ШІ поставить неправильний діагноз і людина постраждає, хто відповідальний: програміст, лікар чи сама машина?

У серії “White Bear” серіала “Чорне дзеркало” (Сезон 2, Епізод 2) технології використовуються для покарання, але що, якщо ШІ помилково “покарає” здорову людину неправильним лікуванням?

3.  Нерівність у доступі
ШІ-технології дорогі. Що, якщо тільки багаті країни чи люди зможуть їх використовувати? Чи справедливо, що хтось отримує суперлікування від ШІ, а хтось — ні?

У серії “Nosedive” (Сезон 3, Епізод 1) суспільство поділене на “елітних” і “звичайних” через технології. Уявіть, що ШІ в медицині доступний лише для “еліт”!

4.  Чи може ШІ вирішувати, кому жити?
У критичних ситуаціях (наприклад, у реанімації) ШІ може оцінювати, у кого більше шансів вижити, і рекомендувати, кому надавати допомогу.
Але чи правильно довіряти машині такі рішення?
У серії “White Christmas” (Сезон 2, Спеціальний епізод) технології контролюють свідомість і приймають моральні рішення. Що, якщо ШІ вирішить, що чиєсь життя “менш цінне”?

5. Залежність від технологій: Якщо лікарі покладатимуться лише на ШІ, вони можуть втратити навички самостійної роботи.

6.  Втрата людяності: ШІ не відчуває емпатії. Чи може машина замінити душевну розмову з лікарем? Отже, ШІ — це не лише етичні дилеми, а й реальні ризики:

Відео


3. Життєва ситуація:

Штучний інтелект і здоров’я людини по серіалу “Чорне дзеркало”

Назва серії / сезон і епізодКороткий зміст сюжетуЯк у серії використано ШІЯкі проблеми зі здоров’ям або психікою розкритоТехнологія — благо чи загроза?Що вас вразило / Що викликало дискусію?
Be Right Back (S02E01)Молодий чоловік гине в автокатастрофі. Його дівчина замовляє послугу, яка на основі його даних з соцмереж відтворює його особистість у чаті, а потім — у гуманоїдному тілі.
White Christmas (S02E04)Серія з трьох історій, пов’язаних із технологіями читання думок, «заблокованих» людей та створення цифрових копій свідомості для в’язниці чи слуг.
San Junipero (S03E04)Старші люди можуть завантажувати свою свідомість у цифровий рай — молоде тіло в 80-х, де вони можуть жити вічно.
Black Museum (S04E06)Історії з музею про жорстокі експерименти на мозку, цифрове безсмертя, етичні порушення — все це використовувалось у сфері медицини.
Joan Is Awful (S06E01)Жінка дізнається, що її життя транслюється в реальному часі як серіал, створений алгоритмом за її даними.

Інструкція до роботи з таблицею

1. Оберіть одну з серій серіалу «Чорне дзеркало», які ви переглядали, або усі якщо подивилися заздалегідь.

2. Уважно прочитайте короткий сюжет у таблиці.

3. Заповніть 4 праві стовпчики таблиці самостійно або в парі:

  • Як саме використано штучний інтелект?
  • Які психологічні, етичні або медичні проблеми підіймаються?
  • Як ви оцінюєте технологію в цьому контексті — вона допомагає чи шкодить?
  • Що саме вас зачепило? Які емоції викликала серія?

4. Підготуйтеся поділитися своїми думками або захистити свою точку зору в дискусії:

  1. Чи здається вам реалістичною така технологія? Чи можливе це найближчим часом?
  2. Як би ви вчинили на місці головного героя / героїні?
  3. Чи вважаєте ви морально допустимим використання ШІ в такій ситуації? Чому?
  4.  Чи змінилося ваше ставлення до ШІ після перегляду? У який бік?
  5. Якби ця технологія стала масовою, що б змінилося в суспільстві? Добре це чи погано?
  6. Які ризики або небезпеки ви бачите в застосуванні ШІ в медицині або психології?
  7. Які етичні правила мали би регулювати такі технології?

4. Попрактикуймо самостійно:

Таблиця для аналізу ситуацій, де ШІ діє безпомилково технічно, але ігнорує людські почуття, індивідуальні особливості, біль,  не враховує “живу людину”.
Мета: зрозуміти, що технічна правильність ШІ — не завжди етична правильність.

Коли ШІ діє правильно, але несправедливо

Ситуація / кейсЩо зробив ШІ (логічне рішення)Що відчуває пацієнт / людинаУ чому проявляється проблемаЯк би вчинила людина-лікарЯкий баланс потрібен між ШІ та емпатією
Онкохворий просить знеболювальне, але ШІ не дає, бо не бачить об’єктивних показників болюВідмовив у ліках через ризик залежності / протоколВідчуває нестерпний біль, відчайШІ не вміє розпізнати біль через емоції, тільки за даними
Людина після втрати близької має депресію, але ШІ ставить «нормальний» діагноз, бо аналізи в норміНе дає направлення до психіатраЛюдина страждає, не спить, втрачає інтерес до життяІгнорування емоцій, бо все «в межах норми»
Дитина з аутизмом не дозволяє себе обстежити, ШІ не може зібрати даніПропускає діагностику, не може оцінити станДитина боїться, уникає контактівШІ не вміє будувати контакт
Пацієнт відмовляється від лікування, бо має релігійні переконання — ШІ не розуміє і наполягаєСистема вважає це помилкою і блокує випискуЛюдина почувається знеособленою, позбавленою права виборуВідсутність поваги до автономії людини

Завдання для учнів:

  • Заповніть таблицю.
  • Потім обговорити: чи є “правильне рішення” завжди справедливим?
  • Можна доповнити вправою: як запрограмувати ШІ, щоб він “відчував”? Чи можливо це?

Чи дійсно технології забирають роботу?

Етап / ТехнологіяСтрах людейЩо реально сталосяЩо змінилосьВисновок, роблять учні 
1Промислова революція (XVIII–XIX ст.)→ Ткацькі верстати, фабрики«Машини заберуть роботу у ремісників»Частково зникла ручна праця, але з’явилось багато нових робочих місцьЗ’явилися нові професії: машиністи, інженери, майстри
2Автоматизація на заводах (XX ст.)→ Роботи, конвеєри, комп’ютери«Роботи витіснять людей з заводів»Частина монотонної праці зникла, але зросла потреба в обслуговуванні технікиЗ’явилися ІТ-спеціалісти, техніки, оператори
3Штучний інтелект у медицині (XXI ст.)→ Аналіз знімків, діагнозів, геномів«ШІ забере роботу лікарів»ШІ став помічником, а не заміною. Лікар приймає фінальні рішенняЛікарі працюють зі ШІ: більше аналітики, менше рутини

Рефлексія:
  • Які ризики використання ШІ тебе найбільше турбують?
  • Чи потрібна людина-контролер для кожного рішення ШІ?
  • Чи хочеш, щоб у майбутньому діти лікувалися у «розумних» клініках?

У вільний від відпочинку час:
  • Проведи міні-опитування серед дорослих: «Чи довірили б ви своє лікування ШІ?»
  • Зроби постер або пост у соцмережі: «3 правила безпечного ШІ в медицині»
  • Творче завдання: Напишіть коротке оповідання (5–7 речень) про те, як ШІ в медицині врятував або, навпаки, створив проблеми для людини в 2050 році.

Ділись та обговорюй важливе

Обкладинка коментарів до матеріалу