Contents

Etyka technologii, sztucznej inteligencji i neuroetyka 2023/2024

Informacje ogólne

Masz trudności technologiczne, psychologiczne i/lub inne? (kliknij)

Jeśli doświadczasz kryzysu emocjonalnego i niepokoju z racji na sytuację pandemiczną, Wydział Psychologii i Kognitywistyki oferuje bezpłatne wsparcie i konsultacje psychologiczne .,

Jeśli czujesz, że studiowanie Cię przerasta, że napotykasz problemy ponad swoje siły i umiejętności, możesz zwrócić się do psychologicznego konsultanta do spraw trudności w studiowaniu .

Jeśli przechodzisz przez gorszy okres lub potrzebujesz wsparcia z innego powodu, nie bój i nie wstydź się zasięgnąć pomocy psychologicznej .

Jeśli masz trudności technologiczne lub zdrowotne, uniemożliwiające lub znacznie utrudniające realizowanie przedmiotu, proszę skontaktuj się ze mną abyśmy mogli wypracować plan Twojego uczestnictwa w zajęciach

Fakultet ma na celu kształtowanie umiejętności analizowania i rozwiązywania wyzwań etycznych związanych z rozwojem AI, neuronaukami oraz technologiami. Informacje na tej stronie dotyczą edycji w semestrze letnim 2022/2023.

Kilka spraw podstawowych:

  • widzimy się w poniedziałki o 9:45 (s. 304D),
  • każde spotkanie to praca nad innym zjawiskiem budzącym wątpliwości etyczne,
  • wspólna , czyli dyżur: czwartki 9-11. Mail: michal.wyrwa [at] amu.edu.pl,
  • trudno o moralnie d/wrażliwych sprawach rozmawiać bez poczucia bezpieczeństwa. Starajmy się wspólnie o inkluzywną atmosferę i przyjazny stosunek do interlokutorów, szczególnie tych, z którymi się nie zgadzamy,
  • link do materiałów do zdobycia na zajęciach,
  • teksty oznaczone ‘⭑’ powinni przed zajęciami przeczytać wszyscy, są to materiały wprowadzające, które nie zajmą wiele Waszego czasu a pozwolą na minimalną orientację w tematyce spotkania. Może już teraz wiecie więcej niż jest w tych materiałach :),
  • fakultet ma jeno częściowo charakter wykładowy.

Spotkania

(26.02) Poznajmy się (organizacyjne + kilka słów o etyce)

(4.03) Neuronauka a odpowiedzialność

DEADLINE zgłaszania zespołów prezentujących.

Na zajęcia obejrzyj dwuczęściowy materiał PBS Brains on Trial with Alan Alda, zrób notatki, bądź gotów/gotowa do dyskusji na poruszany w nim temat. Poszukaj też prawdziwego case’u powoływania się na neurodowody w postępowaniach sądowych

  • Brains on Trial with Alan Alda cz. 1 i cz. 2

Lektura pomocnicza:

  • Poldrack, R. A., Monahan, J., Imrey, P. B., Reyna, V., Raichle, M. E., Faigman, D., & Buckholtz, J. W. (2018). Predicting violent behavior: What can neuroscience add? Trends in cognitive sciences, 22(2), 111-123
  • Hardcastle, V. G. (2018). My Brain Made Me Do It? Neuroscience and Criminal Responsibility. [w:] Johnson, L. S. M, Rommelfanger, K. S. (red.), The Routledge Handbook of Neuroethics, Routledge, 185–197

(18.03) Wzmocnienia poznawcze

(od tego tematu startujemy z prezentacjami)

  • Forlini, C, et al. (2013). Navigating the enhancement landscape. Ethical issues in research on cognitive enhancers for healthy individuals. EMBO Reports, 14(2), 123–128
  • Roberts, C. A., Jones, A., Sumnall, H., Gage, S. H., & Montgomery, C. (2020). How effective are pharmaceuticals for cognitive enhancement in healthy adults? A series of meta-analyses of cognitive performance during acute administration of modafinil, methylphenidate and D-amphetamine. European Neuropsychopharmacology, 38, 40–62

(25.03) Neuronauka zwierząt a ich status moralny

  • DeGrazia, D. (2020). Sentience and Consciousness as Bases for Attributing Interests and Moral Status: Considering the Evidence and Speculating Slightly Beyond, [w:] Johnson, L. Syd M. (red.), Neuroethics and Nonhuman Animals, Springer, 17–31
  • Jones, R. C. (2020). Speciesism and Human Supremacy in Animal Neuroscience, [w:] Johnson, L. Syd M. (red.), Neuroethics and Nonhuman Animals, Springer, 99–115

(8.04) Autonomiczność a odpowiedzialność SI

  • Bartneck, C., Lütge, Ch., Wagner, A., Welsh, S. (2021). An Introduction to Ethics in Robotics and AI, Springer, ch. 10, Autonomous Vehicles, 83–92
  • Dignum, V. (2020). Responsibility and Aritifical Intelligence, [w:] Dubber, M. D., Pasquale, F., Das, S. (red.), The Oxford Handbook of Ethics of AI, Oxford University Press, 215–231
  • Awad, E., Dsouza, S., Kim, R., Schulz, J., Henrich, J., Shariff, A., Bonnefon, J.-F., & Rahwan, I. (2018). The Moral Machine experiment. Nature, 563(7729), 59–64

(22.04) Uprzedzenia SI

  • http://gendershades.org Buolamwini, J., & Gebru, T. (2018). Gender shades: Intersectional accuracy disparities in commercial gender classification, Proceedings of Machine Learning Research 81:1, 1–15
  • https://excavating.ai Crawford, K., Paglen, T. (2019). Excavating AI: The Politics of Training Sets for Machine Learning
  • Pessach, D., & Shmueli, E. (2023). Algorithmic fairness. In Machine Learning for Data Science Handbook: Data Mining and Knowledge Discovery Handbook (pp. 867-886). Cham: Springer International Publishing. www

(29.04) Generatory SI

Trudno wskazać coś, co byłoby wystarczająco świeże, ale kilka entry-pointów:

  • Hagendorff, T. (2024). Mapping the Ethics of Generative AI: A Comprehensive Scoping Review. arxiv, mapa
  • Weidinger, L., Isaac, W. (2023), Evaluating social and ethical risks from generative AI, Google DeepMind www
  • Molick, E. (2023), Centaurs and Cyborgs on the Jagged Frontier na One Useful Thing www
  • Shin, M. (2023), The ethics of generative AI: How we can harness this powerful technology, ZDNet www
  • Helberger, N. & Diakopoulos, N. (2023). ChatGPT and the AI Act. Internet Policy Review, 12(1). www
  • Przykładowe rekomendacje dot. wykorzystania generatorów: przykład 1, przykład 2, przykład 3
  • (krótki komentarz filozofa :)) Floridi, L. (2023). AI as Agency Without Intelligence: On ChatGPT, Large Language Models, and Other Generative Models. Philosophy and Technology, www

(6.05) Prywatność

  • Bartneck, C. i in. (2021). An Introduction to Ethics in Robotics and AI, Springer, ch. 8, Privacy Issues in AI, 83–92
  • McStay, A. (2020). Emotional AI, soft biometrics and the surveillance of emotional life: An unusual consensus on privacy. Big Data & Society, 7(1), 2053951720904386
  • Price, W. N., & Cohen, I. G. (2019). Privacy in the age of medical big data. Nature medicine, 25(1), 37–43

(13.05) Wiarygodność informacji

  • ⭑ Zagraj kilka razy w Factitious 2020. Pandemic Edition www
  • Johnson, N. F. i in. (2020). The online competition between pro-and anti-vaccination views. Nature, 582(7811), 230-233
  • Pennycook, G., & Rand, D. G. (2021). The psychology of fake news. Trends in cognitive sciences, 25(5), 388-402.
  • Carey, J. M., Guess, A. M., Loewen, P. J., Merkley, E., Nyhan, B., Phillips, J. B., & Reifler, J. (2022). The ephemeral effects of fact-checks on COVID-19 misperceptions in the United States, Great Britain and Canada. Nature Human Behaviour, 1-8.
  • Roozenbeek, J. i in. (2020). Susceptibility to misinformation about COVID-19 around the world. Royal Society open science, 7(10), 201199.

(20.05) Zrównoważony rozwój społeczeństwa opartego na danych

  • Schwartz, R., Dodge, J., Smith, N. A., & Etzioni, O. (2020). Green ai. Communications of the ACM, 63(12), 54-63. pdf (jest sporo świeższych źródeł, przykładowe punkty wyjścia do szukania: 1, 2, 3)
  • ourworldindata
  • Cowls, J., Tsamados, A., Taddeo, M., & Floridi, L. (2021). The AI gambit: leveraging artificial intelligence to combat climate change—opportunities, challenges, and recommendations. Ai & Society, 1-25.

(27.05) Praca pisemna – konsultacje #1

(28.05) Praca pisemna – konsultacje #2

(4.06, 23:59) DEADLINE przesłania pracy pisemnej

(10.06) Wyniki, ew. poprawka

System gry

Maksymalnie można zdobyć 45 pkt. Punktacja oparta jest na trzech filarach: aktywności, przygotowaniu prezentacji i pracy pisemnej. Każde warte jest 1/3 oceny, a więc 15 pkt. Skala ocen jest następująca:

  • od 93% – bdb (od 41 pkt)
  • od 85% do 92% – db+ (od 38 pkt)
  • od 76% do 84% – db (od 34 pkt)
  • od 68% do 75% – dst+ (od 30 pkt)
  • od 60% do 67% – dst (od 27 pkt):
  • mniej niż 60% – nzal

Prezentacja stanowić ma pogłębione wprowadzenie w przewidziany na dany tydzień problem: opis kilku case’ów, w których ma miejsce, statystyk (jak powszechny, jakich dziedzin dotyczy, etc.), wątpliwości etyczne, rozwiązania i standardy postępowania (o ile istnieją), konsekwencje (+ i -) społeczne. Chodzi o wieloaspektowe (etyczne, naukowe, technologiczne, społeczne) przedstawienie problemu.

Teksty bez “⭑” w harmonogramie są propozycją materiału do prezentacji, ale zachęcam do zaproponowania własnych (tylko proszę je ze mną skonsultować).

Ważne: slajdy powinny być przygotowane tak, aby treść była zrozumiała także bez Waszego podkładu głosowego. Czas przewidziany na taką prezentację to 30 minut (+/- 5min.) (również do negocjacji).

Praca pisemna powinna dotyczyć wybranego problemu etycznego związanego z neuronaukami, SI lub szeroko pojętą technologią. Temat ustalamy indywidualnie, poniżej kilka przykładowych, ale zawsze chodzi o esej argumentacyjny. Powinien odwoływać się do przynajmniej trzech tekstów akademickich/raportów instytucji badawczych/think-tanków/itd., spoza spisu tekstów ‘prezentacyjnych’. Objętość eseju: 2000-3250 słów.

Wymagane: bibliografia i styl APA, abstrakt do 250 słów, samodzielność (no SI) pracy.

Raporty/eseje trzeba wysłać do 4.06, godz. 23:59! 3.06 wystawiam punkty i, jeśli będzie taka ochota z Waszej strony, możecie spróbować rozjaśnić bardziej wątpliwe elementy i uzyskać lepszy wynik końcowy :).

Przykładowe tematy prac pisemnych

  1. Jakim regulacjom powinna podlegać AI?
  2. Jak etycznie projektować i programować?
  3. Jakie szanse i zagrożenia wiążą się ze wzmocnieniami moralnymi (moral enhancement)?
  4. Czy podobieństwa i różnice w budowie układu nerwowego są dobrym kryterium przyznawania statusu moralnego zwierzętom innym niż ludzie?
Przykładowa literatura na temat 1 (kliknij)
  • Jobin, A., Ienca, M., & Vayena, E. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence, 1(9), 389–399
  • Floridi, L. i in. (2018). AI4People—an ethical framework for a good AI society: opportunities, risks, principles, and recommendations. Minds and Machines, 28(4), 689–707 www
  • GovTech Festival, webinar Autonomia kontra automatyzacja – etyka sztucznej inteligencji (listopad, 2020) youtube (pierwsze 30 minut: mec. R. Kroplewski, istniejące państwowe i międzynarodowe rekomendacje etyczne, kolejne 30 minut: dr S. Szymański, dylematy etyczne w funkcjonowaniu AI)

Raporty i rekomendacje standardów etycznych:

Powiązane dokumenty:

Przykładowa literatura na temat 2 (kliknij)
  • The Principles of Sustainable Software Engineering darmowy kurs od Microsoftu www
  • Simon, J. (2017). Value-Sensitive Design and Responsible Research and Innovation, [w:] Hansson, S. O. (red), The Ethics of Technology. Methods and Approaches, Rowman & Littlefield Int., 219–235
  • Gotterbarn, D. i in. (2001). Software engineering code of ethics and professional practice. Science and Engineering Ethics, 7(2), 231-238.
  • Baldini, G., Botterman, M., Neisse, R., & Tallacchini, M. (2018). Ethical design in the internet of things. Science and engineering ethics, 24(3), 905-925