Etyka technologii, sztucznej inteligencji i neuroetyka 2023/2024
Informacje ogólne
Jeśli doświadczasz kryzysu emocjonalnego i niepokoju z racji na sytuację pandemiczną, Wydział Psychologii i Kognitywistyki oferuje bezpłatne wsparcie i konsultacje psychologiczne .,
Jeśli czujesz, że studiowanie Cię przerasta, że napotykasz problemy ponad swoje siły i umiejętności, możesz zwrócić się do psychologicznego konsultanta do spraw trudności w studiowaniu .
Jeśli przechodzisz przez gorszy okres lub potrzebujesz wsparcia z innego powodu, nie bój i nie wstydź się zasięgnąć pomocy psychologicznej .
Jeśli masz trudności technologiczne lub zdrowotne, uniemożliwiające lub znacznie utrudniające realizowanie przedmiotu, proszę skontaktuj się ze mną abyśmy mogli wypracować plan Twojego uczestnictwa w zajęciach
Fakultet ma na celu kształtowanie umiejętności analizowania i rozwiązywania wyzwań etycznych związanych z rozwojem AI, neuronaukami oraz technologiami. Informacje na tej stronie dotyczą edycji w semestrze letnim 2022/2023.
Kilka spraw podstawowych:
- widzimy się w poniedziałki o 9:45 (s. 304D),
- każde spotkanie to praca nad innym zjawiskiem budzącym wątpliwości etyczne,
- wspólna , czyli dyżur: czwartki 9-11. Mail: michal.wyrwa [at] amu.edu.pl,
- trudno o moralnie d/wrażliwych sprawach rozmawiać bez poczucia bezpieczeństwa. Starajmy się wspólnie o inkluzywną atmosferę i przyjazny stosunek do interlokutorów, szczególnie tych, z którymi się nie zgadzamy,
- link do materiałów do zdobycia na zajęciach,
- teksty oznaczone ‘⭑’ powinni przed zajęciami przeczytać wszyscy, są to materiały wprowadzające, które nie zajmą wiele Waszego czasu a pozwolą na minimalną orientację w tematyce spotkania. Może już teraz wiecie więcej niż jest w tych materiałach :),
- fakultet ma jeno częściowo charakter wykładowy.
Spotkania
(26.02) Poznajmy się (organizacyjne + kilka słów o etyce)
(4.03) Neuronauka a odpowiedzialność
DEADLINE zgłaszania zespołów prezentujących.
Na zajęcia obejrzyj dwuczęściowy materiał PBS Brains on Trial with Alan Alda, zrób notatki, bądź gotów/gotowa do dyskusji na poruszany w nim temat. Poszukaj też prawdziwego case’u powoływania się na neurodowody w postępowaniach sądowych
Lektura pomocnicza:
- Poldrack, R. A., Monahan, J., Imrey, P. B., Reyna, V., Raichle, M. E., Faigman, D., & Buckholtz, J. W. (2018). Predicting violent behavior: What can neuroscience add? Trends in cognitive sciences, 22(2), 111-123
- Hardcastle, V. G. (2018). My Brain Made Me Do It? Neuroscience and Criminal Responsibility. [w:] Johnson, L. S. M, Rommelfanger, K. S. (red.), The Routledge Handbook of Neuroethics, Routledge, 185–197
(18.03) Wzmocnienia poznawcze
(od tego tematu startujemy z prezentacjami)
- Forlini, C, et al. (2013). Navigating the enhancement landscape. Ethical issues in research on cognitive enhancers for healthy individuals. EMBO Reports, 14(2), 123–128
- Roberts, C. A., Jones, A., Sumnall, H., Gage, S. H., & Montgomery, C. (2020). How effective are pharmaceuticals for cognitive enhancement in healthy adults? A series of meta-analyses of cognitive performance during acute administration of modafinil, methylphenidate and D-amphetamine. European Neuropsychopharmacology, 38, 40–62
(25.03) Neuronauka zwierząt a ich status moralny
- DeGrazia, D. (2020). Sentience and Consciousness as Bases for Attributing Interests and Moral Status: Considering the Evidence and Speculating Slightly Beyond, [w:] Johnson, L. Syd M. (red.), Neuroethics and Nonhuman Animals, Springer, 17–31
- Jones, R. C. (2020). Speciesism and Human Supremacy in Animal Neuroscience, [w:] Johnson, L. Syd M. (red.), Neuroethics and Nonhuman Animals, Springer, 99–115
(8.04) Autonomiczność a odpowiedzialność SI
- Bartneck, C., Lütge, Ch., Wagner, A., Welsh, S. (2021). An Introduction to Ethics in Robotics and AI, Springer, ch. 10, Autonomous Vehicles, 83–92
- Dignum, V. (2020). Responsibility and Aritifical Intelligence, [w:] Dubber, M. D., Pasquale, F., Das, S. (red.), The Oxford Handbook of Ethics of AI, Oxford University Press, 215–231
- Awad, E., Dsouza, S., Kim, R., Schulz, J., Henrich, J., Shariff, A., Bonnefon, J.-F., & Rahwan, I. (2018). The Moral Machine experiment. Nature, 563(7729), 59–64
(22.04) Uprzedzenia SI
- http://gendershades.org Buolamwini, J., & Gebru, T. (2018). Gender shades: Intersectional accuracy disparities in commercial gender classification, Proceedings of Machine Learning Research 81:1, 1–15
- https://excavating.ai Crawford, K., Paglen, T. (2019). Excavating AI: The Politics of Training Sets for Machine Learning
- Pessach, D., & Shmueli, E. (2023). Algorithmic fairness. In Machine Learning for Data Science Handbook: Data Mining and Knowledge Discovery Handbook (pp. 867-886). Cham: Springer International Publishing. www
(29.04) Generatory SI
Trudno wskazać coś, co byłoby wystarczająco świeże, ale kilka entry-pointów:
- Hagendorff, T. (2024). Mapping the Ethics of Generative AI: A Comprehensive Scoping Review. arxiv, mapa
- Weidinger, L., Isaac, W. (2023), Evaluating social and ethical risks from generative AI, Google DeepMind www
- Molick, E. (2023), Centaurs and Cyborgs on the Jagged Frontier na One Useful Thing www
- Shin, M. (2023), The ethics of generative AI: How we can harness this powerful technology, ZDNet www
- Helberger, N. & Diakopoulos, N. (2023). ChatGPT and the AI Act. Internet Policy Review, 12(1). www
- Przykładowe rekomendacje dot. wykorzystania generatorów: przykład 1, przykład 2, przykład 3
- (krótki komentarz filozofa :)) Floridi, L. (2023). AI as Agency Without Intelligence: On ChatGPT, Large Language Models, and Other Generative Models. Philosophy and Technology, www
(6.05) Prywatność
- Bartneck, C. i in. (2021). An Introduction to Ethics in Robotics and AI, Springer, ch. 8, Privacy Issues in AI, 83–92
- McStay, A. (2020). Emotional AI, soft biometrics and the surveillance of emotional life: An unusual consensus on privacy. Big Data & Society, 7(1), 2053951720904386
- Price, W. N., & Cohen, I. G. (2019). Privacy in the age of medical big data. Nature medicine, 25(1), 37–43
(13.05) Wiarygodność informacji
- ⭑ Zagraj kilka razy w Factitious 2020. Pandemic Edition www
- Johnson, N. F. i in. (2020). The online competition between pro-and anti-vaccination views. Nature, 582(7811), 230-233
- Pennycook, G., & Rand, D. G. (2021). The psychology of fake news. Trends in cognitive sciences, 25(5), 388-402.
- Carey, J. M., Guess, A. M., Loewen, P. J., Merkley, E., Nyhan, B., Phillips, J. B., & Reifler, J. (2022). The ephemeral effects of fact-checks on COVID-19 misperceptions in the United States, Great Britain and Canada. Nature Human Behaviour, 1-8.
- Roozenbeek, J. i in. (2020). Susceptibility to misinformation about COVID-19 around the world. Royal Society open science, 7(10), 201199.
(20.05) Zrównoważony rozwój społeczeństwa opartego na danych
- Schwartz, R., Dodge, J., Smith, N. A., & Etzioni, O. (2020). Green ai. Communications of the ACM, 63(12), 54-63. pdf (jest sporo świeższych źródeł, przykładowe punkty wyjścia do szukania: 1, 2, 3)
- ourworldindata
- Cowls, J., Tsamados, A., Taddeo, M., & Floridi, L. (2021). The AI gambit: leveraging artificial intelligence to combat climate change—opportunities, challenges, and recommendations. Ai & Society, 1-25.
(27.05) Praca pisemna – konsultacje #1
(28.05) Praca pisemna – konsultacje #2
(4.06, 23:59) DEADLINE przesłania pracy pisemnej
(10.06) Wyniki, ew. poprawka
System gry
Maksymalnie można zdobyć 45 pkt. Punktacja oparta jest na trzech filarach: aktywności, przygotowaniu prezentacji i pracy pisemnej. Każde warte jest 1/3 oceny, a więc 15 pkt. Skala ocen jest następująca:
- od 93% – bdb (od 41 pkt)
- od 85% do 92% – db+ (od 38 pkt)
- od 76% do 84% – db (od 34 pkt)
- od 68% do 75% – dst+ (od 30 pkt)
- od 60% do 67% – dst (od 27 pkt):
- mniej niż 60% – nzal
Prezentacja stanowić ma pogłębione wprowadzenie w przewidziany na dany tydzień problem: opis kilku case’ów, w których ma miejsce, statystyk (jak powszechny, jakich dziedzin dotyczy, etc.), wątpliwości etyczne, rozwiązania i standardy postępowania (o ile istnieją), konsekwencje (+ i -) społeczne. Chodzi o wieloaspektowe (etyczne, naukowe, technologiczne, społeczne) przedstawienie problemu.
Teksty bez “⭑” w harmonogramie są propozycją materiału do prezentacji, ale zachęcam do zaproponowania własnych (tylko proszę je ze mną skonsultować).
Ważne: slajdy powinny być przygotowane tak, aby treść była zrozumiała także bez Waszego podkładu głosowego. Czas przewidziany na taką prezentację to 30 minut (+/- 5min.) (również do negocjacji).
Praca pisemna powinna dotyczyć wybranego problemu etycznego związanego z neuronaukami, SI lub szeroko pojętą technologią. Temat ustalamy indywidualnie, poniżej kilka przykładowych, ale zawsze chodzi o esej argumentacyjny. Powinien odwoływać się do przynajmniej trzech tekstów akademickich/raportów instytucji badawczych/think-tanków/itd., spoza spisu tekstów ‘prezentacyjnych’. Objętość eseju: 2000-3250 słów.
Wymagane: bibliografia i styl APA, abstrakt do 250 słów, samodzielność (no SI) pracy.
Raporty/eseje trzeba wysłać do 4.06, godz. 23:59! 3.06 wystawiam punkty i, jeśli będzie taka ochota z Waszej strony, możecie spróbować rozjaśnić bardziej wątpliwe elementy i uzyskać lepszy wynik końcowy :).
Przykładowe tematy prac pisemnych
- Jakim regulacjom powinna podlegać AI?
- Jak etycznie projektować i programować?
- Jakie szanse i zagrożenia wiążą się ze wzmocnieniami moralnymi (moral enhancement)?
- Czy podobieństwa i różnice w budowie układu nerwowego są dobrym kryterium przyznawania statusu moralnego zwierzętom innym niż ludzie?
- Jobin, A., Ienca, M., & Vayena, E. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence, 1(9), 389–399
- Floridi, L. i in. (2018). AI4People—an ethical framework for a good AI society: opportunities, risks, principles, and recommendations. Minds and Machines, 28(4), 689–707 www
- GovTech Festival, webinar Autonomia kontra automatyzacja – etyka sztucznej inteligencji (listopad, 2020) youtube (pierwsze 30 minut: mec. R. Kroplewski, istniejące państwowe i międzynarodowe rekomendacje etyczne, kolejne 30 minut: dr S. Szymański, dylematy etyczne w funkcjonowaniu AI)
Raporty i rekomendacje standardów etycznych:
- OECD National AI policies & strategies baza (z graficznym interfejsem) inicjatyw politycznych z całego świata
- Google AI Principles
- Microsoft AI Principles
- Unia Europejska: Wytyczne w zakresie etyki dotyczącej godnej zaufania SI, 2019
- OECD AI Principles overview, bardziej szczegółowe, prawne kwestie: OECD: Recommendation of the Council on AI, 2021, OECD/LEGAL/0449 (z lewej strony można ściągnąć pdf)
Powiązane dokumenty:
- Microsoft Guidelines for Human-AI Interaction
- Polityka dla rozwoju SI w Polsce od roku 2020
- EU: The Assessment List for Trustworthy AI for self-assessment, 2019
- Bird, E., Fox-Skelly, J., Jenner, N., Larbey, R., Weitkamp, E., & Winfield, A. (2020). The ethics of artificial intelligence: Issues and initiatives, European Parliamentary Research Service pdf (duży raport)
- The Principles of Sustainable Software Engineering darmowy kurs od Microsoftu www
- Simon, J. (2017). Value-Sensitive Design and Responsible Research and Innovation, [w:] Hansson, S. O. (red), The Ethics of Technology. Methods and Approaches, Rowman & Littlefield Int., 219–235
- Gotterbarn, D. i in. (2001). Software engineering code of ethics and professional practice. Science and Engineering Ethics, 7(2), 231-238.
- Baldini, G., Botterman, M., Neisse, R., & Tallacchini, M. (2018). Ethical design in the internet of things. Science and engineering ethics, 24(3), 905-925