Zaznacz stronę
TAK-i i NIE-ki sztucznej inteligencji

KONFERENCJA NAUKOWA – ZAPRASZAMY!

Data konferencji: 27 września (sobota) 2025 r. , rozpoczynamy o godz. 9:00.

Miejsce: Centrum Spotkań im. Jana Pawła II, pl. Kard. Stefana Wyszyńskiego 1, 59-220 Legnica

(Centrum Spotkań im. Jana Pawła II, znajdujące się przy kościele parafialnym pw. Matki Bożej Królowej Polski, zarządzane jest przez Diecezjalne Centrum Edukacyjne w Legnicy).

Organizatorzy: Diecezjalne Centrum Edukacyjne w Legnicy, Papieski Wydział Teologiczny we Wrocławiu, Politechnika Wrocławska

lic. Krzysztof Brończyk

Uniwersytet Jagielloński

Źródło a algorytm. Sztuczna inteligencja w badaniach historycznych – pomoc, iluzja, zagrożenie?

Wystąpienie dotyczy zastosowania sztucznej inteligencji w badaniach historycznych ze szczególnym uwzględnieniem zagadnień metodologicznych i epistemologicznych. W dobie narzędzi automatyzujących pracę ze źródłami – takich jak systemy do transkrypcji, klasyfikacji i analizy danych historycznych – konieczna staje się krytyczna refleksja nad miejscem AI w warsztacie historyka. W referacie postawię pytanie, czy algorytmy mogą zastąpić proces historycznej interpretacji, czy też wspomagają jedynie jego powierzchowną symulację. Przedstawiona zostanie też perspektywa zagrożeń dla krytyki źródła, rozumienia kontekstu i subtelności rekonstrukcji przeszłości. Ujęcie osadzone będzie w realiach współczesnej humanistyki cyfrowej, lecz z zachowaniem tradycyjnych standardów źródłoznawczych.

dr Łukasz Cymbaluk

Wyższa Szkoła Kształcenia Zawodowego

Między algorytmem a wolą polityczną – AI jako element procesów decyzyjnych

Celem wystąpienia jest refleksja nad rosnącą rolą sztucznej inteligencji jako elementu wspierającego procesy decyzyjne, również w sferze politycznej. AI staje się coraz doskonalszym narzędziem do wykonywania określonych zadań – dlatego warto postawić pytanie o możliwości oraz zagrożenia związane z podejmowaniem decyzji przez aktora niebędącego w istocie człowiekiem. Zaprezentowane zostaną konkretne przypadki i procesy, które już można zaobserwować w otaczającej nas rzeczywistości. Dodatkowo przedstawione zostanie pojęcie „algokracja”, które odnosi się do możliwości algorytmicznego sterowania zachowaniami społeczeństwa, a w konsekwencji jednostki. Podjęta zostanie również próba nakreślenia scenariuszy dotyczących tego, jak będzie wyglądała polityczna przyszłość człowieka w kontekście (współ)rządów AI.

ks. dr hab. Bogusław Drożdż

prof. Papieskiego Wydziału Teologicznego we Wrocławiu

Zderzenie sztucznej inteligencji z inteligencją ludzką – wspólne czytanie kościelnego dokumentu Antiqua et nova

Dokument Antiqua et nova został opublikowany 28 stycznia 2025 r. jako wspólne dzieło Dykasterii Nauki Wiary i Dykasterii ds. Kultury i Edukacji. W swojej treści dokument odpowiada na pytanie: czym jest sztuczna inteligencja? Następnie przybliża rozumienie inteligencji w tradycji filozoficznej i teologicznej. W dalszej części ukazuje on rolę etyki w kierowaniu rozwojem i używaniem AI. Odnosi się również do zagadnień bardziej szczegółowych, m.in. relacji między AI a społeczeństwem, czy też między AI a dezinformacją. Celem prelekcji jest promocja ww. dokumentu jako swoistego „podręcznika” pomagającego właściwie odczytywać kulturowo-technologiczną dynamikę AI.

mgr Krzysztof Garczarek

Uniwersytet Wrocławski

Etyczne aspekty wykorzystywania modeli językowych typu ChatGPT w pracy dydaktycznej na uczelni wyższej

W referacie podejmę analizę etycznych aspektów wykorzystywania modeli językowych typu ChatGPT w pracy dydaktycznej na uczelni wyższej. Omówię zarówno potencjalne korzyści, jak i zagrożenia związane ze wsparciem studentów przez sztuczną inteligencję podczas przygotowywania prac akademickich (w oparciu m.in. o własne doświadczenia jako nauczyciela akademickiego). Szczególny nacisk położę na kwestie samodzielności intelektualnej, ryzyko plagiatu oraz odpowiedzialność etyczną studentów i wykładowców. Celem wystąpienia jest podjęcie wieloaspektowej refleksji nad odpowiedzialnym wykorzystywaniem narzędzi AI w edukacji wyższej.

mgr inż. Kamil Gomoliński, badacz niezależny

ks. mgr lic. Adam R. Prokop, badacz niezależny

Sztuczna inteligencja jako narzędzie w praktyce i w teorii

Propozycja wystąpienia została skonstruowana w następujący sposób: w punkcie wyjścia inżynier budownictwa, związany z branżą sanitarną, omówi rudymentarnie różne rodzaje systemów, do których może odnosić się określenie sztucznej inteligencji, a następnie wybierze jeden z nich, by przedstawić schemat jego działania oraz pokazać, jak może zostać on wykorzystany w praktyce prac budowlanych lub projektowania, a także w innych gałęziach inżynierii. W drugiej części rozważania przejmie teoretyk, który przedstawi taką filozoficzną koncepcję narzędzia, w której będzie się mieścił przedstawiony w pierwszej części system, a następnie nałoży nań problematykę etyczną związaną z używaniem narzędzi technicznych przez człowieka. Takie połączenie podejścia praktycznego oraz teoretycznego wydaje się ważnym elementem w drodze komunikacji interdyscyplinarnej, zwłaszcza w odniesieniu do tak skomplikowanych, a zarazem kontrowersyjnych tematach jak działanie sztucznej inteligencji i związana z nim odpowiedzialność.

Klaudia Graczyk

Papieski Wydział Teologiczny we Wrocławiu

Sztuczna inteligencja w grach komputerowych jako innowacyjne narzędzie dydaktyczne

Współczesna edukacja stoi przed wyzwaniem dostosowania metod nauczania do realiów świata, w którym technologia wciąż się rozwija. Jednym z najbardziej dynamicznych obszarów tego rozwoju jest połączenie gier komputerowych z możliwościami, które oferuje sztuczna inteligencja. Gry od dawna pełnią funkcję dydaktyczną, potrafią angażować, motywować i stwarzać doskonałe warunki do nauki. Jednak wykorzystanie sztucznej inteligencji nadaje im kompletnie nowy wymiar. Pozwala tworzyć środowiska edukacyjne, które dostosowują się do indywidualnych potrzeb ucznia, reagują w czasie rzeczywistym na jego postępy, a nawet generują personalizowane zadania. Gry komputerowe – wspierane sztuczną inteligencją – powinny zostać realnym, innowacyjnym narzędziem, które jest w stanie wspomagać rozwój kompetencji uczniów.

lic. Karolina Kot

Uniwersytet Jagielloński

Kto zapłaci za błąd algorytmu? O odpowiedzialności cywilnoprawnej za szkodę w dobie sztucznej inteligencji

Wystąpienie poświęcone jest analizie odpowiedzialności cywilnoprawnej za szkody wyrządzone przez systemy sztucznej inteligencji w kontekście przepisów obowiązujących w Polsce. Przedmiotem szczególnego zainteresowania jest problem przypisania odpowiedzialności w przypadkach, gdy działanie systemu AI, np. autonomicznego pojazdu, systemu medycznego czy narzędzia decyzyjnego, prowadzi do szkody osobowej lub majątkowej. W świetle obecnych regulacji Kodeksu cywilnego, a także braku podmiotowości AI w prawie polskim deliktowym, pojawia się pytanie, kto i na jakiej podstawie ponosi odpowiedzialność za szkodę wyrządzoną działaniem systemu AI: producent, użytkownik, właściciel, a może twórca algorytmu? W referacie przedstawię wybrane kazusy oraz potencjalne scenariusze odpowiedzialności deliktowej oraz kierunki interpretacji, które są obecnie dyskutowane w polskiej doktrynie i orzecznictwie. Zostanie również zaprezentowana krótka analiza założeń unijnego rozporządzenia AI Act i projektowanej dyrektywy w sprawie odpowiedzialności za sztuczną inteligencję, a także ich potencjalnego wpływu na praktykę prawną w Polsce.

mgr Krystian Łukasik

badacz niezależny

Rynek pracy w dobie niestabilnej rzeczywistości. Zagrożenia i korzyści z perspektywy pracownika

Celem proponowanego wystąpienia jest zbadanie aktualnych uwarunkowań w kontekście rynku pracy i dynamicznego rozwoju sztucznej inteligencji z perspektywy pracownika. Rynek pracy może diametralnie się zmienić w najbliższej przyszłości za sprawą dynamicznie rozwijającej się technologii. Czy i jaka część społeczeństwa powinna obawiać się utraty pracy ze względu na postępującą automatyzację i jaki ten proces może mieć zakres? Jakie cechy charakteru powinien posiadać pracownik przyszłości, aby móc poradzić sobie na zmieniającym się rynku pracy? Jakie korzyści i zagrożenia niesie za sobą intensywny rozwój technologii? Proponowany wykład stanowi próbę odpowiedzi w perspektywie socjologicznej, wychodząc od elementarnych zagadnień związanych z pracą, poprzez opisanie elementów rewolucji 4.0 i charakterystykę poszczególnych generacji obecnych na rynku pracy, po próbę sklasyfikowania pracownika przyszłości oraz analizę prawdopodobnych scenariuszy świata przyszłości.

dr Michał Maciaczyk OFM

Papieski Wydział Teologiczny we Wrocławiu

ChatGPT kościelnym kaznodzieją? O powołaniu i posłaniu sztucznej inteligencji do głoszenia Słowa Bożego

Czy sztuczna inteligencja może przyjąć rolę kościelnego kaznodziei? ChatGPT, sięgając do swej „wiedzy”, może w kontekście palących tematów – a wie o nas bardzo wiele – wyjaśnić i pogłębić Ewangelię, wezwać do postaw życiowych zgodnych z Ewangelią. „Zna się” także na zasadach sztuki wystąpień publicznych, ponieważ nieobce mu są: marketing, public relations i media. Wie zatem, jak trafić do współczesnego człowieka. Wszystkie elementy takiej homilii będą ze sobą korespondować. W teologii przepowiadania podkreśla się natomiast, że pierwszorzędnym autorem przepowiadania jest Duch Święty, z którym kaznodzieja ma współpracować. W jaki sposób i czy w ogóle sztuczna inteligencja współpracuje z Duchem Świętym? Czy liturgią lub jakimkolwiek wydarzeniem religijnym, rozeznaniem i tym wszystkim, co dzieje się w życiu duchowym, może zarządzić narzędzie z cyberprzestrzeni?

PhD student Michael S. Politz

Uniwersytet Św. Tomasza w Houston, USA

Recognition or Understanding? Classifying Objects in AI Image Recognition and Thomistic Psychology

AI-powered image recognition allows a given program to ascertain what something is within a picture or digital stream. From common plant identification apps to medical diagnostic tools, it seems AI is now able to identify an object’s essence with greater accuracy than some humans. We utilize words like “recognize,” “identify,” and even “understand” to convey what happens when AI is able to correctly classify what something is within the world. However, in what sense is AI actually comprehending something’s essence in image recognition? Furthermore, should we utilize terms like “recognize,” “identify,” and “understand” in AI image recognition, or does this stretch the analogy between human knowledge and AI computation too far? In this presentation, I will examine how far we can stretch the analogy of human understanding to what AI does in image recognition. First, I will give a standard for human understanding as dictated by Thomistic philosophical psychology. From a brief overview of this theory of knowledge, I will show that to understand is to immaterially grasp the universal essence of an object as instantiated in a given particular in the here and now. After this definition of “understanding” is achieved, I will look at current examples within the field of AI image recognition. With this brief survey, I hope to illustrate that AI image recognition does not constitute an instance of “understanding.” Furthermore, it is not a difference of degree, but one of kind. AI does not “understand” in the Thomistic sense of the term. Rather, it sorts an object into a given set of parameters that constitute an artificial “essence.” Once a given percentage of essential markers apply to an object, it is deemed to fit within a certain artificial “essence.” Concluding, I show that both human understanding and AI image recognition seek the essence of an object. However, human knowledge seeks to discover, engage, and define what an essence is. AI is both dependent upon a human mind to define an essence for it, and ultimately does not understand an essence like a human does. Rather, it simply seeks to sort objects into artificial essences of predefined essential parameters. Thus, the human mind seeks to know essences. AI seeks to sort objects into essential parameters.

mgr Konrad Potocki

Polska Akademia Nauk

Epistemologiczne i normatywne konsekwencje datafikacji w społeczeństwie algokratycznym

Datafikacja to proces przekształcania zjawisk rzeczywistości w dane cyfrowe, które stają się podstawą działania systemów sztucznej inteligencji. Algorytmy, które wspomagają lub podejmują decyzje zamiast człowieka, mogą wywoływać skutki prawne lub znacząco wpływać na sytuację obywateli. To, co zostaje uznane za dane, przesądza o tym, co podlega algorytmicznej klasyfikacji i ocenie. W efekcie AI zaczyna kształtować relacje społeczne, dostęp do zasobów, a także wzorce wykluczenia i uprzedzeń. W wystąpieniu podejmuję refleksję nad epistemologicznymi i normatywnymi konsekwencjami datafikacji, wskazując na ryzyka utrwalania uprzedzeń, ograniczenia rozliczalności oraz potrzebę krytycznej oceny jej roli w strukturach algokratycznych społeczeństwa cyfrowego.

lic. Paulina Prochorowska

Uniwersytet Marii Curie-Skłodowskiej

Generatywna AI w marketingu: jak skutecznie wykorzystać ją do pozyskiwania partnerów?

Generatywna sztuczna inteligencja w marketingu oferuje nowe możliwości w pozyskiwaniu partnerów biznesowych poprzez tworzenie treści dopasowanych do ich potrzeb. AI może wspierać personalizację komunikacji, automatyzację procesów oraz poprawę efektywności działań marketingowych. Wykorzystanie generatywnych algorytmów umożliwia generowanie treści, które przyciągają uwagę potencjalnych partnerów i budują zaufanie. Z kolei, integracja tych technologii wiąże się z wyzwaniami, takimi jak zarządzanie jakością treści oraz utrzymanie etycznych standardów. Celem analizy jest zrozumienie, jak AI może wspierać rozwój relacji biznesowych, a także identyfikacja korzyści i ryzyk związanych z jej zastosowaniem w strategiach marketingowych.

ks. mgr Jan Rajczakowski

Papieski Wydział Teologiczny we Wrocławiu

Szanse i zagrożenia korzystania z narzędzi AI podczas katechezy

Rozwój sztucznej inteligencji otwiera przed katechezą nowe możliwości, ale niesie też istotne zagrożenia. Wystąpienie analizuje potencjał AI w edukacji religijnej: personalizację treści, interaktywne narzędzia angażujące młodzież, wsparcie w przygotowaniu materiałów oraz wizualizację treści biblijnych. Jednocześnie identyfikuje kluczowe ryzyka: dehumanizację procesu katechetycznego, możliwość błędów teologicznych generowanych przez algorytmy, zastępowanie osobistego świadectwa technologią oraz dylematów etycznych. Szczególną uwagę poświęcono napięciu między efektywnością technologiczną a osobowym wymiarem przekazu wiary. W konkluzji przedstawione zostaną praktyczne kryteria odpowiedzialnego wykorzystania AI w katechezie, podkreślające rolę technologii jako narzędzia wspierającego, niezastępującego relację katechety z uczestnikami. AI może wzbogacić katechezę, ale nie może zastąpić osobistego spotkania i świadectwa wiary.

dr Jarosław Sempryk

badacz niezależny

Sztuczna inteligencja jako nowy wymiar poznania i decyzyjności

Rozwój sztucznej inteligencji stanowi jakościowy przełom w sposobach organizacji i funkcjonowania procesów poznawczych oraz decyzyjnych w społeczeństwach późnonowoczesnych. W odniesieniu do klasycznego modelu psychologii poznawczej Daniela Kahnemana, który wyróżnia dwa tryby myślenia: – szybki, intuicyjny i automatyczny „System 1” oraz wolniejszy, refleksyjny i analityczny „System 2” – coraz częściej proponuje się wydzielenie trzeciej kategorii. Koncepcja tzw. „Systemu 0” odnosi się do procesów, w których aktywność poznawcza zostaje wspierana, a niekiedy wręcz zastępowana, przez algorytmy sztucznej inteligencji. Charakterystyczną cechą tego systemu jest zdolność do przetwarzania danych w czasie rzeczywistym oraz w skali dalece przekraczającej możliwości ludzkiego mózgu. „System 0” nie mieści się w tradycyjnej dychotomii intuicji i racjonalnej analizy, gdyż stanowi zewnętrzny, hybrydowy mechanizm integrujący zdolności obliczeniowe maszyn z praktykami poznawczymi jednostek. Można go interpretować jako warstwę infrastrukturalną, której zadaniem jest generowanie, porządkowanie i dystrybucja danych wykorzystywanych w procesach poznawczych i decyzyjnych. W tym sensie sztuczna inteligencja nie pełni jedynie funkcji narzędzia wspomagającego, lecz kształtuje nowe środowisko epistemiczne, w ramach którego wiedza i praktyka ulegają redefinicji. Konsekwencją tego przesunięcia jest transformacja relacji między człowiekiem a technologią, w której decyzje i interpretacje stają się w coraz większym stopniu współtworzone przez systemy obliczeniowe. Sztuczna inteligencja staje się więc nie tylko elementem instrumentalnym, ale również współkonstytutywnym czynnikiem procesów poznania i sprawczości. W rezultacie pojawia się konieczność krytycznej refleksji nad statusem epistemologicznym i etycznym „Systemu 0” oraz nad jego wpływem na kształtowanie współczesnych modeli podmiotowości i decyzyjności.

dr Rafał Szopa

Politechnika Wrocławska

Czy maszyny zbuntują się przeciwko ludziom?

Bunt maszyn to scenariusz filmów i książek fantastycznonaukowych. Szybki rozwój AI sugeruje, że być może już niedługo systemy AI zaczną być autonomiczne względem człowieka, zaczną „dogadywać się” między sobą i być może zbuntują wobec ludzi. Byłby to jakby kolejny krok ewolucji. Po człowieku nastanie era maszyn, świadomych i wolnych bytów we wszystkim przewyższających ludzi. Istnieją jednak ograniczenia formalne związane z matematyką. Wydaje się, że bunt maszyn nam nie grozi, gdyż AI musiałoby wyjść poza matematykę. AI może symulować człowieka, ale nie przeskoczy poziomu matematyczności ze względu na twierdzenie o niezupełności. Jednak symulowanie człowieka przez maszyny może być tak dobre, że jedyną możliwością odróżnienia człowieka od AI będzie religia. Wartości duchowe, transcendencja i religia są sferami, których AI nie zasymuluje. W dobie rozwoju AI ludzkość będzie zmuszona odwołać się do Boga, aby nie utracić swojej tożsamości.

Pobierz program konferencji