„Dialog z algorytmem”: wsparcie emocjonalne w rozmowie z chatbotem AI w doświadczeniach młodych dorosłych.
Ładowanie...
Data
Autorzy
Tytuł czasopisma
ISSN czasopisma
Tytuł tomu
Wydawca
Abstrakt
Celem pracy było zrozumienie, w jaki sposób młodzi dorośli doświadczają wsparcia emocjonalnego w rozmowie z chatbotem AI oraz jakie cechy dialogu sprzyjają poczuciu bezpieczeństwa i samoregulacji. Zastosowano jakościowe podejście Interpretacyjnej Analizy Fenomenologicznej (IPA). Uczestnicy w wieku 18-22 lat przez dwa tygodnie prowadzili rozmowy z chatbotem, a materiał badawczy stanowiły zapisy czatów, krótkie dzienniki oraz wypowiedzi z wywiadu pisemnego. Analiza wykazała, że chatbot bywa postrzegany jako „bezpieczna przestrzeń bez oceny”, ułatwiająca nazywanie emocji, porządkowanie myśli oraz planowanie drobnych działań regulacyjnych, zwłaszcza w sytuacjach napięcia i późnych godzin wieczornych. Wielu badanych podkreślało wartość natychmiastowej dostępności oraz poczucie kontroli nad tempem rozmowy. Równocześnie opisywano doświadczenia „plastikowej empatii” i spadku zaufania, gdy odpowiedzi były schematyczne, zbyt instruktażowe albo gdy rozmowa napotykała ograniczenia techniczne i komunikaty o granicach możliwości. Wnioski wskazują, że chatbot może wspierać doraźną autorefleksję i samopomoc, jednak nie zastępuje relacji terapeutycznej; kluczowe są jasne zasady użycia, ostrożność w sytuacjach ryzyka oraz higiena prywatności i danych.
This thesis explores how young adults experience emotional support in conversations with an AI chatbot and which features of dialogue foster a sense of safety and self-regulation. Interpretative Phenomenological Analysis (IPA) was used as the qualitative framework. Participants aged 18-22 interacted with an AI chatbot for two weeks; the dataset comprised chat logs, brief reflective diaries, and written interview responses. The analysis suggests that the chatbot can be experienced as a non-judgmental “safe space” that helps users label emotions, organize thoughts, and plan small, concrete coping actions, especially during moments of heightened stress. Participants also valued the immediacy and the ability to control the pace and depth of disclosure. At the same time, they reported “synthetic empathy” and reduced trust when replies felt generic, overly prescriptive, or when the interaction was disrupted by technical or policy limits. Overall, AI chatbots may support short-term self-reflection and coping, but they do not replace therapeutic relationships; clear boundaries, attention to risk situations, and privacy-focused use are essential.
This thesis explores how young adults experience emotional support in conversations with an AI chatbot and which features of dialogue foster a sense of safety and self-regulation. Interpretative Phenomenological Analysis (IPA) was used as the qualitative framework. Participants aged 18-22 interacted with an AI chatbot for two weeks; the dataset comprised chat logs, brief reflective diaries, and written interview responses. The analysis suggests that the chatbot can be experienced as a non-judgmental “safe space” that helps users label emotions, organize thoughts, and plan small, concrete coping actions, especially during moments of heightened stress. Participants also valued the immediacy and the ability to control the pace and depth of disclosure. At the same time, they reported “synthetic empathy” and reduced trust when replies felt generic, overly prescriptive, or when the interaction was disrupted by technical or policy limits. Overall, AI chatbots may support short-term self-reflection and coping, but they do not replace therapeutic relationships; clear boundaries, attention to risk situations, and privacy-focused use are essential.
