DIGITAL TECHNOLOGIES AND MENTAL HEALTH (1/3)

DIGITALNE TEHNOLOGIJE I LJUDSKO ZDRAVLJE (1/3)

Birgitta Dresp-Langley, PhD, Research director Centre National de la Recherche Scientifique, France

Deceptive interaction in AI-powered social media as the most destructive form of dark pattern,directly manipulating human mental autonomy. As a consequence, the psychological well-being of individuals and society is jeopardized.

 Obmanjujuća interakcija u društvenim mrežama koje pokreće umjetna inteligencija kao najrazorniji oblik mračnog uzorka, koji direktno manipulira ljudskom mentalnom autonomijom Kao posljedica toga, psihičko blagostanje pojedinaca i društva je ugroženo

Abstract


Rights to dignity and freedom of thought (mental autonomy) are fundamental human rights. They imply the fundamental right to mental health. The possibility that rights to dignity, mental autonomy and, as a consequence, mental health may be severely jeopardized by certain digital technologies and Artificial Intelligence (AI) is recognized on a worldwide scale, yet, current legal frameworks are still struggling to carve out regulatory measures that fully take into accounting the impact of digital technologies and AI on mental health. This narrative review starts with a brief historic overview highlighting why internet and AI have taken the potential for individual and collective mental manipulation of former media of mass communication to the next level. In the current society context, dark patterns in commercial digital tools are cogently designed to manipulate consumer choices. Internet and social media platforms exploit AI to generate addictive trigger cues, fake contents, and deceptive interactions. Digital technology has hijacked our mental autonomy and represents an unprecedented threat to mental health and well-being, in particular of children and young individuals connected for long hours day and night as now officially recognized by international health organizations worldwide. The problem has already found expression in novel forms of compulsive behaviour and addiction (digital addiction) with related symptoms of anxiety, depression, sleep disorders, anhedonia, suicidal ideation. This article identifies psychological mechanisms likely to account for mental health deterioration in the digital age in terms of conditioned obedience to digital authority, de-individuation, pathological brain adaptation to chronic stress, reward deficiency syndrome (RDS), and learned helplessness. These mechanisms are non-conscious, deeply rooted in human neurobiology, and rely on the mechanism of psychobiological conditioning.


Introduction


Digital technology and Artificial Intelligence (AI) pose threats to human right to freedom of thought, identified in terms of threats to the right not to reveal one’s thoughts, not to be penalized for one’s thoughts, and not to have one’s thoughts manipulated. To lose freedom of thought is to lose dignity and psychological integrity at the individual level, and social fairness and trust at the level of society. Rights to freedom of thought and dignity are protected by international human rights law, with the clear understanding that what the latter aims to secure is mental autonomy. In the digital society at the current technological scale, an individual’s mental autonomy in terms of agency over their thoughts, actions, and decisions is compromised by factors relating to access to information, domain knowledge and expertise, and the individual understanding of and access to the different types of digital technology and AI currently deployed. As a consequence, digital policymakers have to entirely reconsider individual citizen awareness and ability to act. In 2021, the World Health Organization Mental Health Atlas formally recognized new forms of addiction to digital technology (connected devices) as a worldwide problem, where excessive online activity and internet use lead to inability to manage time, energy, and attention during daytime and produce disturbed sleep patterns or insomnia during nighttime. This problem was subsequently reported to have increased in magnitude worldwide during the COVID-19 pandemic. Both the Digital Safety Act and the AI Act of the European Commission are aimed towards a unified regulatory framework that is to protect individuals, in particular youth and other vulnerable populations, from mental manipulation threats and mental health risks posed by digital technology and AI. However, clear definitions of mental manipulation, or mental health risks that would have to be mitigated by effective regulation, are not stipulated. This quicksand of conceptual vagueness in the different legal texts pertaining to digital technology and mental health is due to 1) uncertainty about a general definition of what is to be understood by mental health on the one hand, and 2) a complete lack of understanding of the psychological mechanisms at play. This narrative review follows the Stanford University guidelines and is aimed at providing a conceptual background for further investigation. Insights into phenomena and symptoms translating the impact of digital technology on mental health, the psychological mechanisms at play, and a set of appropriate testing tools for further quantification in clinical and experimental research are reviewed. In the history of mass media communication, digitalization and AI have brought about technology for mental manipulation well beyond what was previously possible. In the 20th century, communication in human society changed quantitatively and qualitatively by the invention of radio and its use for advertising and political propaganda beyond mere public information. Our belief systems are intrinsically biased by our personal history and experience, and we tend to believe in the validity of a certain type of information rather than another on the basis of such bias. The strongest reinforcement of false beliefs is, purely and simply, the mere repetition of false facts and figures at the largest possible scale.  Repeating a false claim over and over again makes it believable through psychological mechanisms at play in incantation in tribal rituals. Television and, ultimately, the internet and the mobile phone, with the explosion of social networks and chatbots driven by various forms of AI, have progressively given birth to an entirely new breed of technology, ideally suited for behavioural monitoring and manipulation at the largest possible scale. Intrinsically healthy real-world stimuli and sensations through physical contact with others and with material reality, which have a measurably positive effect on our psychological well-being have been replaced by a whole universe of remote virtual social reality and deceptive online interactions.


 Dark patterns in mobile phone applications


Dark patterns were first identified in connection with persuasive technology tools aimed at influencing user behaviour in mobile phone applications. A first attempt at categorization was proposed already in 2010 to shed light on evil practices used in the design of mobile phone applications, where DP have been predominant for some time. The presence of dark patterns in the UX design of digital platforms, websites, and mobile applications has been identified in 95% of all platforms and applications linked to commercial ventures. A dark pattern is defined as “a user interface that has been carefully crafted to trick users into doing things that they usually might not do”
.  Dark Patterns rely on a solid understanding of unconscious mechanisms of psychological conditions, and never have the user’s interest in mind. For example, companies showing a long list of privacy policies in mobile applications although consumers involuntarily accept to share more data than they intended to. Aggressive commercial dark patterns involve practices that force the consumer to proceed to certain steps, make decisions, or perform certain tasks without freedom of choice, while mild dark patterns leave option to opt-out of the process. Surprisingly, it has been found that aggressive dark patterns are much better accepted by users than mild ones, presumably because aggressive ones more strongly display what may be called digital authority. Digital authority, combined with the novelty effect of a given technology application or AI product, paradoxically helps masking the intrinsically evil intent behind them, which is akin to a psychological phenomenon known as the Milgram Effect. Dark patterns enable AI to deceptively lead consumers and users to “do what they are told to” willingly and uncritically. Mild dark patterns are present in almost all commercially linked internet and mobile applications. Individuals of all ages worldwide have already become used to being manipulated by them, a phenomenon referred to as dark pattern blindness or blindness to malicious internet design akin to the well-known phenomenon of change blindness in psychology. Normative perspectives for analyzing dark pattern effects in terms of their potentially detrimental effects on consumers and society have been proposed by the OECD, without any deeper scrutiny of their consequences for the psychological well-being of individuals and society. Clear working hypotheses are urgently needed here for carving out appropriate regulatory measures. Also, there is no universally agreed definition of the dark pattern concept apart from the understanding that they lead users into making decisions they would not have made if fully informed and capable of selecting alternatives or given the choice of opting out. In short, by their manipulative nature, dark patterns online limit individual freedom of choice and the conscious awareness that is necessary “to say no” to a process, a procedure or a product. The General Data Protection Regulation (GDPR) of the EU, which encompasses the demand for clear information, transparency, control of all data, is violated by dark patterns in digital technology and AI. The motivations and intentions detectable behind a digital design pattern or AI determine whether it contains dark patterns or not. Mobile phone applications use dark patterns to achieve business goals in a virtual space where people spend most of their time. With the wider use of online games and AI-driven interactive platforms and social media, we have entered a new universe of human computer interaction, by nature manipulative, because the aim of online platforms and social media is to keep people engaged. Dark patterns therein serve the purpose of manipulating users to act in a certain way, which is often contrary to their interests, in time alters their psychological ability to perceive and decide cogently and, ultimately, may engender behavioural changes that negatively affect individuals and society as a whole. The design of online gaming and interactive platforms unilaterally benefits the interest of their creators. Deceptive interaction as a general dark pattern, omnipresent in social media platform design and impossible to single out at the technical level, has potentiated mental manipulation at the largest possible scale. The Digital Services Act (DSA) of the European Commission recognizes the dangers of dark patterns in digital technology and Artificial Intelligence (AI) to the safety and well-being of human individuals and society. The necessity for their uniform legal ban across Europe is recognized further in the Artificial Intelligence Act. Therein subliminal behavioural priming by dark patterns in Artificial Intelligence (AI) is identified as “high risk” technology to be banned legally in the future as soon as scientific insight on the mechanisms at play is available.

Deceptive design in AI-driven social media


The convergence of human intelligence and AI has given way to a deceptive space of relational interactions between humans and AI. The humanwashing of AI-enabled machines as a specific form of anthropomorphism represents a deceptive way of using AI-enabled systems and machines, misleading organizational stakeholders and the broader public about the true capabilities such machines possess. This has enabled the deterioration of social structures and communication processes with regard to consequences, acco
untability, and liability. Widespread cybercrime and cyber-insecurity have been listed among the top ten global risks to society in the next two years and beyond at World Economic Forum in 2024. AI threatens democratic aspects of trust formation, and biases and destroys critical social aspects relating to distrust and its consequences on individuals and society. Beyond the spread of false information, the rise of AI-manipulated multimedia, with a massive presence of AI-powered automated accounts and various forms of harmful content, the perils we encounter when exposed to such an online ecosystem have been allowed to proliferate beyond controllable levels. This has produced a novel, particularly evil, breed of dark pattern: deceptive interaction. We may define deceptive interactions enabled by AI-powered platforms in terms of online contacts and interactive feed-backs that the user cannot control, either because the contact per se is fake and therefore deceptive [46], and/or the interaction deceives because it is coercive, deceitful, diminishing, hostile, discriminating and manipulative. Deceptive interaction (Figure 1) makes humans believe they are interacting with another human when they are not, or allow other human platform members to create user profiles anonymously, permitting them to lie to and/or abuse others without penalty. Repeated exposure to algorithm-driven deceptive interactions engenders mental and behavioural modifications, especially in the young. This may have irreversible, consequences on an individual’s perception, understanding, reasoning, thoughts, emotions, trust, and overall psychological well-being at the individual level and at the level of their social interactions with others in the real world (the Figure up).

 

Ljubljana/Paris, 25 February 2025

 

 

    Abstrakt

 

Prava na dostojanstvo i slobodu misli (mentalna autonomija) su osnovna ljudska prava. Oni podrazumijevaju osnovno pravo na mentalno zdravlje. Mogućnost da prava na dostojanstvo, mentalnu autonomiju i, kao posljedicu, mentalno zdravlje mogu biti ozbiljno ugroženi određenim digitalnim tehnologijama i umjetnom inteligencijom (AI) je priznata u svjetskim razmjerima, ali se trenutni pravni okviri još uvijek bore da izgrade regulatorne mjere koje u potpunosti uzimaju u obzir uticaj digitalnih tehnologija i AI na mentalno zdravlje. Ovaj narativni pregled počinje kratkim istorijskim pregledom koji naglašava zašto su internet i AI podigli potencijal za individualnu i kolektivnu mentalnu manipulaciju bivšim medijima masovne komunikacije na viši nivo. U kontekstu trenutnog društva, mračni obrasci u komercijalnim digitalnim alatima su uvjerljivo osmišljeni da manipuliraju potrošačkim izborima. Internet i platforme društvenih medija iskorištavaju umjetnu inteligenciju za stvaranje znakova okidača ovisnosti, lažnih sadržaja i obmanjujućih interakcija. Digitalna tehnologija je otela našu mentalnu autonomiju i predstavlja prijetnju mentalnom zdravlju i dobrobiti bez presedana, posebno djece i mladih pojedinaca koji su povezani na duge sate danju i noću, što je sada službeno priznato od strane međunarodnih zdravstvenih organizacija širom svijeta. Problem je već došao do izražaja u novim oblicima kompulzivnog ponašanja i ovisnosti (digitalna ovisnost) sa srodnim simptomima anksioznosti, depresije, poremećaja spavanja, anhedonije, suicidalnih ideja. Ovaj članak identifikuje psihološke mehanizme koji će vjerovatno objasniti pogoršanje mentalnog zdravlja u digitalnom dobu u smislu uvjetovane poslušnosti digitalnom autoritetu, de-individuacije, patološke adaptacije mozga na kronični stres, sindroma nedostatka nagrađivanja (RDS) i naučene bespomoćnosti. Ovi mehanizmi su nesvjesni, duboko ukorijenjeni u ljudskoj neurobiologiji i oslanjaju se na mehanizam psihobiološke uvjetovanosti.

 

  Uvod

 

Digitalna tehnologija i umjetna inteligencija (AI) predstavljaju prijetnje ljudskom pravu na slobodu mišljenja, identificirane u smislu prijetnji pravu da se ne otkrivaju svoje misli, da se ne kažnjavaju za svoje misli i da se svojim mislima ne manipuliše. Izgubiti slobodu mišljenja znači izgubiti dostojanstvo i psihološki integritet na individualnom nivou, te socijalnu pravednost i povjerenje na nivou društva. Pravo na slobodu misli i dostojanstvo zaštićeno je međunarodnim pravom o ljudskim pravima, uz jasno razumijevanje da ono što potonji želi osigurati jeste mentalna autonomija. U digitalnom društvu na trenutnoj tehnološkoj skali, mentalna autonomija pojedinca u smislu djelovanja nad njihovim mislima, postupcima i odlukama je ugrožena faktorima koji se odnose na pristup informacijama, znanje i stručnost u domeni, te individualno razumijevanje i pristup različitim tipovima digitalne tehnologije i AI koji se trenutno koriste. Kao posljedica toga, kreatori digitalne politike moraju u potpunosti preispitati svijest i sposobnost pojedinca da djeluje. Svjetska zdravstvena organizacija Atlas mentalnog zdravlja je 2021. godine formalno prepoznala nove oblike ovisnosti o digitalnoj tehnologiji (povezani uređaji) kao svjetski problem, gdje prekomjerne aktivnosti na mreži i korištenje interneta dovode do nemogućnosti upravljanja vremenom, energijom i pažnjom tokom dana i stvaraju poremećene obrasce spavanja ili nesanicu tokom noći. Kasnije je objavljeno da se ovaj problem povećao širom svijeta tokom pandemije COVID-19. I Zakon o digitalnoj sigurnosti i Zakon o umjetnoj inteligenciji Europske komisije imaju za cilj jedinstven regulatorni okvir koji treba zaštititi pojedince, posebno mlade i druge ranjive populacije, od prijetnji mentalne manipulacije i rizika za mentalno zdravlje koje predstavljaju digitalna tehnologija i AI. Međutim, nisu propisane jasne definicije mentalne manipulacije, odnosno rizika za mentalno zdravlje koji bi morali biti ublaženi efektivnom regulativom. Ovaj živi pijesak konceptualne nejasnoće u različitim pravnim tekstovima koji se odnose na digitalnu tehnologiju i mentalno zdravlje nastaje zbog 1) nesigurnosti u vezi s opštom definicijom onoga što treba razumjeti pod mentalnim zdravljem s jedne strane, i 2) potpunog nerazumijevanja psiholoških mehanizama u igri. Ovaj narativni pregled prati smjernice Univerziteta Stanford i ima za cilj pružanje konceptualne pozadine za dalje istraživanje. Pregledani su uvidi u fenomene i simptome koji prenose uticaj digitalne tehnologije na mentalno zdravlje, psihološke mehanizme u igri i skup odgovarajućih alata za testiranje za dalju kvantifikaciju u kliničkim i eksperimentalnim istraživanjima. U istoriji komunikacije masovnih medija, digitalizacija i veštačka inteligencija doneli su tehnologiju za mentalnu manipulaciju daleko iznad onoga što je ranije bilo moguće. U 20. stoljeću komunikacija u ljudskom društvu se kvantitativno i kvalitativno promijenila izumom radija i njegovom upotrebom za oglašavanje i političku propagandu izvan pukog javnog informisanja. Naši sistemi vjerovanja su suštinski pristrasni našom ličnom istorijom i iskustvom, i skloni smo vjerovati u valjanost određene vrste informacija, a ne druge na osnovu takve pristrasnosti. Najjače pojačanje lažnih uvjerenja je, čisto i jednostavno, samo ponavljanje lažnih činjenica i brojki u najvećoj mogućoj mjeri. Ponavljanje lažne tvrdnje iznova i iznova čini je vjerodostojnom kroz psihološke mehanizme koji igraju inkantaciju u plemenskim ritualima. Televizija i, u konačnici, internet i mobilni telefon, s eksplozijom društvenih mreža i chatbotova potaknutih raznim oblicima AI, progresivno su iznjedrili potpuno novu vrstu tehnologije, idealno pogodne za praćenje ponašanja i manipulaciju u najvećoj mogućoj mjeri. Intrinzično zdravi podražaji i senzacije iz stvarnog svijeta kroz fizički kontakt s drugima i s materijalnom stvarnošću, koji imaju mjerljivo pozitivan učinak na naše psihičko blagostanje, zamijenjeni su cijelim univerzumom udaljene virtualne društvene stvarnosti i obmanjujućih online interakcija.

 

    Tamni uzorci u aplikacijama za mobilne telefone

 

Tamni obrasci su prvi put identifikovani u vezi sa ubjedljivim tehnološkim alatima koji imaju za cilj da utiču na ponašanje korisnika u aplikacijama za mobilne telefone. Prvi pokušaj kategorizacije predložen je već 2010. godine kako bi se rasvijetlile zle prakse koje se koriste u dizajnu aplikacija za mobilne telefone, gdje je DP već neko vrijeme preovlađivao. Prisustvo tamnih obrazaca u UX dizajnu digitalnih platformi, web stranica i mobilnih aplikacija identificirano je u 95% svih platformi i aplikacija povezanih s komercijalnim poduhvatima. Tamni uzorak je definiran kao „korisnički interfejs koji je pažljivo izrađen da navede korisnike da rade stvari koje obično ne rade“. Tamni obrasci se oslanjaju na čvrsto razumijevanje nesvjesnih mehanizama psiholoških stanja, i nikada nemaju na umu interes korisnika. Na primjer, kompanije koje pokazuju dugačku listu politika privatnosti u mobilnim aplikacijama iako potrošači nehotice pristaju da dijele više podataka nego što su namjeravali. Agresivni komercijalni mračni obrasci uključuju prakse koje tjeraju potrošača da nastavi s određenim koracima, donese odluke ili izvrši određene zadatke bez slobode izbora, dok blagi tamni obrasci ostavljaju mogućnost da se odustanu od procesa. Iznenađujuće, otkriveno je da agresivne tamne obrasce korisnici mnogo bolje prihvaćaju od onih blagih, vjerojatno zato što agresivni snažnije pokazuju ono što se može nazvati digitalnim autoritetom. Digitalni autoritet, u kombinaciji s efektom noviteta određene tehnološke aplikacije ili AI proizvoda, paradoksalno pomaže prikrivanju suštinski zle namjere iza njih, što je slično psihološkom fenomenu poznatom kao Milgramov efekat. Tamni obrasci omogućavaju veštačkoj inteligenciji da na prevaru navede potrošače i korisnike da „rade ono što im se kaže“ voljno i nekritički. Blagi tamni uzorci prisutni su u gotovo svim komercijalno povezanim internetskim i mobilnim aplikacijama. Pojedinci svih starosnih dobi širom svijeta već su se navikli da njima manipuliraju, što je fenomen koji se naziva sljepoća mračnih obrazaca ili sljepoća za zlonamjerni internet dizajn, sličan dobro poznatom fenomenu sljepoće promjena u psihologiji. Normativne perspektive za analizu efekata mračnih obrazaca u smislu njihovog potencijalno štetnog uticaja na potrošače i društvo je predložio OECD, bez ikakvog dubljeg ispitivanja njihovih posledica na psihičko blagostanje pojedinaca i društva. Ovdje su hitno potrebne jasne radne hipoteze za izradu odgovarajućih regulatornih mjera. Također, ne postoji univerzalno prihvaćena definicija koncepta mračnog uzorka, osim razumijevanja da oni navode korisnike na donošenje odluka koje ne bi donijeli da su u potpunosti informirani i sposobni da odaberu alternative ili im daju mogućnost izbora. Ukratko, po svojoj manipulativnoj prirodi, tamni obrasci na mreži ograničavaju individualnu slobodu izbora i svjesnu svijest koja je neophodna „da se kaže ne“ procesu, proceduri ili proizvodu. Opšta uredba o zaštiti podataka (GDPR) EU, koja obuhvata zahtjeve za jasnim informacijama, transparentnošću, kontrolom svih podataka, narušena je mračnim obrascima u digitalnoj tehnologiji i AI. Motivacije i namjere koje se mogu otkriti iza uzorka digitalnog dizajna ili AI određuju da li sadrži tamne uzorke ili ne. Aplikacije za mobilne telefone koriste tamne obrasce za postizanje poslovnih ciljeva u virtuelnom prostoru u kojem ljudi provode većinu svog vremena. Uz širu upotrebu online igara i interaktivnih platformi i društvenih medija vođenih umjetnom inteligencijom, ušli smo u novi univerzum interakcije ljudi s računalom, po prirodi manipulativnih, jer je cilj online platformi i društvenih medija da zadrže ljude uključene. Tamni obrasci služe u svrhu manipulacije korisnika da se ponašaju na određeni način, koji je često suprotan njihovim interesima, s vremenom mijenja njihovu psihološku sposobnost da percipira i uvjerljivo odlučuje i, u konačnici, može izazvati promjene u ponašanju koje negativno utječu na pojedince i društvo u cjelini. Dizajn internetskih igara i interaktivnih platformi jednostrano pogoduje interesima njihovih kreatora. Varljiva interakcija kao opći mračni obrazac, sveprisutan u dizajnu platforme društvenih medija i nemoguće ga je izdvojiti na tehničkom nivou, potencirala je mentalnu manipulaciju u najvećoj mogućoj mjeri. Zakon o digitalnim uslugama (DSA) Europske komisije prepoznaje opasnosti tamnih obrazaca u digitalnoj tehnologiji i umjetnoj inteligenciji (AI) za sigurnost i dobrobit ljudskih pojedinaca i društva. Neophodnost njihove jedinstvene zakonske zabrane širom Evrope prepoznata je dalje u Zakonu o veštačkoj inteligenciji. U njemu je subliminalno pripremanje ponašanja mračnim obrascima u umjetnoj inteligenciji (AI) identificirano kao tehnologija "visokog rizika" koja će biti zakonski zabranjena u budućnosti čim naučni uvid u mehanizme u igri bude dostupan.

 

Varljiv dizajn na društvenim medijima vođenim AI

 

Konvergencija ljudske inteligencije i veštačke inteligencije ustupila je mesto varljivom prostoru relacionih interakcija između ljudi i veštačke inteligencije. Ljudsko pranje mašina sa AI-om kao specifičan oblik antropomorfizma predstavlja obmanjujući način korišćenja sistema i mašina sa AI-om, dovodeći u zabludu organizacione zainteresovane strane i širu javnost o pravim mogućnostima koje takve mašine poseduju. To je omogućilo propadanje društvenih struktura i komunikacijskih procesa u pogledu posljedica, odgovornosti i odgovornosti. Široko rasprostranjeni sajber kriminal i sajber-nesigurnost navedeni su među deset najvećih globalnih rizika za društvo u naredne dvije godine i kasnije na Svjetskom ekonomskom forumu 2024. AI prijeti demokratskim aspektima formiranja povjerenja, te pristrasnosti i uništava kritične društvene aspekte koji se odnose na nepovjerenje i njegove posljedice na pojedince i društvo. Osim širenja lažnih informacija, porasta multimedije kojom manipulira umjetna inteligencija, s masovnim prisustvom automatiziranih naloga pokrećućih umjetnom inteligencijom i raznim oblicima štetnog sadržaja, opasnosti na koje nailazimo kada smo izloženi takvom online ekosistemu dozvoljeno je da se proliferiraju izvan nivoa koji se može kontrolirati. Ovo je proizvelo novu, posebno zlu, vrstu mračnog uzorka: varljiva interakcija. Možemo definirati obmanjujuće interakcije koje omogućavaju AI platforme u smislu mrežnih kontakata i interaktivnih povratnih informacija koje korisnik ne može kontrolirati, bilo zato što je kontakt sam po sebi lažan i stoga obmanjujući [46], i/ili interakcija vara jer je prisilna, varljiva, umanjujuća, neprijateljska, diskriminirajuća i manipulativna. Obmanjujuća interakcija (Slika 1) navodi ljude da vjeruju da komuniciraju s drugim čovjekom kada nisu, ili dozvoljavaju drugim članovima ljudske platforme da anonimno kreiraju korisničke profile, dozvoljavajući im da lažu i/ili zlostavljaju druge bez kazne. Ponovljena izloženost obmanjujućim interakcijama vođenim algoritmom dovodi do mentalnih i bihevioralnih modifikacija, posebno kod mladih. Ovo može imati nepovratne posljedice na percepciju, razumijevanje, razmišljanje, misli, emocije, povjerenje i cjelokupno psihičko blagostanje pojedinca na individualnom nivou i na nivou njihovih društvenih interakcija s drugima u stvarnom svijetu (slika gore).

 

Ljubljana/Paris, 25 Februar 2025



  Taken from / Preuzeto od: IFIMES Ljubljana

To be continued / Nastaviće se

 

 

Abstract

  

Popularni postovi s ovog bloga

MALA ŠKOLA KULTURE I SUBKULTURE GOVORA

JAVNO PRIZNAJEM - JA SAM JEDAN OD ODGOVORNIH ZA RASPAD JUGOSLAVIJE

BOSANSTVO JE BUDUĆNOST BOSNE

FEDERALNA ELEKTRO DEMOKRATIJA JEDNAKO VEĆI RAČUNI ZA ELEKTRIČNU ENERGIJU

PLANETA ZEMLJA - ZAVRŠNI IZVJEŠTAJ ZA 2024. GODINU (2024. decembar, 23 h, 59 min i 58 s)