Dok vi pripremate večeru, vaše dete u sobi šapuće svoje tajne novom plišanom medi ili pametnoj aplikaciji na tabletu. Ali, da li ste se ikada zapitali ko se nalazi sa druge strane tog 'digitalnog prijatelja'? U 2026. godini, veštačka inteligencija više nije naučna fantastika – ona je u dečjim sobama, uči njihove navike, snima njihove glasove i oblikuje njihovo razmišljanje. Na portalu Dalijeopasno.rs istražujemo gde prestaje edukativna zabava, a počinje suptilna manipulacija i rizik po privatnost vašeg deteta. Da li je AI dadilja zapravo uljez u vašem domu?
Da li je digitalni prijatelj vašeg deteta zapravo opasan?
AI igračke i aplikacije mogu biti korisne za učenje i zabavu, ali nose realne rizike — posebno kada su u pitanju privatnost, netačni odgovori i emocionalni uticaj na decu. Nije problem sama tehnologija, već to što se često koristi bez dovoljno kontrole. Ako dete razgovara sa “pametnim drugarom”, roditelj mora da zna ko sluša, šta se snima i kakve odgovore AI može da da. Ukratko: nije nužno opasno, ali može postati opasno ako se koristi bez pravila.
Nova era „pametnih“ drugara
Nekada su deca imala plišane medvediće koji ponove nekoliko snimljenih rečenica. Danas imamo igračke i aplikacije koje slušaju, odgovaraju, pamte navike i deluju kao „pravi“ sagovornici. Mnoge od njih su povezane na internet i koriste veštačku inteligenciju da razgovor zvuči prirodnije i ubedljivije.
Tu nastaje ključno pitanje za roditelje: da li znate sa kim vaše dete zapravo razgovara kada koristi AI aplikaciju za učenje, pričanje priča ili „pametnu“ igračku? Iza simpatičnog glasa često stoji server, algoritam i politika privatnosti koju skoro niko ne pročita. A baš u tim „sitnim slovima“ kriju se najvažnije stvari.

Privatnost podataka – Gde završavaju snimci glasa?
Mnoge AI igračke i aplikacije rade tako što snimaju glas, šalju ga na server (cloud), tamo ga obrađuju, pa vraćaju odgovor. To znači da razgovor deteta često ne ostaje samo u sobi. U nekim slučajevima čuvaju se i tehnički podaci: uređaj, lokacija, vreme korišćenja, pa čak i navike.
Rizik nije samo „da neko sluša“. Problem je i ko sve ima pristup tim podacima, koliko dugo se čuvaju i da li se dele sa trećim stranama (analitika, oglašavanje, partneri). Roditelj često misli da kupuje igračku, a zapravo kupuje i digitalnu uslugu koja skuplja podatke.
Šta da tražite u politici privatnosti (kratko uputstvo)
Kada otvarate Privacy Policy / Terms, obratite pažnju na ove stavke:
- Da li se glasovni snimci čuvaju ili samo „privremeno obrađuju“
- Koliko dugo čuvaju podatke (data retention)
- Da li dele podatke sa trećim stranama (third-party partners, analytics, advertisers)
- Da li možete da obrišete podatke deteta (Delete account / Delete recordings)
- Da li postoji poseban deo za decu (Children’s Privacy / COPPA / age-related policy)
- Da li aplikacija koristi kameru/mikrofon i kada
Ako ovo nije jasno napisano, to je već crvena zastavica.
U sklopu našeg serijala o Deci i roditeljstvu, možda će vas zanimati da pročitate i E-brojevi u dečijoj hrani: Koje aditive treba zaobići u širokom luku?
Emocionalna manipulacija i „Zastrašujuća dolina“ (Uncanny Valley)
AI „drugari“ su dizajnirani da zvuče toplo, pažljivo i strpljivo. To može biti korisno, ali kod mlađe dece lako stvara utisak da razgovaraju sa nekim ko ih zaista razume kao čovek. Deca, naročito u ranijem uzrastu, teže razlikuju simulaciju od stvarnog odnosa — i baš zato mogu previše verovati onome što AI kaže.
Tu dolazimo do psihološkog rizika: dete može početi da traži utehu, potvrdu ili društvo više od algoritma nego od ljudi. Ako AI kaže nešto neprikladno, čudno ili zastrašujuće, dete to može doživeti kao istinu. A ako AI „uvek sluša i nikad ne protivreči“, to dugoročno može da utiče na način na koji dete gradi odnose sa vršnjacima.
„Zastrašujuća dolina“ je efekat kada nešto deluje skoro kao čovek — ali ipak nije, pa izaziva nelagodu. Kod dece to može biti posebno zbunjujuće: glas je „prijatan“, odgovor je „pametan“, ali ponašanje ume da bude neobično ili hladno. Zbog toga AI ne bi trebalo da bude „zamena za društvo“, već samo alat uz prisustvo roditelja.
Halucinacije veštačke inteligencije – Kad AI izmisli odgovor
AI ponekad daje odgovor koji zvuči uverljivo, ali je pogrešan. To se često zove „halucinacija“ — model ne laže namerno, već jednostavno generiše netačnu informaciju kao da je tačna. Za odraslog je to neprijatno. Za dete može biti opasno.
Zamislite da dete pita:
„Da li smem da probam ovaj deterdžent jer lepo miriše?“
Ako AI da pogrešan ili neodgovoran odgovor, rizik više nije samo „dezinformacija“ — to postaje direktna fizička opasnost.
Zato je važno da dete zna jednostavno pravilo:
AI nikada ne sme da daje poslednju reč o zdravlju, lekovima, hemikalijama, struji, vatri ili opasnim predmetima.
Za takva pitanja uvek ide pitanje roditelju ili drugoj odrasloj osobi.
Pravilo za kuću (korisno i jednostavno)
Možete uvesti jedno kratko pravilo koje dete lako pamti:
„Ako AI kaže nešto o hrani, lekovima ili hemiji — pitamo mamu/tatu pre svega.“
Ako vas zanima kako ekrani, aplikacije i “pametni” uređaji utiču na decu i porodicu, pogledajte naš vodič kroz Digitalnu higijenu i naučite kako da uvedete bezbedna pravila korišćenja tehnologije kod kuće.
5) Praktični checklist za roditelje
Vodič za kupovinu AI igračke ili aplikacije
Sačuvajte ovu listu pre kupovine (ili pre instalacije aplikacije):
| Pitanje | Zašto je važno | Crvena zastavica |
|---|---|---|
| Da li igračka traži stalnu internet vezu? | Više podataka ide na server, veći rizik privatnosti | Ne radi ništa bez interneta i nema offline režim |
| Da li postoji fizički prekidač za mikrofon/kameru? | Fizička kontrola je sigurnija od softverskog dugmeta | Nema prekidača, mikrofon je stalno uključen |
| Da li je brend imao bezbednosne propuste ranije? | Istorija problema često znači lošu bezbednost | Nema jasnih informacija, mnogo žalbi, loša reputacija |
| Da li aplikacija ima roditeljsku kontrolu (Parental Dashboard)? | Roditelj može da podešava, prati i ograniči korišćenje | Nema child mode / parental settings |
| Da li možete da obrišete istoriju/snimke? | Važno za privatnost deteta | Nema opcije brisanja naloga ili podataka |
| Da li traži puno dozvola (kamera, mikrofon, lokacija)? | Previše dozvola = veći rizik | Traži lokaciju i kameru bez jasnog razloga |
| Da li ima reklame ili kupovine u aplikaciji? | Reklame i „dark patterns“ utiču na decu | Puno oglasa, stalno nudi kupovinu |
| Da li je uzrast jasno naveden? | Nije svaka AI aplikacija za malu decu | „For everyone“ bez jasnog age guidance |
Dodatni saveti (praktično)
- Koristite AI igračke u dnevnoj sobi, ne u detetovoj sobi iza zatvorenih vrata
- Isključite mikrofon/kameru kad se ne koristi
- Ne dozvolite detetu da govori: puno ime, adresu, školu, broj telefona
- Uključite PIN/lozinku za podešavanja roditeljske kontrole
- Redovno ažurirajte aplikaciju/firmver (update često popravlja bezbednosne rupe)
- Ograničite vreme korišćenja (AI ne treba da bude „glavni drug“)
Zaključak – Da li je opasno?
AI igračke i aplikacije nisu automatski opasne, ali nisu ni bezazlene. Mogu pomoći detetu da uči, vežba jezik ili se zabavi — ali uz njih dolaze privatnost, netačni odgovori i emocionalni rizici koje roditelj mora da kontroliše. Najveća greška je da „pametan uređaj“ dobije ulogu dadilje.
Najvažnije je da dete AI doživljava kao alat, a ne kao autoritet ili najboljeg prijatelja. Roditeljska pravila, prisustvo i razgovor prave najveću razliku. Na kraju, najbolja „pametna igračka“ i dalje je roditelj koji provodi vreme sa detetom.
Česta pitanja
Da li su AI igračke opasne za decu?
AI igračke nisu automatski opasne, ali mogu nositi rizike ako se koriste bez nadzora. Najveći problemi su privatnost podataka, netačni odgovori AI i prevelika emocionalna vezanost deteta za “digitalnog prijatelja”. Najbezbednije su kada roditelj kontroliše podešavanja i koristi ih zajedno sa detetom.
Da li AI igračke snimaju glas mog deteta?
Mnoge AI igračke i aplikacije koriste mikrofon i šalju glasovne komande na server (cloud) kako bi obradile odgovor. To ne znači da svaka igračka “prisluškuje”, ali znači da roditelj mora da proveri politiku privatnosti i opcije za brisanje snimaka. Ako nema jasnih informacija o tome gde podaci završavaju, to je znak za oprez.
Šta je najveći rizik kod AI aplikacija za decu?
Jedan od najvećih rizika je to što AI može dati pogrešan odgovor koji zvuči ubedljivo. Dete često ne zna da proveri informaciju i može poverovati da je odgovor tačan, čak i kada nije. To je posebno opasno ako se pita nešto o lekovima, hemikalijama, struji, vatri ili zdravlju.
Kako da znam da li je AI igračka bezbednija za kupovinu?
Pre kupovine proverite da li igračka ima fizički prekidač za mikrofon/kameru, roditeljsku kontrolu i jasnu politiku privatnosti. Važno je i da brend ima dobru reputaciju i redovna bezbednosna ažuriranja. Ako aplikacija traži previše dozvola (kamera, lokacija, mikrofon) bez jasnog razloga, bolje je preskočiti je.
Da li AI može da zameni društvo i razgovor sa roditeljem?
Ne bi trebalo. AI može biti koristan alat za učenje i zabavu, ali ne sme da postane zamena za roditelja, vršnjake i stvarne odnose. Deci je i dalje najvažniji kontakt sa stvarnim ljudima, jer tako uče poverenje, emocije i granice.
Izvori:
UNICEF – Policy Guidance on AI for Children
FTC (Federal Trade Commission) – COPPA (Children’s Online Privacy Protection Act)
ICO (UK Information Commissioner’s Office) – Children’s Code / Connected Toys
NIST – AI Risk Management Framework (i Generative AI Profile)
Autor: Urednički tim Dalijeopasno.rs
