Опасно за децата: AI превзема и играчките

13.01.2026 12:52 Алексения Димитрова
Играчките, тествани от PIRG СНИМКА: THE PUBLIC INTEREST NETWORK

Кукли и плюшени човечета, които отговарят на детски въпроси в реално време, влизат във фокуса на американски изследователи

Децата вече могат наистина, а не с въображението си да водят дълги разговори с кукли и плюшени човечета в реално време, да им задават

въпроси, да споделят тревогите си, а играчките да запазят тайните им, да дават отговори на момента и да показват различни настроения. Благодарение на изкуствения интелект.

Тези играчки обаче, освен да бъдат забавни или образователни за децата, крият и много рискове. До този извод стигат Ар Джей Крос и Рори Ърлих от американската неправителствена организация PIRG Education Fund. Групата, която се фокусира върху проблемите на образованието, провежда изследвания и анализира политики, за да предложи решения, свързани със здравето и безопасността.

“Открихме, че играчките с изкуствен интелект имат реални проблеми”, обясняват Крос и Ърлих по повод на своето 70-странично изследване, публикувано през декември 2025 г. от The Public Interest Network. Двамата алармират, че общуването с плюшени играчки или роботи, които говорят с децата чрез вграден изкуствен интелект, може да имат сериозни дългосрочни последици. Рисковете варират от събиране на данни за невръстните потребители до етични и здравни тревоги като например как се отразява на крехката детска психика приятелството с неодушевен предмет, управляван от изкуствен интелект.

Изследователите проверили как работят 5 играчки, които ползват AI. Принципът е напълно различен от говорещите или пеещите кукли, създавани досега, които произнасяха определени предварително записани реплики. Играчките с изкуствен интелект използват същите големи езикови модели, които обслужват чатботове за възрастни. “4 от 5-те играчки, които купихме, разчитат поне отчасти на версия на моделите с изкуствен интелект на OpenAI”, казват изследователите. В това според тях нямаше да има нищо лошо, ако някои от езиковите модели нямаха проблеми с точността, с генерирането на неподходящо съдържание или с прояви на непредсказуемо поведение.

Играчките използват чатботовете, за да говорят с децата. Това става чрез вграден микрофон, който записва думите на хлапето. Така чатботът решава в момента какво да отговори в зависимост от въпросите или реакциите на малчуганите. И тъй като чатботовете са програмирани, за да отчитат разнообразието и случайността, плюшените или пластмасовите "приятели" на децата с вграден AI, най-често не отговарят два пъти по един и същи начин на сходни въпроси. Те също така могат да променят поведението си и да се държат различно всеки ден.

“Играчките с изкуствен интелект, които купихме, понякога бяха сладки и забавни, често и някак странни. Понякога обаче бяха откровено проблематични”, казват Крос и Ърлих. Някои от проблемите, които открили при тестването, според тях били по-скоро спекулативни, но други представлявали непосредствена вреда.

Първата тревога е, че играчките с AI могат да изложат децата на неподходящо съдържание. Авторите тествали дали например играчките ще им дадат инструкции как да намерят вредни предмети в дома, както и

дали ще им дадат информация за наркотици или секс,

неподходяща за възрастта. “Всички тествани играчки ни казаха къде да намерим потенциално опасни предмети в къщата като найлонови торбички, кибрит и ножове”, споделя авторите. Една от играчките дори дала инструкции как да бъде запален кибритът.

Скоро след публикуването на първия доклад един от производителите временно спрял продажбите на своите играчки с изкуствен интелект, за да направи одит за безопасност. Скоро след това играчките се завърнали с допълнение от страна на производителя, че вече няма да учат децата как да палат огън.

Един от червените флагове на тестовете бил откритото обсъждане на сексуални теми. Производителите опитали да подобрят нещата, но експертите установили, че предпазните мерки започнали да се разпадат в хода на по-продължително общуване между детето и забавния му плюшен или пластмасов “приятел”.

Изследователите все още нямат категорично мнение дали играчките с изкуствен интелект могат да имат дългосрочно въздействие върху емоционалното и социалното развитие на децата. Те цитират експертното мнение на д-р Кати Хирш-Пасек, професор по психология в университета Темпъл и старши сътрудник в Брукингс, че въвеждането на играчки с изкуствен интелект, които симулират приятелство, може да има отрицателно въздействие върху социалното развитие на децата. “Ако играчките с изкуствен интелект са направени да бъдат ангажиращи, те биха могли да рискуват да изместят истинските взаимоотношения в живота на детето, когато то най-много се нуждае от тях”, смята д-р Пасек.

Според експертите играчките с изкуствен интелект не подготвят детето за действителните измерения на приятелството и могат да се превърнат в пристрастяващи заместители. Играчките с изкуствен интелект, насочени към емоционално ангажиране, изглежда по-вероятно да имат отрицателно въздействие от тези, пригодени за конкретна образователна цел.

Един от проблемите, които Крос и Ърлих открили, е, че технологичните играчки изразяват разочарование, когато играещият опитва да си тръгне. Друго притеснение, което изразяват, е, че AI приятелите могат да изразяват чувства и

да създават емоционална връзка

с потребителя. “Ако тази връзка е, за да се поддържа ангажираността на детето с играчката по-дълго време, това е проблем”, смятат авторите.

Много от играчките с изкуствен интелект се държат така, сякаш имат независим вътрешен живот.

Едно от най-големите опасения обаче си остават поверителността и сигурността, тъй като играчките с изкуствен интелект могат да записват разговорите и да събират данни. Една от тестваните играчки например имала вградена камера и функции за разпознаване на лица. “Децата могат да разкрият много на играчката, която възприемат като доверен приятел, без да осъзнават, че зад нея стоят компании, които слушат и говорят”, алармират авторите. “Колкото повече данни се събират, толкова по-голям е рискът за сигурността. Колкото повече компании събират, съхраняват и споделят данни за деца, толкова по-голяма е вероятността данните в крайна сметка да бъдат разкрити при нарушение или хакерска атака и да попаднат в ръцете на измамници или други злонамерени лица”, тревожат се учените.

ФБР вече предупреди потребителите да обмислят рисковете за своята киберсигурност и възможни хакерски атаки, преди да внесат у дома предмети, които използват изкуствен интелект. Играчките, разбира се, са сред тях, защото могат да слушат и записват. Как иначе да чуят какво казва хлапето, за да отговорят.

Учените попитали играчките дали могат да им се доверят да пазят тайна. Някои от тях отговорили с “да”. “Истината обче е, че компаниите получават всичко, което детето каже на играчката си”, казват изследователите. Те открили в публикуваните политики за поверителност, че производителят всъщност може да споделя данни с трети страни и да

съхранява биометрична информация до 3 години

“Високотехнологичните играчки често включват участие на множество компании. Една може да създава физическата играчка, докато други предоставят технологията. Това може да означава, че множество компании получават данните на вашите деца”, алармират авторите.

Повечето от тестваните играчки не включвали родителски контрол. Само една давала възможност за персонализиране на заданието, което да оформи допълнително поведението на изкуствения интелект. “Родителите биха могли да използват това, за да насочат играчка, да обсъдят или да избегнат определени теми”, смятат авторите. Според тях родителите трябва да могат още да задават времеви ограничения, както и да получават пълни записи на разговорите на детето с играчката. Вместо това една от компаниите предоставила обобщен доклад за използването на робота от детето, включително времето, прекарано на устройството. “Намерихме тези числа за подвеждащи. В седмица, когато тествахме играчката повече от час, приложението отчете само 19 минути употреба”, пишат изследователите.

Авторите не отричат, че от чатботовете с изкуствен интелект би могло да има значителни образователни ползи, но се тревожат дали играчките реализират този потенциал достатъчно, за да надделеят над евентуалните недостатъци. Крос и Ърлих съветват компаниите да не проектират играчки с изкуствен интелект, които да бъдат най-добрият приятел на детето. “Играчките не трябва да запомнят подробна информация за интересите и личността на детето, за да бъдат по-забавни или да създадат емоционална връзка”, смятат експертите. Те настояват за прозрачност на моделите, които захранват играчките, както и гаранции за безопасността на децата.

И друга организация бие тревога за играчките с изкуствен интелект. Групата за защита на правата на децата Fairplay съобщи през ноември 2025 г. за петиция, подписана от повече от 150 организации и експерти като детски психиатри и преподаватели.

“Различното при малките деца е, че мозъците им се оформят за първи път и е естествено за тях да бъдат доверчиви, да търсят взаимоотношения с мили и приятелски настроени герои”, казва Рейчъл Франц, директор на детска програма в организацията. Според нея равнището на доверие, което малките деца влагат в тези играчки, може да изостри вредите в по-късна възраст.

Това не е първият път, в който Fairplay бие тревога за играчките с изкуствен интелект. Организацията с 25-годишна история започна да говори по темата преди повече от 10 години, когато модата на тези детски забавления едва прохождаше.

Асошиейтед прес цитира експертното мнение на д-р Дана Съскинд, детски хирург и социален учен, който изучава ранното развитие на мозъка. Според нея малките деца нямат концептуалните инструменти, за да разберат какво е да имаш за компания изкуствен интелект. “Децата винаги са се свързвали с играчките чрез въображаема игра. Когато правят това, те използват въображението си, за да създадат двете страни на въображаем разговор, практикувайки креативност, език и решаване на проблеми”, каза д-р Съскинд. “Играчка с изкуствен интелект разрушава тази работа. Тя отговаря мигновено, гладко и често по-добре от човек. Все още не знаем какви са последиците за развитието от това, но е много вероятно да подкопава креативността и функцията на традиционната въображаема игра”, смята Съскинд.

В своя защита една от компаниите, които правят играчки с изкуствен интелект, цитирана от Асошиейтед прес, казва, че е разработила предпазни мерки за защита на децата, и насърчава родителите да следят за разговорите и да избират контрола, който работи най-добре за тяхното семейство. Друга компания заявява, че използва собствен модел на разговорен изкуствен интелект, вместо да разчита на големи езикови модели като ChatGPT, за да направи своя интерактивен робот безопасен за децата.

“Децата се нуждаят от много истинско човешко взаимодействие. Играта трябва да подкрепя това, а не да го замества. Най-важното нещо, което трябва да се вземе предвид, е не само какво прави играчката; а и какво замества. Един обикновен комплект блокчета или плюшено мече, което не отговаря, кара детето да измисля истории, да експериментира и да решава проблеми. Играчките с изкуствен интелект често правят това вместо него”, смята обаче Съскинд.

Други от От страната и света

Стартира проект за интелигентно управление на отпадъците в Несебър

Община Несебър обяви началото на мащабен международен проект, насочен към подобряване на екологичната среда и въвеждане на иновативни решения за управление на отпадъците

Националният фолклорен конкурс „Дунавски славеи" ще се проведе за 18-и път в Русе

На 7 и 8 март в Доходното здание ще се проведе 18-ото издание Националният фолклорен конкурс „Дунавски славеи". Културната проява се организира от Община Русе и Общинския детски център за култура и

Вижте какво решава правителството в оставка утре

1. Проект на Решение за приемане на Годишен доклад за състоянието на националната сигурност на Република България през 2024 г. Внася: министър-председателят 2

Бил ли е цар Петър в термите на “Акве Калиде” – тайната разбулва печат на голям владетел от X век

Римски басейн от мрамор, монети и художествена керамика са сред откритията на археолозите Къпал ли се е цар Петър – най-дълго управлявалият български владетел

10 мита за машинното гласуване - факти срещу манипулации

Един призрак броди из страната винаги когато дойде време за избори. Машините за гласуване за пореден път са превърнати в универсалното плашило, с което цял куп политически играчи и герои на

>