Рискове от използване на AI в компаниите
рискове от използване на AI. Печелим време, но на каква цена?
Ако говорите с други HR, L&D или мениджъри, вероятно чувате едно и също: „AI ми спести часове работа.“
Това е вярно — изкуственият интелект вече е неделима част от ежедневието ни, помага с документи, анализи, имейли, съдържание, обучение.
Но има и друга страна.
Много по-тиха.
Много по-трудна за забелязване.
Рисковете, които идват със свободното използване на AI от служителите, не са просто „технически детайли“. Те засягат:
-
сигурността на данните
-
качеството на взетите решения
-
етичната рамка на компанията
-
уменията и развитието на служителите
-
репутацията на бизнеса
И най-важното — повечето от тези рискове не са очевидни.
На базата на редица научни изследвания (SpringerLink, MDPI, Frontiers in Education и др.) по темата, представяме пречистена, вярна и практична картина на предизвикателствата.
Данните: най-големият риск, за който хората научават твърде късно
Когато служител въвежда фирмена информация в публичен AI инструмент, тя може да се използва за обучение на модела — което означава, че вече не е „само наша“.
Защо това е проблем?
В статия, публикувана в MDPI – Information (2024), изследователи предупреждават, че генеративните AI системи могат да „извличат структурни характеристики на въвежданата информация“ дори когато данните са анонимизирани.
С други думи — информацията може да бъде разпозната или възстановена.
Реални рискове:
-
изтичане на лични данни (GDPR)
-
разкриване на търговски тайни
-
изтичане на вътрешни документи
-
достъп на външни разработчици до чувствителна информация
Пример от практиката:
Големи компании като Samsung вече публично потвърдиха случаи, в които служители са качили фирмени тайни в публични AI модели.
Когнитивни рискове при използване на ai: AI понякога отслабва уменията ни
Изкуственият интелект е невероятен ускорител, но създава неочакван страничен ефект: когнитивна ленивост.
Какво казва науката?
Изследване, публикувано в Frontiers in Education (2025), посочва, че продължителната употреба на AI в обучителни и аналитични задачи може да доведе до:
-
по-ниска концентрация
-
отслабено критично мислене
-
зависимост от автоматични препоръки
-
намалена способност за самостоятелно решаване на проблеми
Учените наричат това automation complacency — състояние, при което човек започва да вярва прекомерно в автоматизираната система.
В HR и L&D контекст това означава:
-
служителят приема AI отговори без проверка
-
намалена способност за преценка
-
„изключване“ на творческото мислене
-
загуба на аналитични умения
„Разделението на уменията“: готови ли са всички служители за AI?
„AI Divide“ означава разлика не в достъпа до AI инструменти, а в умението да ги използваме ефективно.
Какво показват изследванията?
Според систематичен научен обзор („A Systematic Literature Review on Generative AI“, IJACSA, 2025), служителите се разделят на две групи:
Силни AI потребители, които:
-
умеят да формулират добри промптове
-
проверяват фактите
-
комбинират AI и собствена експертиза
-
развиват уменията си по-бързо
Слаби AI потребители, които:
-
не задават добри въпроси
-
разчитат на първия отговор
-
затрудняват се в оценка на качеството
-
стават прекалено зависими от AI
Разликата между двете групи расте.
В рамките на една компания това създава вътрешно неравенство, което влияе на производителността, резултатите и дори повишенията.
Етични рискове: пристрастия, авторски права и невидими грешки
Генеративните модели могат да възпроизвеждат социални, културни или професионални пристрастия, наследени от данните, върху които са обучени.
Научни факти
Пристрастия (bias)
Според изследване, публикувано в SpringerLink (2023), AI може да подсъзнателно възпроизвежда исторически неравенства.
Например:
-
мъчително консервативен език в обяви за ИТ позиции
-
различно описание на роли за жени и мъже
-
културни предразсъдъци
Това влияе пряко върху:
-
подбора
-
комуникациите
-
вътрешните политики
Авторско право
MDPI (2024) подчертава, че генеративните модели могат да произвеждат текст или изображения, които са твърде близо до защитено съдържание.
Служител, който използва такъв материал в презентация, може да изложи компанията на реални юридически рискове.
Какво могат да направят HR и L&D екипите?
1. Обучение по AI сигурност
Служителите трябва ясно да разбират кои данни са „червена зона“.
2. Въвеждане на AI политики
Не всички AI инструменти са подходящи за корпоративна употреба.
3. Развитие на уменията за промпт инженеринг
Развитие на умението за промпт инженеринг вече е основно бизнес умение.
4. Създаване на култура на откритост
Служителите трябва да докладват грешки спокойно и без страх.
5. Постоянен мониторинг
AI моделите се развиват. Политиките също трябва да се развиват.
AI не е риск — риск е липсата на умения
Рискът не идва от технологията.
Идва от това колко добре разбираме ограниченията ѝ.
AI може да бъде партньор, но само ако служителите знаят:
как да работят с него
как да проверяват информация
кога да кажат „стоп“
как да защитят данните
как да развиват умения, а не да ги губят
HR и L&D имат ключова роля — да превърнат AI от потенциален риск в конкурентно предимство.
Ако желаете обучение за вашия екип рагледайте нашето обучение AI първи стъпки в работна среда