В последното си медийно участие управителят на CyberOne, Кирил Григоров, коментира една необичайна и провокативна тема, която вълнува обществото: възможността да „обучим“ изкуствен интелект (AI) да мисли и отговаря точно като нас. Поводът бе разкритието, че една от жертвите в трагедията на Петрохан е създала свой собствен чат-бот, програмиран с неговите лични вярвания и убеждения.
Този случай повдига фундаментални въпроси за киберсигурността, етиката и начина, по който преплитаме дигиталния свят с нашето съзнание.
Какво всъщност е персоналният чат-бот?
Технологията зад платформи като ChatGPT позволява създаването на т.нар. „Custom GPTs“. Това са версии на изкуствения интелект, които се обучават върху специфичен набор от данни, предоставени от потребителя – книги, статии, лични записки или дори цялостен светоглед.
„Изкуственият интелект не е нищо повече от това, на което е обучен“, подчертава Кирил Григоров. Ако го захраните със специфични вярвания, той ще ви връща отговори, които ги потвърждават. Така се създава перфектната „ехо стая“ – дигитално пространство, в което не получавате обективна истина, а огледално отражение на собствените си мисли.
Капанът на сляпото доверие
Един от най-големите рискове, които CyberOne идентифицира, е склонността на потребителите да се доверяват на AI безкритично. Тъй като моделите са изключително убедителни в изказа си, лесно можем да забравим, че те не „разбират“ концепциите, а просто предвиждат математически следващата дума.
„Има много случаи, в които чат-ботовете връщат грешна или подвеждаща информация, просто защото тя е заложена в тяхната база данни или защото моделът „халюцинира“ (създава несъществуващи факти)“, обяснява Григоров.
Критичното мислене: Вашата най-добра киберзащита
За CyberOne киберсигурността не се изчерпва само с антивирусен софтуер и защитни стени. Тя включва и информационна хигиена. На фона на новия Закон за киберсигурност (NIS2), който налага по-високи стандарти за бизнеса, ние като потребители също трябва да повишим собствените си стандарти.
Основните изводи за вашата безопасност:
- 100% верификация: Всяка важна информация от AI трябва да бъде проверена чрез независими и достоверни източници.
- AI е инструмент, а не авторитет: Използвайте го за оптимизация на задачи, но не му прехвърляйте отговорността за вземане на жизненоважни решения.
- Отговорност на родителите: Децата използват AI за всичко – от домашни до забавление. Наша задача е да им обясним, че зад „умните“ отговори стои алгоритъм, а не абсолютна истина.
Бъдещето е на информираните
Изкуственият интелект е инструмент с невероятен потенциал – той може да лекува болести, да пише код и да решава сложни логистични задачи. Но неговата мощ изисква изключителна отговорност и критично мислене.
„Ние като потребители сме длъжни да подлагаме на съмнение всичко, което чат-ботовете ни казват“, завършва Кирил Григоров. В CyberOne вярваме, че най-сигурната система е тази, която се управлява от буден и информиран човек.
📺 Можете да гледате цялото интервю с Кирил Григоров тук: