Стаття

Майбутнє штучного інтелекту

в управлінні обліковими записами та доступом

У мінливому ландшафті кібербезпеки управління обліковими даними та доступом (IAM) є критично важливим елементом, що захищає дані організації та доступ до них у різних корпоративних системах і платформах. ШІ змінює не лише те, як ми керуємо цифровими обліковими записами та контролем доступу, але й те, як ми балансуємо між продуктивністю та безпекою.
Команда CyberArk AI CoE, центру досліджень CyberArk сфері штучного інтелекту, який було запущено минулого року, присвятила себе вивченню потреб клієнтів і галузі. Паралельно з проведенням інтерв'ю, аналізом ринкових тенденцій та прогнозуванням, вони почали працювати над кількома невідкладними ініціативами у сфері штучного інтелекту. Зараз в роботі CyberArk AI CoE ще більше ініціатив у сфері ШІ, багато інших перебувають на стадії планування.
На щорічній конференції CyberArk IMPACT вже було попередньо продемонстровано CyberArk CORA™ AI* — першу хвилю можливостей на основі штучного інтелекту, яку буде вбудовано в Identity Security Platform, реліз заплановано на 2024 рік. У цій статті ви дізнаєтесь про поточну роботу CyberArk в напрямку штучного інтелекту. Важливо, що озвучені в статті прогнози не є роадмепами продуктів CyberArk.

Штучний інтелект і баланс між безпекою та продуктивністю

Розробляючи можливості на основі штучного інтелекту для систем IAM, часто доводиться вибирати між підвищенням продуктивності користувачів і посиленням заходів безпеки. Деякі функції штучного інтелекту спрощують роботу користувачів і підвищують ефективність, тоді як інші спрямовані на посилення безпеки.

З розмов із клієнтами зрозуміло, що вони вбачають у функціях на основі штучного інтелекту насамперед підвищення продуктивності. Ці функції допомагають їм працювати ефективніше і зменшують час навчання. Деякі функції на основі штучного інтелекту, як-от чат-боти, зосереджені на продуктивності, тоді як інші, як-от механізми рекомендацій щодо політик, поєднують продуктивність з безпекою. Ці функції можуть оптимізувати роботу користувачів і надавати колективні або евристичні знання, допомагаючи їм ухвалювати кращі рішення і підвищувати безпеку.

Інші можливості, такі як виявлення та сповіщення про підозрілі дії, ще більше схиляються на бік безпеки. Але навіть у цьому випадку є аргумент, що ці можливості також підвищують продуктивність та ефективність роботи користувачів.

Три стовпи штучного інтелекту в IAM і що чекає на нас на горизонті

Illustration

Як показано на ілюстрації вище, для цієї статті ми розділили ШІ в IAM на три основні напрямки, кожен з яких поєднує підвищення продуктивності з покращенням безпеки. Хоча захист GenAI є захопливою темою, вона має лише дотичний стосунок до IAM, тому це не тема для цієї статті. Зазираючи в майбутнє, ми можемо очікувати на появу широкого спектру технологій в кожній категорії — від близьких і досяжних до більш віддалених і складних.

Далі трохи субʼєктивної аналітики та ворожіння на кавовій гущі про те, що станеться з ШІ в IAM протягом наступних кількох років.

1) Чат-боти та асистенти зі штучним інтелектом

Уявіть собі світ, де розумні асистенти зі штучним інтелектом керують кожною взаємодією з вашою IAM-системою. Пошук інформаційних відповідей, контекстно-залежні рекомендації і навіть конфігурація системи або її налагодження надаються миттєво і точно. Чат-боти та асистенти в IAM, керовані штучним інтелектом, незабаром зможуть надавати не лише текстові відповіді на запитання, а й створювати контекстно-залежні рекомендації, що інтегруються зі сторонніми системами.

Ці функції штучного інтелекту створені для розуміння індивідуальних потреб користувачів та унікальних обставин різних клієнтів, що робить операції більш інтуїтивно зрозумілими, ефективними та адаптованими до конкретної ситуації. Відповідаючи на запити, пропонуючи наступні кроки або виконуючи команди від імені користувача, асистенти зі штучним інтелектом стануть незамінними в інструментарії IAM.

Ось що, ймовірно, з'явиться в найближчі кілька років у цій галузі ШІ в IAM:

Очікуваний реліз: 2024
● Документаційні чат-боти продовжуватимуть розвиватися і вдосконалюватимуть свою здатність відповідати на типові запитання на основі документів, баз знань та інших джерел інформації.
● Чат-боти-помічники розумітимуть природну мову користувача і виконуватимуть за нього команди, але на набагато глибшому і складнішому рівні, ніж ті, що ми бачили досі. Наприклад, деякі запити користувача можуть передбачати виконання ланцюжка викликів API, що вимагає правильного розуміння необхідних параметрів для кожного наступного виклику і того, як надати відповідь користувачеві. Ці помічники будуть простими на початку, але з часом вони будуть додавати все більше і більше можливостей і підтримувати все більш складні варіанти використання.

Очікуваний реліз: 2025–2026
● Контекстно-орієнтовані чат-боти та асистенти будуть краще обізнаними з індивідуальними обставинами користувача, ніж їхні попередники зі штучним інтелектом. Замість того, щоб надавати однакові відповіді різним користувачам, ці чат-боти нового покоління будуть "знати" більше про вас і відповідно адаптувати свої відповіді. Наприклад, вони зможуть визначити, чи користувач є новачком у системі, які операції він зазвичай виконує і на які послуги підписаний. Крім того, ці помічники враховуватимуть ширший контекст, наприклад, прогрес у входженні в систему або заповненні списку справ.

Очікуваний реліз: 2027–2030
Автоматичне виявлення проблем і кероване їх усунення дозволить чат-ботам і асистентам зі штучним інтелектом стати більш проактивними, пропонуючи дії і наступні кроки. Незалежно від того, чи це наступний пункт у вашому списку справ, чи усунення помилки на екрані, ці асистенти все частіше пропонуватимуть розвʼязання проблем і завдань, просячи лише вашого підтвердження.

2) Політика доступу

Інтеграція технологій штучного інтелекту може суттєво змінити визначення політики доступу. Алгоритми генеруватимуть динамічні політики доступу з найменшими привілеями, гарантуючи, що користувачі матимуть лише доступ, необхідний для виконання своїх ролей. Ці політики будуть засновані на природній мові та намірах, а не на технічній мові, яка зараз представляє ці наміри.

Цей зсув означає, що адміністратори IAM перейдуть від практичних операторів до стратегічних керівників, які встановлюватимуть керівні принципи високого рівня, прийматимуть або оновлюватимуть запропоновані політики та оброблятимуть аномалії.

Ця зміна має прискорити виконання завдань і зменшити обсяг технічних знань, необхідних для менеджерів політик в організаціях. Однак виникає цікаве питання: чи буде ця ефективність досягнута за рахунок точності (наприклад, ви звикнете беззаперечно приймати пропозиції), чи це підвищить безпеку? Тенденція вказує на останнє, враховуючи, що простіші політики, створені штучним інтелектом, менш схильні до людських помилок і неправильної конфігурації.

Ось на що слід звернути увагу в найближчі кілька років:

Очікуваний реліз: 2024
● Рекомендації політик, засновані на найкращих практиках або колективних знаннях інших клієнтів. Ви можете очікувати, що незабаром побачите багато таких рекомендацій.

Очікуваний реліз: 2025–2026
● Намір як політика — одна з найбільш очікуваних і революційних обіцянок ШІ для світу IAM (та інших суміжних галузей, які працюють з політиками множинного доступу). Ми побачимо, як природна мова буде використовуватися для визначення нових і пояснення наявних політик. Намір стане політикою. Наприклад, правило політики доступу може виглядати так: "Надати Джону доступ рівня SRE до виробничого облікового запису AWS його команди на найближчі дві години". Або: "Не дозволяйте користувачам, які не є адміністраторами, бачити в додатку CRM поля, пов'язані з платежами".

Очікуваний реліз: 2027–2030
● Автоматичне створення політик є логічним наступним кроком після рекомендації політики. Такі політики можуть покладатися на історію або евристику для їх створення.

3) Доступ на основі оцінки ризиків

Третій компонент фокусується на самій природі доступу. Оскільки ШІ робить доступ до систем більш персоналізованим і контекстуалізованим, сам доступ стає більш динамічним і прозорим. Це означає меншу кількість повторних входів і запитів багатофакторної автентифікації (MFA) під час звичайних операцій, що призводить до більш плавних робочих процесів і меншого розчарування користувачів.

Ось що, за прогнозами експерта CyberArk, ми побачимо в цій сфері в найближчому і не дуже майбутньому:

Очікуваний реліз: 2024
● Звіти діяльності та інформація про безпеку генеруватимуться на основі взаємодії користувача з системами, які створюють цифровий слід (наприклад, відеозапис, журнал або аудиторський звіт). Генеративний ШІ (GenAI) розшифровуватиме і узагальнюватиме цей слід у вигляді тексту, придатного для читання людиною. Крім того, GenAI попередить вас, якщо ви виконаєте ризиковану операцію під час сеансу.

Очікуваний реліз: 2025–2026
● Поведінкове профілювання і виявлення загроз працюватимуть разом для створення і постійного оновлення профілів ризиків для робочих навантажень і користувачів. Ці профілі будуть ґрунтуватися на їхній активності в системах, що дозволить створювати специфічні профілі для кожного робочого навантаження і користувача. В результаті можна буде досягти більш детального і точного управління рівнями ризиків і виявлення загроз.

Очікуваний реліз: 2027–2030
● Автоматизоване запобігання загрозам стане наступним природним кроком після появи механізмів виявлення загроз. Це, ймовірно, буде мати різні форми, такі як зупинка підозрілого сеансу, призупинення або вимога додаткових заходів для входу в систему для сумнівного користувача. ● Автоматичне створення (розширення) політик: Завдяки можливості підтримувати профілі користувачів, системи будуть використовувати ці дані для створення специфічної для користувача та контексту поведінки, що приведе до більш персоналізованої та динамічної політики доступу.

Вплив штучного інтелекту на IAM: погляд у майбутнє

Інтеграція штучного інтелекту в IAM — це безперервний шлях до створення більш безпечних, ефективних і зручних для користувача систем. Заглядаючи в майбутнє, ми зосередимося на тому, як штучний інтелект може безперешкодно інтегруватися в основні сфери IAM, щоб забезпечити підвищення безпеки та продуктивності.

Місія CyberArk AI CoE — впроваджувати найсучасніші технологічні інновації в наші продукти і створювати цінність для наших клієнтів, відповідаючи на виклики сьогодення і захищаючи майбутнє від завтрашніх кіберзагроз. Центр прагне безперешкодно інтегрувати штучний інтелект в основні сфери IAM, підвищуючи безпеку та продуктивність. Команда вірить, що завдяки підтримці партнерів та клієнтів, разом їм вдасться досягнути більш безпечного майбутнього.