Как ИИ может укрепить или разрушить вашу безопасность — бизнес-эксперт AMD о рисках и преимуществах ИИ в сфере безопасности и управления

Как ИИ может укрепить или разрушить вашу безопасность — бизнес-эксперт AMD о рисках и преимуществах ИИ в сфере безопасности и управления

В е существует интерес и страх перед искусственным интеллектом. Лица, принимающие решения в сфере ИТ (ITDM), считают, что ИИ имеет основополагающее значение для обеспечения и и управления, но также видят в нем угрозу этим же политикам.

Так как же ИТ-руководители могут планировать свой путь к искусственному интеллекту и обеспечивать безопасность своей экосистемы, а также защищаться от постоянно расширяющегося ландшафта угроз?

Мэтью Унангст, старший директор по коммерческому клиенту и рабочей станции AMD, понимает трепет ИТ-специалистов в индустрии безопасности, и мы поговорили с ним, чтобы глубже разобраться в этих проблемах и найти возможные решения.

Двойственность безопасности

Недавний опрос AMD показал, что 75% ITDM в Великобритании считают, что ИИ теперь является неотъемлемым инструментом, когда дело доходит до администрирования политик безопасности и управления, но 70% также считают ИИ угрозой.

Человеческий фактор остается одной из самых больших угроз кибербезопасности — от фишинга до недовольства сотрудников. Но это также является важным фактором, способствующим нарушениям корпоративного управления: сотрудники часто вводят конфиденциальную информацию при использовании инструментов искусственного интеллекта, таких как ChatGPT. В результате специалисты по безопасности сталкиваются с растущим числом внутренних и внешних угроз.

ИТ-специалисты по-прежнему с оптимизмом смотрят на искусственный интеллект. «В основном сейчас это происходит в форме улучшения совместной работы или, возможно, повышения производительности труда сотрудников», — говорит нам Унангст.

«Но еще одним результатом этих опросов стало сильное желание этих ИТ-специалистов и дальше совершенствовать инфраструктуру искусственного интеллекта и инвестировать в нее. Я думаю, что преимущества, которые мы видим сегодня, хороши, но они являются отправной точкой.

«И по мере того, как эти решения искусственного интеллекта будут развиваться и становиться все более мощными в течение следующих нескольких лет, я ожидаю, что мы увидим значительные выгоды и преимущества в плане производительности сотрудников, получения более качественных данных для принятия решений, что поможет нам улучшить бизнес». процессов и повышения эффективности нашей деятельности, а также многое другое».

Риск против вознаграждения

Одна из трудностей, с которыми сегодня сталкиваются специалисты по безопасности, заключается в обосновании рентабельности инвестиций, когда речь идет об искусственном интеллекте, особенно когда речь идет о человеческом факторе. Если вы хотите развернуть решение искусственного интеллекта, вам также необходимо пройти значительное обучение тому, как его использовать, управлению его использованием и тому, полностью ли использование каждой организации соответствует национальным и международным нормам.

По словам Унангста: «Они должны сочетать это с правильным обучением и необходимыми знаниями своих сотрудников, чтобы они знали, как идентифицировать вещи, которые выглядят неправильно, как выявлять потенциальные галлюцинации или неточности данных, как использовать информацию, поступающую с помощью этих инструментов, правильно, а не просто слепо брать эту информацию и двигаться вперед с ней.

«Я думаю, что здесь существует широкий спектр ов: от чего-то неточного, что просто копируется, вставляется и используется, и это может быть публикация или какая-то внутренняя записка, или, вы знаете, неправильные предположения о данных, которые могут привести к плохим результатам. решения. Поэтому я, конечно, ожидаю, что отрасль и возможности этих инструментов и моделей будут продолжать развиваться и совершенствоваться.

«Когда мы думаем о решениях безопасности на основе искусственного интеллекта, это всего лишь еще один уровень, который интегрируется в более широкое решение безопасности. Итак, я думаю, что это относительно новая область, но когда мы думаем о некоторых агентах и ​​приложениях безопасности, которые обычно запускаются на ПК и устройствах, они, безусловно, имеют возможности либо для повышения эффективности, либо для более эффективной работы, используя некоторые возможности ИИ.

«А затем мы думаем о более интеллектуальных компьютерах, которые могут выявлять вторжения или обнаруживать любые виды вредоносной активности или что-то в этом роде. Сегодня разрабатываются и исследуются модели, в которых некоторые из этих моделей могут работать на встроенном в устройство механизме вывода искусственного интеллекта и очень эффективно выявлять некоторые из этих атак, а затем переводить систему в правильное состояние для борьбы с ними.

«Итак, я бы сказал, что эта область находится на начальных этапах разработки, но, безусловно, область, которая, как мы ожидаем, станет большей частью более широкого решения безопасности в ближайшие годы».

Исполнительные коммуникации

Чтобы увеличить свои бюджеты, ИТ-специалисты должны иметь возможность сообщать о рисках, с которыми они сталкиваются, на руководящем уровне. Однако, поскольку безопасность — это область, которая вращается вокруг предотвращения потерь, а не получения прибыли, многие команды безопасности сталкиваются с трудностями с точки зрения навыков и кадров и вынуждены делать больше с меньшими затратами. Так как же они могут оправдать инвестиции в решения искусственного интеллекта?

«Очевидно, что когда мы думаем о том, как директора по информационной безопасности будут сообщать об этом и как они будут думать об этом в более широком смысле, крайне важно сбалансировать обсуждение возможностей с рисками и необходимостью сохранять сильный акцент на безопасности. .

«Вы должны убедиться, что демонстрируете ценность, которую эти инструменты и возможности приносят, и то, как они помогут предприятиям стать более продуктивными или улучшить операции. ИИ сейчас представляет собой огромное пространство, и поэтому я думаю, что ключевым моментом с точки зрения этих коммуникаций и того, как вы их формулируете, является то, чтобы вы больше говорили о конкретных экземплярах, которые вы развертываете, о ценности, которую они приносят, и как вы собираетесь управлять рисками, безопасностью или любыми другими бизнес-соображениями, связанными с этим конкретным развертыванием».

Нахождение баланса

После бурного роста возможностей искусственного интеллекта, который мы наблюдали в последние несколько лет, неудивительно, что международное регулирование отстает и изо всех сил пытается идти в ногу с появляющимися инновациями. Некоторые успехи были достигнуты благодаря международным обязательствам и британскому саммиту по безопасности искусственного интеллекта, но разработчики обеспокоены тем, что это может задушить инновации.

«Здесь обязательно должен быть баланс, верно? С точки зрения AMD, мы стремимся ответственно выполнять нашу дорожную карту в области искусственного интеллекта и наш портфель продуктов. Мы присоединились к ряду организаций в отрасли, которые стремятся сделать так, чтобы мы все вместе делали это.

«Вы должны убедиться, что эти решения безопасны. Вы должны убедиться, что они следуют строгим моральным и этическим принципам. Поэтому я считаю, что здесь существует правильный баланс. Дискуссия, которую нам, как отрасли, необходимо провести коллективно, заключается в том, как продвигать инновации в этой области, но при этом следить за тем, чтобы мы не пересекали границы, пока у нас не будет правильных ограждений и контрольно-пропускных пунктов?

«И я не думаю, что какая-либо компания или организация сможет сделать это самостоятельно. Это должно быть партнерство в рамках более широкой экосистемы».

Больше от TechRadar Pro