Штучний інтелект може створити біологічну зброю? Сенатори США занепокоєні

Штучний інтелект може створити біологічну зброю? Сенатори США занепокоєні
Сенатори США стурбовані зловмисним потенціалом штучного інтелекту
фото з відкритих джерел

Сенатори-демократи та республіканці висловили занепокоєння щодо можливого використання штучного інтелекту для створення біологічної зброї

Американські сенатори стурбовані зловмисним потенціалом штучного інтелекту (ШІ). Вони викличуть на слухання розробників, керівників і експертів щодо можливих законодавчих гарантій. Про це повідомляє Reuters.

Цього тижня сенатори-демократи та республіканці висловили занепокоєння щодо можливого використання штучного інтелекту для створення біологічної зброї. Лідер більшості в Сенаті Чак Шумер заявив, що скличе перші в історії форуми щодо вивчення штучного інтелекту.

«Існує реальний двопартійний інтерес до ШІ, який необхідний, щоб досягти прогресу в тому, що справді є імперативом для країни – в розробці законодавства в галузі ШІ, яке заохочує інновації, але має гарантії для запобігання зобов’язань, які може спричинити штучний інтелект», – зазначив Шумер.

Варто зазначити, що законодавці в усьому світі почали думати про те, як регулювати ШІ та запобігти потенційним загрозам після того, як генеративний штучний інтелект, який використовує дані для створення нового контенту, такого як ChatGPT, потрапив у заголовки газет.

Генеральний директор компанії OpenAI, яка створила ChatGPT, закликав Конгрес Сполучених Штатів регулювати штучний інтелект. Відомо, що Сенатори США проводять секретні брифінги щодо цього питання.

Також, Європейський Союз готує історичний закон, який регулюватиме використання ШІ.

Нагадаємо, компанії-розробники штучного інтелекту, зокрема OpenAI, Microsoft, Amazon, Alphabet (Google) і Meta добровільно зобов’язалися перед Білим домом позначати свій контент водяними знаками. Цей крок покликаний зробити технологію безпечнішою.

До слова, в Австралії вченим вдалося створити електронний чип із клітинами людського мозку.

Коментарі — 0

Авторизуйтесь , щоб додавати коментарі
Іде завантаження...
Показати більше коментарів
Дата публікації новини: