Військові ігри з штучним інтелектом

·CincoDias
Військові ігри з штучним інтелектом

Уряд США припинив контракти з компанією Anthropic через відмову звільнити всі функціональності її інструменту штучного інтелекту. Це викликає дискусію про етичні межі використання штучного інтелекту у військових цілях.

Що сталося

Уряд США припинив контракти з компанією Anthropic, однією з лідерів у сфері штучного інтелекту, через відмову звільнити всі функціональності її інструменту штучного інтелекту. Президент США Дональд Трамп мотивував це рішення тим, що засновник компанії Даріо Амодей відмовився звільнити всі функціональності інструменту штучного інтелекту, який використовується у військових цілях.

Подробиці

Компанія Anthropic розробила інструмент штучного інтелекту під назвою Claude, який використовується у військових операціях США. Claude є частиною системи інтелекту Maven, яка аналізує дані з численних джерел для надання допомоги військовим у прийнятті рішень. Уряд США використовував Claude під час операцій з захоплення президента Венесуели Ніколаса Мадуро та його дружини в Каракасі, а також під час атаки на Іран.

Подробиці

Даріо Амодей встановив дві червоні лінії, яких він не хоче перетинати: використання інструменту штучного інтелекту для масового шпигунства над громадянами та управління автономними зброєю без участі людини. Ця позиція викликала дискусію про етичні межі використання штучного інтелекту у військових цілях.

Що це означає

Припинення контрактів з компанією Anthropic має велике значення для населення США, оскільки піднімає питання про етичні межі використання штучного інтелекту у військових цілях. Це рішення може мати далекосяжні наслідки для розвитку технологій та використання штучного інтелекту у різних сферах діяльності. Населенню США потрібно бути обізнаним про ці питання та слідкувати за розвитком ситуації.