Повідомлення telegram каналу - @ai_dvizh

Логотип телеграм спільноти - ШІ Двіж 2024-07-14

ШІ Двіж

Кількість підписників:
4711
Фото:
351 
Відео:
32 
Посилання:
1560 
Категорія:
Технології
Опис:
Все важливе про 🤖штучний інтелект, нейромережі, робототехніку на одному каналі. Про майбутнє, яке вже настало. Співпраця тільки через @DvizhPromoBot (переходіть лише через клік)

Канал ШІ Двіж - @ai_dvizh - №1651

OpenAI надасть уряду США ранній доступ до своєї наступної моделі штучного інтелекту
OpenAI надасть Інституту безпеки штучного інтелекту США ранній доступ до своєї наступної моделі в рамках зусиль з безпеки. Судячи з усього, компанія співпрацює з консорціумом з метою просування науки про оцінку ШІ. Про це повідомляє Channel Tech.
Національний інститут стандартів і технологій (NIST) офіційно створив Інститут безпеки штучного інтелекту на початку цього року, хоча віцепрезидент Камала Гарріс оголосила про це ще у 2023 році на британському саміті з безпеки ШІ.
Згідно з описом консорціуму, наданим NIST, його мета – розробка науково обґрунтованих та емпірично підтверджених керівних принципів і стандартів для вимірювання та політики у сфері ШІ, що закладе основу для безпеки ШІ в усьому світі.
Минулого року компанія разом з DeepMind також пообіцяла поділитися моделями ШІ з урядом Великої Британії. Як зазначається, зростала стурбованість тим, що OpenAI робить безпеку менш пріоритетним завданням, оскільки прагне розробити більш потужні моделі ШІ.
Були припущення, що рада директорів вирішила вигнати Сема Альтмана з компанії – його дуже швидко поновили – через проблеми з безпекою. Однак у внутрішній записці компанія повідомила співробітникам, що це сталося через розрив у комунікації.
У травні цього року OpenAI визнала, що розпустила команду Superalignment, яку вона створила, щоб гарантувати безпеку людства в міру того, як компанія просуває свою роботу над генеративним штучним інтелектом. Перед цим компанію покинув співзасновник і головний науковий співробітник OpenAI Ілля Суцкевер, який був одним з лідерів команди.
Також звільнився Ян Лейке, який також був одним з лідерів команди. У серії твітів він заявив, що вже давно не погоджується з керівництвом OpenAI щодо основних пріоритетів компанії, і що культура і процеси безпеки відійшли на другий план перед блискучими продуктами.
Нагадаємо, наприкінці травня OpenAI створила нову групу з безпеки, але її очолили члени правління, серед яких був і Альтман, що викликає побоювання щодо самоконтролю.
684
24-08-01 14:15