Статистика telegram каналу - @ai_dvizh
2024-07-14
ШІ Двіж
Кількість підписників:
4711
Фото:
351
Відео:
32
Посилання:
1560
Категорія:
Технології
Опис:
Все важливе про 🤖штучний інтелект, нейромережі, робототехніку на одному каналі. Про майбутнє, яке вже настало. Співпраця тільки через @DvizhPromoBot (переходіть лише через клік)
Кількість підписників
Середній перегляд на повідомлення
Історія змін лого
Поки що змін не зафіксовано
Історія змін назви
Поки що змін не зафіксовано
Історія зміни типу аккаунта
Поки що змін не зафіксовано
Історія зміни статуса
Офіційно не підтверджена
2024-07-14
Стіна канала ШІ Двіж - @ai_dvizh
Хайп, ще трішки хайпу, і потім ще хайпанути — це один із принципів новин про IT-індустрію 😨 Але не для ProIT. Тут розповідають лише про важливе. Лише про те, що дійсно хвилює, турбує та бентежить українських айтівців.
Докази? Скільки завгодно! Ось лише кілька тем, про які писали у ProIT за останній час:
👨💻 як проходить бронювання від мобілізації для айтівців;
💸 чи реально знайти інвестиції в стартап під час війни;
🤬 хто стоїть за атаками на українські IT-мережі;
📢 чому в Україні говорять про заборону Telegram.
Позбався зайвого хайпу зі своєї стрічки IT-новин 🧐 Читай про те, що має значення — на каналі ProIT!
540
24-08-08 15:15
MBDA вбудують у крилаті ракети Spear штучний інтелект
Провідна європейська компанія MBDA, яка займається розробкою зброї, встановить інструмент AI Orchestrike, який розробила власноруч, у сімейство ракет Spear. Це буде вперше, коли ударні ракети отримають ШІ, повідомляє Speka.
Таке рішення дозволить наділити бортову систему крилатих ракет здатністю атакувати, зокрема збільшити живучість, швидкість та летальність завдяки здатності обмінюватися інформацією. AI Orchestrike дозволить пілоту ракети-носія та самій випущеній ракеті краще взаємодіяти.
Ракети Spear використовуються здебільшого для ураження систем ППО противника і атакують з літаків. Розробники займалися вдосконаленням системи протягом останнього року, зокрема за рахунок моделювання та різних експериментів.
Ракети Spear будуть використовуватися на бойових літаках F-35. Вони можуть з'явитися на озброєнні вже у найближчі роки.
Провідна європейська компанія MBDA, яка займається розробкою зброї, встановить інструмент AI Orchestrike, який розробила власноруч, у сімейство ракет Spear. Це буде вперше, коли ударні ракети отримають ШІ, повідомляє Speka.
Таке рішення дозволить наділити бортову систему крилатих ракет здатністю атакувати, зокрема збільшити живучість, швидкість та летальність завдяки здатності обмінюватися інформацією. AI Orchestrike дозволить пілоту ракети-носія та самій випущеній ракеті краще взаємодіяти.
Ракети Spear використовуються здебільшого для ураження систем ППО противника і атакують з літаків. Розробники займалися вдосконаленням системи протягом останнього року, зокрема за рахунок моделювання та різних експериментів.
Ракети Spear будуть використовуватися на бойових літаках F-35. Вони можуть з'явитися на озброєнні вже у найближчі роки.
556
24-08-07 13:15
Apple інтегрує ChatGPT у свої операційні системи до кінця року
Apple готується до масштабного оновлення своїх операційних систем, включаючи інтеграцію ChatGPT до iOS 18, iPadOS 18 та macOS Sequoia. Генеральний директор Apple Тім Кук підтвердив ці плани під час звітного дзвінка з аналітиками, заявивши, що нова функція буде доступна користувачам до кінця календарного року. Про це пише Channel Tech.
Під час WWDC у червні Apple оголосила про намір інтегрувати ChatGPT у свої пристрої пізніше цього року. За словами Тіма Кука, цей графік залишається актуальним і на початок серпня.
З дозволу користувача, Siri зможе показувати відповіді від ChatGPT у відповідь на запити та інші підказки. Крім того, ChatGPT буде доступний як опція для функції Writing Tools, дозволяючи користувачам генерувати текст та зображення. Apple заявила, що ChatGPT працюватиме на основі останньої моделі GPT-4o від OpenAI.
Користувачі iPhone, iPad та Mac зможуть використовувати ChatGPT безплатно, без необхідності створювати обліковий запис. Абоненти ChatGPT Plus зможуть підключати свої облікові записи для доступу до платних функцій на цих пристроях. Apple також наголосила, що OpenAI не зберігатиме запити, зроблені з її пристроїв, і IP-адреси користувачів будуть приховані.
Функції Apple Intelligence вже почали розгортатися для розробників для тестування в бета-версії iOS 18.1, хоча інтеграція ChatGPT поки недоступна.
Функції Apple Intelligence вимагатимуть iPhone 15 Pro або iPhone 15 Pro Max, або Mac чи iPad, оснащені чипом M1 або новішим. Мова пристрою повинна бути встановлена на англійську (США), з підтримкою додаткових мов, яка буде додана протягом наступного року.
Очікується, що повний набір функцій Apple Intelligence стане доступним до моменту випуску iOS 18.4 для публіки, орієнтовно у березні 2025 року.
Apple готується до масштабного оновлення своїх операційних систем, включаючи інтеграцію ChatGPT до iOS 18, iPadOS 18 та macOS Sequoia. Генеральний директор Apple Тім Кук підтвердив ці плани під час звітного дзвінка з аналітиками, заявивши, що нова функція буде доступна користувачам до кінця календарного року. Про це пише Channel Tech.
Під час WWDC у червні Apple оголосила про намір інтегрувати ChatGPT у свої пристрої пізніше цього року. За словами Тіма Кука, цей графік залишається актуальним і на початок серпня.
З дозволу користувача, Siri зможе показувати відповіді від ChatGPT у відповідь на запити та інші підказки. Крім того, ChatGPT буде доступний як опція для функції Writing Tools, дозволяючи користувачам генерувати текст та зображення. Apple заявила, що ChatGPT працюватиме на основі останньої моделі GPT-4o від OpenAI.
Користувачі iPhone, iPad та Mac зможуть використовувати ChatGPT безплатно, без необхідності створювати обліковий запис. Абоненти ChatGPT Plus зможуть підключати свої облікові записи для доступу до платних функцій на цих пристроях. Apple також наголосила, що OpenAI не зберігатиме запити, зроблені з її пристроїв, і IP-адреси користувачів будуть приховані.
Функції Apple Intelligence вже почали розгортатися для розробників для тестування в бета-версії iOS 18.1, хоча інтеграція ChatGPT поки недоступна.
Функції Apple Intelligence вимагатимуть iPhone 15 Pro або iPhone 15 Pro Max, або Mac чи iPad, оснащені чипом M1 або новішим. Мова пристрою повинна бути встановлена на англійську (США), з підтримкою додаткових мов, яка буде додана протягом наступного року.
Очікується, що повний набір функцій Apple Intelligence стане доступним до моменту випуску iOS 18.4 для публіки, орієнтовно у березні 2025 року.
711
24-08-05 07:15
Закон ЄС про штучний інтелект набув чинності
Європейський Союз офіційно запровадив регулювання застосувань штучного інтелекту на основі ризиків з 1 серпня 2024 року. Основні положення набудуть чинності до середини 2026 року, але перший дедлайн стосується заборони на певні застосування ШІ, як-от використання біометричних даних правоохоронцями у громадських місцях, і настане за шість місяців. Про це повідомляє TechCrunch.
Більшість застосувань ШІ вважаються низькоризиковими або безризиковими, але деякі високоризикові застосування, такі як біометрія, медичне програмне забезпечення та ШІ в освіті та праці, потребуватимуть оцінки відповідності та можуть підлягати регуляторному аудиту. Високоризикові системи, що використовуються державними установами, мають бути зареєстровані у базі даних ЄС.
ШІ середнього ризику, як чат-боти або інструменти для створення дипфейків, повинні відповідати вимогам прозорості. Штрафи за порушення регулювання варіюються від 1,5% до 7% від глобального річного обороту.
Розробники загальних призначень ШІ (GPAIs) матимуть легкі вимоги щодо прозорості, але повинні надавати резюме навчальних даних і забезпечувати політику дотримання авторських прав. Найпотужніші моделі GPAI повинні оцінювати ризики й вживати заходи щодо їх пом’якшення.
Національні органи держав-членів виконуватимуть загальні правила, тоді як правила для GPAI контролюватимуться на рівні ЄС. AI Office розпочав консультації щодо розробки правил, очікуючи завершення Кодексів у квітні 2025 року.
OpenAI порадив організаціям класифікувати системи ШІ, визначити GPAI, їх класифікацію та зобов’язання, і проконсультуватися з юристами у випадку питань.
Європейські стандарти для високоризикових систем ШІ ще розробляються, а завершення цієї роботи очікується у квітні 2025 року, після чого стандарти мають бути затверджені ЄС.
Європейський Союз офіційно запровадив регулювання застосувань штучного інтелекту на основі ризиків з 1 серпня 2024 року. Основні положення набудуть чинності до середини 2026 року, але перший дедлайн стосується заборони на певні застосування ШІ, як-от використання біометричних даних правоохоронцями у громадських місцях, і настане за шість місяців. Про це повідомляє TechCrunch.
Більшість застосувань ШІ вважаються низькоризиковими або безризиковими, але деякі високоризикові застосування, такі як біометрія, медичне програмне забезпечення та ШІ в освіті та праці, потребуватимуть оцінки відповідності та можуть підлягати регуляторному аудиту. Високоризикові системи, що використовуються державними установами, мають бути зареєстровані у базі даних ЄС.
ШІ середнього ризику, як чат-боти або інструменти для створення дипфейків, повинні відповідати вимогам прозорості. Штрафи за порушення регулювання варіюються від 1,5% до 7% від глобального річного обороту.
Розробники загальних призначень ШІ (GPAIs) матимуть легкі вимоги щодо прозорості, але повинні надавати резюме навчальних даних і забезпечувати політику дотримання авторських прав. Найпотужніші моделі GPAI повинні оцінювати ризики й вживати заходи щодо їх пом’якшення.
Національні органи держав-членів виконуватимуть загальні правила, тоді як правила для GPAI контролюватимуться на рівні ЄС. AI Office розпочав консультації щодо розробки правил, очікуючи завершення Кодексів у квітні 2025 року.
OpenAI порадив організаціям класифікувати системи ШІ, визначити GPAI, їх класифікацію та зобов’язання, і проконсультуватися з юристами у випадку питань.
Європейські стандарти для високоризикових систем ШІ ще розробляються, а завершення цієї роботи очікується у квітні 2025 року, після чого стандарти мають бути затверджені ЄС.
795
24-08-02 07:15
OpenAI надасть уряду США ранній доступ до своєї наступної моделі штучного інтелекту
OpenAI надасть Інституту безпеки штучного інтелекту США ранній доступ до своєї наступної моделі в рамках зусиль з безпеки. Судячи з усього, компанія співпрацює з консорціумом з метою просування науки про оцінку ШІ. Про це повідомляє Channel Tech.
Національний інститут стандартів і технологій (NIST) офіційно створив Інститут безпеки штучного інтелекту на початку цього року, хоча віцепрезидент Камала Гарріс оголосила про це ще у 2023 році на британському саміті з безпеки ШІ.
Згідно з описом консорціуму, наданим NIST, його мета – розробка науково обґрунтованих та емпірично підтверджених керівних принципів і стандартів для вимірювання та політики у сфері ШІ, що закладе основу для безпеки ШІ в усьому світі.
Минулого року компанія разом з DeepMind також пообіцяла поділитися моделями ШІ з урядом Великої Британії. Як зазначається, зростала стурбованість тим, що OpenAI робить безпеку менш пріоритетним завданням, оскільки прагне розробити більш потужні моделі ШІ.
Були припущення, що рада директорів вирішила вигнати Сема Альтмана з компанії – його дуже швидко поновили – через проблеми з безпекою. Однак у внутрішній записці компанія повідомила співробітникам, що це сталося через розрив у комунікації.
У травні цього року OpenAI визнала, що розпустила команду Superalignment, яку вона створила, щоб гарантувати безпеку людства в міру того, як компанія просуває свою роботу над генеративним штучним інтелектом. Перед цим компанію покинув співзасновник і головний науковий співробітник OpenAI Ілля Суцкевер, який був одним з лідерів команди.
Також звільнився Ян Лейке, який також був одним з лідерів команди. У серії твітів він заявив, що вже давно не погоджується з керівництвом OpenAI щодо основних пріоритетів компанії, і що культура і процеси безпеки відійшли на другий план перед блискучими продуктами.
Нагадаємо, наприкінці травня OpenAI створила нову групу з безпеки, але її очолили члени правління, серед яких був і Альтман, що викликає побоювання щодо самоконтролю.
OpenAI надасть Інституту безпеки штучного інтелекту США ранній доступ до своєї наступної моделі в рамках зусиль з безпеки. Судячи з усього, компанія співпрацює з консорціумом з метою просування науки про оцінку ШІ. Про це повідомляє Channel Tech.
Національний інститут стандартів і технологій (NIST) офіційно створив Інститут безпеки штучного інтелекту на початку цього року, хоча віцепрезидент Камала Гарріс оголосила про це ще у 2023 році на британському саміті з безпеки ШІ.
Згідно з описом консорціуму, наданим NIST, його мета – розробка науково обґрунтованих та емпірично підтверджених керівних принципів і стандартів для вимірювання та політики у сфері ШІ, що закладе основу для безпеки ШІ в усьому світі.
Минулого року компанія разом з DeepMind також пообіцяла поділитися моделями ШІ з урядом Великої Британії. Як зазначається, зростала стурбованість тим, що OpenAI робить безпеку менш пріоритетним завданням, оскільки прагне розробити більш потужні моделі ШІ.
Були припущення, що рада директорів вирішила вигнати Сема Альтмана з компанії – його дуже швидко поновили – через проблеми з безпекою. Однак у внутрішній записці компанія повідомила співробітникам, що це сталося через розрив у комунікації.
У травні цього року OpenAI визнала, що розпустила команду Superalignment, яку вона створила, щоб гарантувати безпеку людства в міру того, як компанія просуває свою роботу над генеративним штучним інтелектом. Перед цим компанію покинув співзасновник і головний науковий співробітник OpenAI Ілля Суцкевер, який був одним з лідерів команди.
Також звільнився Ян Лейке, який також був одним з лідерів команди. У серії твітів він заявив, що вже давно не погоджується з керівництвом OpenAI щодо основних пріоритетів компанії, і що культура і процеси безпеки відійшли на другий план перед блискучими продуктами.
Нагадаємо, наприкінці травня OpenAI створила нову групу з безпеки, але її очолили члени правління, серед яких був і Альтман, що викликає побоювання щодо самоконтролю.
684
24-08-01 14:15
Canva додає платформу генеративного ШІ Leonardo.ai до своєї зростаючої творчої імперії
Canva оголосила про плани придбати Leonardo.ai, австралійський стартап з генеративного ШІ контенту та досліджень, у рамках своєї мети створити “першокласний набір візуальних ШІ-інструментів”. Хоча фінансові умови угоди не розкриваються, відомо, що Canva отримає доступ до лінійки інструментів Leonardo.ai для створення зображень та відео на основі тексту, які користувачі можуть налаштовувати. Про це пише The Verge.
У своєму оголошенні, співзасновник Canva Кемерон Адамс заявив, що Leonardo.ai продовжить розвивати свою вебплатформу як окремий продукт, подібно до Affinity, яку Canva придбала в березні. Технологія Leonardo.ai та модель Phoenix також будуть швидко інтегровані в існуючий набір продуктів Magic Studio від Canva, таких як Magic Media для генерації зображень та відео.
Canva активно працює над розширенням своєї платформи, додаючи більше інструментів, схожих на офісні додатки. Проте, платформа для візуального дизайну та комунікацій залишається одним з найбільших конкурентів продуктової лінійки Adobe. Якщо придбання Affinity допоможе Canva змагатися з такими продуктами Adobe, як Illustrator, Photoshop та InDesign, то Leonardo.ai може стати альтернативою моделям генеративного ШІ від Adobe, таким як Firefly.
Стартап Leonardo.ai повідомляв, що його моделі тренуються з використанням ліцензованих, синтетичних та публічно доступних/відкритих даних, що звучить менш конкретно порівняно з розкриттям інформації про тренування Firefly від Adobe. Попри це, Adobe зазнала критики через недавнє оновлення політики, яке змусило компанію чітко заявити, що дані користувачів не будуть використовуватися для тренування моделей генеративного ШІ.
Canva оголосила про плани придбати Leonardo.ai, австралійський стартап з генеративного ШІ контенту та досліджень, у рамках своєї мети створити “першокласний набір візуальних ШІ-інструментів”. Хоча фінансові умови угоди не розкриваються, відомо, що Canva отримає доступ до лінійки інструментів Leonardo.ai для створення зображень та відео на основі тексту, які користувачі можуть налаштовувати. Про це пише The Verge.
У своєму оголошенні, співзасновник Canva Кемерон Адамс заявив, що Leonardo.ai продовжить розвивати свою вебплатформу як окремий продукт, подібно до Affinity, яку Canva придбала в березні. Технологія Leonardo.ai та модель Phoenix також будуть швидко інтегровані в існуючий набір продуктів Magic Studio від Canva, таких як Magic Media для генерації зображень та відео.
Canva активно працює над розширенням своєї платформи, додаючи більше інструментів, схожих на офісні додатки. Проте, платформа для візуального дизайну та комунікацій залишається одним з найбільших конкурентів продуктової лінійки Adobe. Якщо придбання Affinity допоможе Canva змагатися з такими продуктами Adobe, як Illustrator, Photoshop та InDesign, то Leonardo.ai може стати альтернативою моделям генеративного ШІ від Adobe, таким як Firefly.
Стартап Leonardo.ai повідомляв, що його моделі тренуються з використанням ліцензованих, синтетичних та публічно доступних/відкритих даних, що звучить менш конкретно порівняно з розкриттям інформації про тренування Firefly від Adobe. Попри це, Adobe зазнала критики через недавнє оновлення політики, яке змусило компанію чітко заявити, що дані користувачів не будуть використовуватися для тренування моделей генеративного ШІ.
689
24-07-31 07:15
Вчені створили робота-собаку для прибирання пляжів
Італійські дослідники створили чотирилапого робота VERO, який здатен збирати сміття на пляжі. Його розробили на базі робота-собаки AlienGo від китайської компанії Unitree. Про це пише Vector.
Використовуючи камери та ШІ, робот виявляє недопалки на землі та автоматично всмоктує їх за допомогою вакуумних насадок на своїх кінцівках. Це дозволяє роботу продовжувати рух без зупинок, збираючи сміття, коли він проходить над ним.
Для досліджень вчені обрали дорогу версію робота за $50 000, але Unitree також пропонує доступніший варіант — Unitree Go 2, що коштує лише $1600.
Вчені планують вдосконалювати робота, зокрема, замінюючи вакуумні насадки на інші інструменти, такі як садові прилади або цвяхозабивні пістолети.
На відео можна побачити, що пристрій працює досить повільно, навіть коли всмоктує сміття всіма чотирма ногами. Тож про його практичне використання ще рано говорити.
Італійські дослідники створили чотирилапого робота VERO, який здатен збирати сміття на пляжі. Його розробили на базі робота-собаки AlienGo від китайської компанії Unitree. Про це пише Vector.
Використовуючи камери та ШІ, робот виявляє недопалки на землі та автоматично всмоктує їх за допомогою вакуумних насадок на своїх кінцівках. Це дозволяє роботу продовжувати рух без зупинок, збираючи сміття, коли він проходить над ним.
Для досліджень вчені обрали дорогу версію робота за $50 000, але Unitree також пропонує доступніший варіант — Unitree Go 2, що коштує лише $1600.
Вчені планують вдосконалювати робота, зокрема, замінюючи вакуумні насадки на інші інструменти, такі як садові прилади або цвяхозабивні пістолети.
На відео можна побачити, що пристрій працює досить повільно, навіть коли всмоктує сміття всіма чотирма ногами. Тож про його практичне використання ще рано говорити.
797
24-07-29 07:15
Stability AI представляє Stable Video 4D – систему, яка здатна генерувати відео під різними кутами
Британський стартап Stability AI презентує свою новітню модель штучного інтелекту — Stable Video 4D, яка здатна генерувати відео під різними кутами. Команда стартапу бачить широке застосування цієї технології у розробці ігор, відеомонтажі та віртуальній реальності. Про це пише Channel Tech.
Stable Video 4D вражає своєю здатністю швидко створювати короткі 3D-відео з зображень або інших відео. Модель генерує п’ять кадрів відео з восьми різних ракурсів, які попередньо задає користувач, усього за 40 секунд. Вся 4D оптимізація займає приблизно 20-25 хвилин.
Stable Video 4D має відкритий код. У Stability AI сподіваються, що компанії зможуть адаптувати цю модель відповідно до своїх унікальних потреб. Модель наразі перебуває на стадії дослідження, але вже доступна на платформі Hugging Face, де її постійно вдосконалюють.
У Stability AI бачать великий потенціал своєї моделі у розробці ігор — індустрії, яка не завжди охоче сприймає впровадження штучного інтелекту.
Британський стартап Stability AI презентує свою новітню модель штучного інтелекту — Stable Video 4D, яка здатна генерувати відео під різними кутами. Команда стартапу бачить широке застосування цієї технології у розробці ігор, відеомонтажі та віртуальній реальності. Про це пише Channel Tech.
Stable Video 4D вражає своєю здатністю швидко створювати короткі 3D-відео з зображень або інших відео. Модель генерує п’ять кадрів відео з восьми різних ракурсів, які попередньо задає користувач, усього за 40 секунд. Вся 4D оптимізація займає приблизно 20-25 хвилин.
Stable Video 4D має відкритий код. У Stability AI сподіваються, що компанії зможуть адаптувати цю модель відповідно до своїх унікальних потреб. Модель наразі перебуває на стадії дослідження, але вже доступна на платформі Hugging Face, де її постійно вдосконалюють.
У Stability AI бачать великий потенціал своєї моделі у розробці ігор — індустрії, яка не завжди охоче сприймає впровадження штучного інтелекту.
773
24-07-26 13:15
Meta випускає Llama 3.1 – нову модель свого ШІ
Meta оголосила про випуск Llama 3.1, нової версії великої мовної моделі, яка, за словами компанії, тепер може змагатися з конкурентами від OpenAI та Anthropic. Ця нова модель з’явилася лише через три місяці після запуску Llama 3, яку було інтегровано у Meta AI – чат-бота, що тепер присутній у Facebook, Messenger, Instagram та WhatsApp, а також забезпечує роботу розумних окулярів компанії. Про це повідомляє Engadget.
У той час, як OpenAI та Anthropic вже встигли випустити нові версії своїх ШІ-моделей, Meta не відстає. Нова Llama 3.1 405B стала першою відкритою доступною моделлю, яка може конкурувати з іншими в галузі загальних знань, математичних навичок та перекладу на кілька мов. Модель була навчена на більш ніж 16 000 NVIDIA H100 GPU, які наразі є найшвидшими доступними чіпами.
Llama 3.1 має 405 мільярдів параметрів – внутрішніх змінних, які ШІ використовує для обґрунтування та прийняття рішень. Чим більше параметрів має модель, тим “розумнішою” вона вважається. Для порівняння, модель GPT-4 від OpenAI має близько 1,5 трильйона параметрів, хоча компанія досі не розкрила точне число.
Розробники можуть завантажити Llama 3.1 з офіційного сайту, а звичайні користувачі можуть випробувати його через Meta AI у WhatsApp або на meta.ai.
На відміну від OpenAI, Google, Microsoft та Anthropic, які зберігають свої ШІ-моделі в таємниці, Meta відкриває їх для загального доступу. У своєму листі, опублікованому у вівторок, генеральний директор Meta Марк Цукерберг наголосив, що відкритий підхід до розробки ШІ забезпечить ширший доступ до технологій та попередить концентрацію влади серед кількох великих компаній.
Відкритий доступ до моделей ШІ та їх інтеграція у продукти, які вже використовують мільярди людей, може допомогти Meta ефективніше конкурувати з OpenAI, чиї чат-боти ChatGPT та DALL-E викликали вибух інтересу до ШІ, коли вони були запущені у 2022 році.
Meta оголосила про випуск Llama 3.1, нової версії великої мовної моделі, яка, за словами компанії, тепер може змагатися з конкурентами від OpenAI та Anthropic. Ця нова модель з’явилася лише через три місяці після запуску Llama 3, яку було інтегровано у Meta AI – чат-бота, що тепер присутній у Facebook, Messenger, Instagram та WhatsApp, а також забезпечує роботу розумних окулярів компанії. Про це повідомляє Engadget.
У той час, як OpenAI та Anthropic вже встигли випустити нові версії своїх ШІ-моделей, Meta не відстає. Нова Llama 3.1 405B стала першою відкритою доступною моделлю, яка може конкурувати з іншими в галузі загальних знань, математичних навичок та перекладу на кілька мов. Модель була навчена на більш ніж 16 000 NVIDIA H100 GPU, які наразі є найшвидшими доступними чіпами.
Llama 3.1 має 405 мільярдів параметрів – внутрішніх змінних, які ШІ використовує для обґрунтування та прийняття рішень. Чим більше параметрів має модель, тим “розумнішою” вона вважається. Для порівняння, модель GPT-4 від OpenAI має близько 1,5 трильйона параметрів, хоча компанія досі не розкрила точне число.
Розробники можуть завантажити Llama 3.1 з офіційного сайту, а звичайні користувачі можуть випробувати його через Meta AI у WhatsApp або на meta.ai.
На відміну від OpenAI, Google, Microsoft та Anthropic, які зберігають свої ШІ-моделі в таємниці, Meta відкриває їх для загального доступу. У своєму листі, опублікованому у вівторок, генеральний директор Meta Марк Цукерберг наголосив, що відкритий підхід до розробки ШІ забезпечить ширший доступ до технологій та попередить концентрацію влади серед кількох великих компаній.
Відкритий доступ до моделей ШІ та їх інтеграція у продукти, які вже використовують мільярди людей, може допомогти Meta ефективніше конкурувати з OpenAI, чиї чат-боти ChatGPT та DALL-E викликали вибух інтересу до ШІ, коли вони були запущені у 2022 році.
668
24-07-24 16:15
Новий ШI-інструмент може передбачити хворобу Альцгеймера з точністю 82%
Вчені з Кембридзького університету розробили модель ШІ, яка передбачає розвиток хвороби Альцгеймера. Про це повідомляє Vector.
Спочатку дослідники використали дані з когнітивних тестів та МРТ-сканувань, зібрані у понад 400 осіб з США. Потім вони протестували модель, використовуючи реальні дані ще 600 пацієнтів з США, і 900 осіб з клінік пам’яті у Великобританії та Сінгапурі.
Результати показали, що ШІ зміг правильно передбачити розвиток хвороби у 82% випадків і точно визначити відсутність її у 81%. Модель також виявилася приблизно втричі точнішою у передбаченні прогресування хвороби, ніж сучасні клінічні методи. Таким чином ця технологія може значно зменшити кількість помилкових діагнозів.
ШІ-модель змогла класифікувати пацієнтів на три групи:
- чиї симптоми залишатимуться стабільними (близько 50% учасників);
- ті, у кого хвороба розвиватиметься повільно (близько 35%);
- пацієнти, в яких вона прогресуватиме швидше (решта 15%).
Вчені з Кембридзького університету розробили модель ШІ, яка передбачає розвиток хвороби Альцгеймера. Про це повідомляє Vector.
Спочатку дослідники використали дані з когнітивних тестів та МРТ-сканувань, зібрані у понад 400 осіб з США. Потім вони протестували модель, використовуючи реальні дані ще 600 пацієнтів з США, і 900 осіб з клінік пам’яті у Великобританії та Сінгапурі.
Результати показали, що ШІ зміг правильно передбачити розвиток хвороби у 82% випадків і точно визначити відсутність її у 81%. Модель також виявилася приблизно втричі точнішою у передбаченні прогресування хвороби, ніж сучасні клінічні методи. Таким чином ця технологія може значно зменшити кількість помилкових діагнозів.
ШІ-модель змогла класифікувати пацієнтів на три групи:
- чиї симптоми залишатимуться стабільними (близько 50% учасників);
- ті, у кого хвороба розвиватиметься повільно (близько 35%);
- пацієнти, в яких вона прогресуватиме швидше (решта 15%).
668
24-07-22 07:16