Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Google DeepMind открыла исходный код семейства мультимодальных моделей Gemma 4
ME Новости, сообщение от 3 апреля (UTC+8): Google DeepMind недавно открыла исходный код семейства мультимодальных моделей Gemma 4. Эта серия моделей поддерживает ввод текста и изображений (для небольших моделей также поддерживается аудио), генерирует текстовый вывод, включает варианты с предварительным обучением и инструкционную настройку, контекстное окно максимально достигает 256K токенов и поддерживает более 140 языков. Модели используют две архитектуры: плотную (Dense) и смесь экспертов (MoE). Всего предусмотрены четыре размера: E2B, E4B, 26B A4B и 31B. Их ключевые возможности включают высокопроизводительное инференс-вычисление, расширенную мультимодальную обработку, оптимизацию для устройств, увеличение контекстного окна, усиление возможностей кодирования и агентности, а также поддержку системных подсказок «из коробки». В технических деталях модель использует механизм смешанного внимания: глобальные слои применяют единые пары ключей и значений и пропорциональную RoPE (p-RoPE). При этом модели E2B и E4B используют технологию послойного встраивания (PLE), поэтому эффективные параметры меньше общего числа параметров. А в модели 26B A4B MoE при инференсе активируются только 3.8B параметров, а скорость работы близка к модели с 4B параметрами. (Источник: InFoQ)