Site Loader

Содержание

ТОЛ-35 трансформаторы тока опорные. Описание. Цена. Заказ.

Трансформаторы ТОЛ-35-III-II, ТОЛ-35-III-III, ТОЛ-35-III-V и ТОЛ-35-III-7.2 устанавливаются в открытых распределительных устройствах (ОРУ) класса напряжения 35 кВ.

Является аналогом трансформатора напряжения ТГМ-35.

Трансформаторы тока ТОЛ-35 предназначены для передачи сигнала измерительной информации измерительным приборам, устройствам защиты, автоматики, сигнализации и управления, а также для изолирования цепей вторичных соединений от высокого напряжения в электрических цепях переменного тока частотой 50 Гц.

Измерительные трансформаторы серии ТОЛ-35 имеют климатическое исполнение УХЛ1 и работают в следующих условиях:

  • Высота установки над уровнем моря — не более 1000 м.
  • Температура окружающего воздуха при эксплуатации:-60…+50°С. 
  • Окружающая среда невзрывоопасная, не содержащая пыли, агрессивных газов и паров в концентрациях, разрушающих покрытия, металлы и изоляцию.
  • Рабочее положение в пространстве вертикальное.

Технические характеристики

Наименование параметра

Значение для конструктивного исполнения ТОЛ-35

III-II;
 
III-II-1

III-III;
III-III-1

III-V-4;
III-V-4-1

III-V-5;
III-V-5-1

III-7.2

Номинальное напряжение, кВ

35

Наибольшее рабочее напряжение, кВ

40,5

Номинальная частота переменного тока, Гц

50

Количество вторичных обмоток:

 — для измерений

1

1

или

2

2

1; 2; 3 или 4

 — для защиты

2

3

2

3

1; 2 или 3

Класс точности вторичных обмоток

 — для измерений

0,2S; 0,2; 0,5S; 0,5

 — для защиты

5Р; 10Р

Номинальный вторичный ток, А

1 или 5

Номинальная вторичная нагрузка вторичных обмоток с индуктивно-активным коэффициентом мощности  cos φ=0,8, В∙А

 — для измерений

30

15

3; 5; 10; 15

 — для защиты

30

50

30

20

3; 5; 10; 15; 20; 25; 30

Номинальная предельная кратность вторичной обмотки для защиты, не менее

20

10

Номинальный коэффициент безопасности приборов вторичной обмотки для измерений, не более, при номинальном первичном токе, А:

6

15 — 1500

5; 6*

6

2000

5

7

3000

5

4000

5

5

*Для трансформаторов тока ТОЛ-35 III-II на первичные токи 15, 20, 30, 40, 50, 75, 100, 150, 200, 300 и 600 А классов точности 0,2S.

Количество вторичных обмоток, классы точности, значения номинальных вторичных нагрузок, номинального вторичного тока, номинальной предельной кратности вторичной обмотки для защиты и номинального коэффициента безопасности приборов вторичной обмотки для измерений уточняются в заказе.

Стандартный комплект поставки

  • ТОЛ-35 трансформатор тока опорные.
  • Паспорт.

2.5.3 Выбор трансформаторов тока в ячейке ору

2.5.3.1 Выбираем трансформатор тока ТФНД-110М

2.5.3.2 Определяем номинальный ток данного трансформатора

Iном = 600 А, [6], таблица 31.10, стр. 204

2.5.3.3 Определяем номинальное напряжение и напряжение установки данного трансформатора

Uном = 110 кВ, [6], таблица 31.10, стр. 204

Uуст = 110 кВ

2.5.3.4 Определяем ток динамического действия и ток ударный

iдин = 90 кА, [6], таблица 31. 10, стр. 204

iу = 31,11 кА

2.5.3.5 Определяем расчетный предельный ток термической стойкости

(2.5.4)

2.5.2.6 Сводим данные расчета в таблицу 2.5.3 для сравнения

Таблица 2.5.3

Расчетные данные

Каталожные данные

Iрас = 183,7 А <

Iном = 1000 А

Uуст = 110 кВ =

Uном = 110 кВ

iу = 31,11 кА <

iдин = 90 кА

It=3 = 2,9 кА <

It=3 = 26 кА

Так как расчетные данные не превышают каталожные, то трансформатор тока выбран верно.

ТФНД-110М – трансформатор тока для наружной установки с фарфоровой изоляцией, модернизированный, с сердечником для дифференциальной защиты, с номинальным напряжением 110 кВ.

Трансформатор тока типа ТФН

Рисунок 2.5.3

Трансформаторы тока для наружных установок имеют бумажно-масляную изоляцию. Для обеспечения необходи­мого уровня изоляции все части, магнитопровод и обмотки трансформатора погружают в фарфоровый корпус 6, кото­рый заполнен трансформаторным маслом. Конструктивно первичная 3 и вторичная 7 обмотки напоминают два звена цепи. Выводы первичной обмотки

2 расположены на маслорасширителе 1, выводы вторичной обмотки 8 – на цоко­ле 4. Уровень масла в корпусе трансформатора тока конт­ролируется по маслоуказателю 5 (рис. 2.5.3).

2.5.4.1 Выбираем трансформатор напряжения НКФ-110-58У1

2.5. 4.2 Проверяем выбранный трансформатор по условию

U

(2.5.5)

уст Uном

110 кВ = 110 кВ

Так как условие выполняется, то трансформатор выбран верно.

НКФ-110-58У1 – трансформатор напряжения, каскадный, с фарфоровой изоляцией, с номинальным напряжением 110 кВ, 1958 года разработки, для работы в районах с умеренным климатом и на открытом воздухе.

Масляные каскадные трансформаторы напряжения НКФ-110 состоят из одного блока (рис. 2.5.4).

Блок состоит из стержневого магнитопровода с двумя обмоточными стержнями. Первичная обмотка (ВН) рав­номерно распределена по всему стержню магнитопровода. Обе вторичные обмотки (НН) – основная и дополнительная распо­ложены на нижнем стержне нижнего маг­нитопровода, имеющего наименьший потен­циал по отношению к земле (один конец первичной обмотки заземляется).

Магнитопроводы шихтованные, собраны из пластин электротехнической стали марки Э320 или Э330. Пластины изолированы ла­ковой пленкой.

Обмотки слоевые, намотаны круглым или прямоугольным обмоточным проводом на бакелитовых цилиндрах. Сначала намо­тана пер­вичная обмотка и на нее электростатиче­ский экран. Вторичные обмотки намотаны поверх электростатического экрана.

Блок состоит из активной ча­сти (магнитопровода с обмотками), установленной на основании. На активную часть надета фарфоровая покрышка, наполнен­ная трансформаторным маслом и закры­тая маслорасширителем.

Линейный конец обмотки ВН нахо­дится на крышке маслорасширителя, а заземляемый конец и концы вто­ричных обмоток подведены к доске зажи­мов, расположенной в коробке внутри ниж­него основания.

Трансформатор напряжения НКФ-110-58

Рисунок 2.5.4

Elettronica Lucense Electromechanics Archives — Страница 5 из 8

Поиск:

Показано 97–120 из 186 результатов

Сортировка по умолчаниюСортировать по популярностиСортировать по новизнеСортировать по цене: от низкой к высокойСортировать по цене: от высокой к низкой

  • SIRIO 150155-0223 ТРАНСФОРМАТОР ТОКА TA 800/04

    Цена: 34,16 € с учетом НДС В корзинуСделать предложение
  • FACON FAC-1847003301 ЭЛЕКТРОЛИТИЧЕСКИЙ КОНДЕНСАТОР 3300 мкФ 450 В постоянного тока -40+85°C

    Цена: 30,50 € с учетом НДС В корзинуСделать предложение
  • FRER FR-AT63 ТРАНСФОРМАТОР ТОКА ТИПА AT63 1000/5A KV0.

    72-3 HZ40-60 Цена: 30,00 € с учетом НДС В корзинуСделать предложение
  • OMRON D4B-117IN ПЕРЕКЛЮЧАТЕЛЬ

    Цена: 29,00 € с учетом НДС В корзинуСделать предложение
  • ESAM-UNICENTER E04A-150A ТРАНСФОРМАТОР ТОКА ТИПА E04A-150/1A KV0,72-3 Гц 40-60

    Цена: 27,00 € с учетом НДС В корзинуСделать предложение
  • FRER FR-AC51 ТРАНСФОРМАТОР ТОКА ТИПА AC51 600/1A KV 0,72-3 HZ40-60

    Цена: 27,00 € с учетом НДС В корзинуСделать предложение
  • Распродажа!

    S-L-C-E 039-SP ЭЛЕКТРОЛИТИЧЕСКИЙ КОНДЕНСАТОР 2200 мкФ 400 В постоянного тока 7,9 А 85°

    Цена : 31,96€ /26,84€ С НДС В корзинуСделать предложение
  • Распродажа!

    ITELCOND AYX-HR ЭЛЕКТРОЛИТИЧЕСКИЙ КОНДЕНСАТОР 2200 мкФ 450 В постоянного тока 9929

    Цена : 31,96€ /26,84€ С НДС В корзинуСделать предложение
  • ESAM-UNICENTER E015S-8005A ТРАНСФОРМАТОР ТОКА ТИПА E015S-800/5A KV0,72/3 HZ40/60 БАР ПРОХОД 80X10

    Цена: 26,84 € с учетом НДС В корзинуСделать предложение
  • GHISALBA GHT-130 ТАЙМЕР 110-127В 50Гц 12МИН.

    Цена: 26,60 € с учетом НДС В корзинуСделать предложение
  • ESAM-UNICENTER E04A-100A ТРАНСФОРМАТОР ТОКА ТИПА E04A-100/1A KV 0,72/3 HZ50-60

    Цена: 26,00 € с учетом НДС В корзинуСделать предложение
  • АББ Н003650500х2 ТРАНСФОРМАТОРЫ ТОКА ТИПА H&B-603 50-60Гц 0,6/3кВт 500-5А

    Цена: 25,00 € с учетом НДС В корзинуСделать предложение
  • SIRIO 151008-0109 ТРАНСФОРМАТОР ТОКА TA 200/0,2A 400/0,4A

    Цена: 24,40 € с учетом НДС В корзинуСделать предложение
  • TELEMECANIQUE TELKNA03SF4 СОЕДИНИТЕЛЬНАЯ КОРОБКА CANALIS KN

    Цена: 24,40 € с учетом НДС В корзинуСделать предложение
  • FEDI-FERNANDO COD-50-01A ТРАНСФОРМАТОР ТОКА TA 50/0.1A

    Цена: 24,40 € с учетом НДС В корзинуСделать предложение
  • WEIDMULLER WEI-1028700000-WFF-300 БОЛТОВЫЕ ВИНТОВЫЕ КЛЕММЫ СЕРИИ W, ПРОХОДНАЯ КЛЕММА, НОМИНАЛЬНОЕ СЕЧЕНИЕ: 300 ММ², РЕЗЬБОВОЕ СОЕДИНЕНИЕ

    Цена: 23,70 € с учетом НДС В корзинуСделать предложение
  • ESAM-UNICENTER E03B-200-5 ТРАНСФОРМАТОР ТОКА ТИПА TA 200/5 6 ВА 50 Гц 0,72 кВ/3 ДЛЯ БАР 25X10

    Цена: 22,00 € с учетом НДС В корзинуСделать предложение
  • IME IME-RQ96M ПРОСМОТР НА РУЧНЫЕ ВЕСЫ 0–10 В

    Цена: 22,00 € с учетом НДС В корзинуСделать предложение
  • CELSA-EQ96S-400-1A ПРОСМОТР A HAND 400-1A

    Цена: 22,00 € с учетом НДС В корзинуСделать предложение
  • IME RQ96E-1A СРЕДСТВА ПРОСМОТРА A РУЧНЫЕ ВЕСЫ 0-1A

    Цена: 22,00 € с учетом НДС В корзинуСделать предложение
  • PANTEC CDE96 ПРОСМОТР A РУЧНОЙ 600/1A

    Цена: 22,00 € с учетом НДС В корзинуСделать предложение
  • ESAM-UNICENTER E04A-601A ТРАНСФОРМАТОР ТОКА ТИПА E04A-60/1A KV0,72/3 HZ40/60 БАР ПРОХОД 30X10

    Цена: 21,47 € с учетом НДС В корзинуСделать предложение
  • MEAN-WELL SD-15B-05 ПРЕОБРАЗОВАТЕЛЬ ПОСТОЯННОГО ТОКА ОБЩЕГО НАЗНАЧЕНИЯ 15 Вт ВХОД 18/36 В пост.

    тока 1,3 А ВЫХОД + 5 В-3 А Цена: 21,00 € с учетом НДС В корзинуСделать предложение
  • SIRIO 151110-9051 ТРАНСФОРМАТОР ТОКА ТА 25-50-100/0,2А

    Цена: 20,74 € с учетом НДС В корзинуСделать предложение

© Copyright 2023 Elettronica Lucense

bigscience/bloom · Hugging Face

Bigscience Большой открытой науки с открытым доступом многоязычной языковой модели
Версия 1.3 / 6 июля 2022 г.

Текущая контрольная точка: Обучающая итерация 95000

Ссылка на бумагу: здесь

. представляет собой авторегрессивную модель большого языка (LLM), обученную для продолжения текста из подсказки на огромных объемах текстовых данных с использованием вычислительных ресурсов промышленного масштаба. Таким образом, он может выводить связный текст на 46 языках и 13 языках программирования, который трудно отличить от текста, написанного людьми. BLOOM также можно поручить выполнять текстовые задачи, для которых он явно не обучен, путем преобразования их в задачи генерации текста.

Основы

В этом разделе содержится информация о типе модели, версии, лицензии, спонсорах, дате выпуска, разработчиках и контактная информация. Это полезно для всех, кто хочет сослаться на модель.

Нажмите, чтобы развернуть

Разработчик: BigScience (веб-сайт)

Все сотрудники либо являются добровольцами, либо имеют соглашение со своим работодателем. (Дополнительная разбивка участников ожидается.)

Тип модели: Языковая модель на основе преобразователя

Формат чекпоинтов: трансформаторы (формат Megatron-DeepSpeed ​​доступен здесь)

Версия: 1.0.0

Языки: Несколько; см. тренировочные данные

Лицензия: RAIL License v1.0 (ссылка/статья и FAQ)

Предполагаемая дата выпуска: Понедельник, 11 июля 2022 г.

Отправляйте вопросы по адресу: bigscience-contact@googlegroups. com

Цитировать как: BigScience, BigScience Language Многоязычная модель открытого доступа (BLOOM) . Международный, май 2021 г. – май 2022 г.

Финансируется:

  • Правительство Франции.

  • Обнимающее лицо (веб-сайт).

  • Организации вкладчиков. (Предстоит дальнейшая разбивка по организациям.)

Технические характеристики

В этом разделе содержится подробная информация о цели и архитектуре модели, а также о вычислительной инфраструктуре. Полезно для людей, интересующихся разработкой моделей.

Нажмите, чтобы развернуть

Полную информацию о воспроизведении обучения см. в файле README обучения BLOOM.

Архитектура модели и цель

  • Изменено из Megatron-LM GPT2 (см. документ, код BLOOM Megatron):

  • Архитектура только с декодером

  • Нормализация слоя применена к слою встраивания слов ( StableEmbedding ; см. код, документ)

  • Позиционные кодировки ALiBI (см. статью) с функциями активации GeLU

  • 176 247 271 424 параметры:

    • 3 596 615 680 параметры встраивания

    • 70 слоев, 112 головок внимания

    • Скрытые слои имеют размерность 14336

    • Длина последовательности из 2048 использованных токенов (см. токенизатор BLOOM, описание токенизатора)

Целевая функция: Перекрестная энтропия с уменьшением среднего (см. документацию по API).

Вычислительная инфраструктура

Общественный суперкомпьютер Jean Zay, предоставленный французским правительством (см. объявление).

Аппаратное обеспечение
  • 384 GPU A100 80 ГБ (48 узлов)

  • Дополнительные 32 графических процессора A100 80 ГБ (4 узла) в резерве

  • 8 графических процессоров на узел Использование NVLink 4 соединения между графическими процессорами, 4 соединения OmniPath

  • ЦП: AMD

  • Память ЦП: 512 ГБ на узел

  • Память графического процессора: 640 ГБ на узел

  • Соединение между узлами: архитектура Omni-Path (OPA)

  • Сеть связи NCCL: полностью выделенная подсеть

  • Сеть дискового ввода-вывода: общая сеть с другими типами узлов

Программное обеспечение
  • Megatron-DeepSpeed ​​(ссылка на Github)

  • DeepSpeed ​​(ссылка на Github)

  • PyTorch (pytorch-1. 11 с CUDA-11.5; см. ссылку на Github)

  • вершина (ссылка на Github)


В этом разделе содержится информация о данных обучения, скорости и размере элементов обучения, а также о воздействии обучения на окружающую среду. Это полезно для людей, которые хотят узнать больше о входных данных модели и тренировочном следе.

Нажмите, чтобы развернуть

Тренировочные данные

В этом разделе представлен общий обзор обучающих данных. Это актуально для всех, кто хочет знать основы того, что изучает модель.

Подробная информация о каждом наборе данных представлена ​​в отдельных карточках данных, а размеры каждого из их вкладов в агрегированные обучающие данные представлены на интерактивной карте корпуса.

Учебные данные включают:

  • 46 естественных языков

  • 13 языков программирования

  • 1,6 ТБ предварительно обработанного текста, преобразованного в 350 млрд уникальных токенов (дополнительную информацию см. в разделе о токенизаторе).

Языки

На круговой диаграмме показано распределение языков в обучающих данных.

В следующих таблицах показано дальнейшее распределение нигерско-конголезских и индийских языков и языков программирования в обучающих данных.

Распространение Нигер Конго и индейских языков.

Нигер Конго Процент Индивидуальный Процент
Чи Тумбука 0,00002 Ассамский 0,01
Кикую 0,00004 Одия 0,04
Бамбара 0,00004 Гуджарати 0,04
Акан 0,00007 маратхи 0,05
Сицонга 0,00007 Пенджаби 0,05
Сесото 0,00007 Каннада 0,06
Чи Чева 0,0001 Непальский 0,07
Сетсвана 0,0002 Телугу 0,09
Лингала 0,0002 Малаялам 0,10
Северный сото 0,0002 Урду 0,10
Фон 0,0002 Тамильский 0,20
Кирунди 0,0003 Бенгальский 0,50
Волоф 0,0004 Хинди 0,70
Луганда 0,0004
Чи Шона 0,001
Иси Зулу 0,001
Игбо 0,001
коса 0,001
Киньяруанда 0,003
Йоруба 0,006
Суахили 0,02

Распространение языков программирования.

Расширение Язык Количество файлов
ява Ява 5 407 724
PHP PHP 4,942 186
cpp С++ 2 503 930
ру Питон 2 435 072
JS JavaScript 1 905 518
кс С# 1 577 347
рб Рубин 6 78 413
куб.см С++ 443 054
л.с. С++ 391 048
суа Луа 352 317
перейти ГО 227 763
тс TypeScript 195 254
С С 134 537
скала Скала 92 052
чч С++ 67 161
Н С++ 55 899
тсх TypeScript 33 107
руб Ржавчина 29 693
PHP 9 702
С++ С++ 1 342
ч++ С++ 791
php3 PHP 540
фипсов PHP 270
PHP5 PHP 166
php4 PHP 29

Предварительная обработка

Токенизация: Токенизатор BLOOM (ссылка), обученный токенизатор подслов, обученный с использованием:

  • Алгоритм кодирования пар байтов (BPE) на уровне байтов

  • Простое правило предварительной токенизации, без нормализации

  • Размер словарного запаса 250 680

Он был обучен на подмножестве предварительной версии корпуса с использованием альфа-взвешивания для каждого языка.

Скорости, размеры, время

Журналы тренировок: ссылка на Tensorboard

  • Даты:

    • Запущено 11 марта 2022 г., 11:42 по тихоокеанскому стандартному времени

    • Предполагаемый срок окончания: 5 июля 2022 г.

  • Размер контрольной точки:

  • Производительность обучения: около 150 TFLOP на GPU в секунду

  • Количество эпох: 1

  • Ориентировочная стоимость обучения: Эквивалент 2-5 миллионов долларов США в области облачных вычислений (включая предварительные эксперименты)

  • Место обучения сервера: Иль-де-Франс, Франция

Воздействие на окружающую среду

Учебный суперкомпьютер Jean Zay (веб-сайт) использует в основном ядерную энергию. Вырабатываемое им тепло повторно используется для обогрева жилья кампуса.

Оценка выбросов углерода: (ожидается)

Расчетное потребление электроэнергии: (ожидается)


В этом разделе рассматриваются вопросы, связанные с тем, как предполагается использовать модель, обсуждаются предполагаемые пользователи модели (включая тех, кого модель затрагивает), а также описываются способы использования, которые считаются выходящими за рамки или неправильное использование модели. Это полезно для всех, кто рассматривает возможность использования модели или на кого она влияет.

Нажмите, чтобы развернуть

Как использовать

Эту модель можно легко использовать и развертывать с помощью экосистемы HuggingFace. Для этого необходимо установить трансформаторы и , ускоряющие . Скачать модель можно так:

Использование по назначению

Эта модель создается для проведения общедоступных исследований больших языковых моделей (LLM). LLM предназначены для использования для генерации языка или в качестве предварительно обученной базовой модели, которую можно дополнительно настроить для конкретных задач. Приведенные ниже варианты использования не являются исчерпывающими.

Прямое использование

Использование ниже по течению

  • Задачи, использующие языковые модели, включают: извлечение информации, ответы на вопросы, обобщение

Неправильное использование и использование не по назначению

В этом разделе рассказывается о том, что пользователям не следует делать с моделью.

См. Лицензию BLOOM, Приложение A, для получения подробной информации об ограничениях использования. Приведенный ниже список не является исчерпывающим, но перечисляет некоторые легко предсказуемые проблемные варианты использования.

Использование вне области применения

Использование модели в условиях высоких ставок недоступно для этой модели. Модель не предназначена для критических решений и не может быть использована с какими-либо существенными последствиями для средств к существованию или благополучия человека. Модель выводит контент, который кажется фактическим, но может быть неверным.

Использование вне области применения Включает в себя:

  • Использование в биомедицинских, политических и правовых областях или в области финансов

  • Использование для оценки или оценки отдельных лиц, например, для трудоустройства, образования или получения кредита

  • Применение модели для критически важных автоматических решений, генерация фактического контента, создание надежных сводок или генерация прогнозов, которые должны быть правильными

Неправильное использование

Намеренное использование модели для причинения вреда, нарушения прав человека или других злонамеренных действий является неправильным использованием этой модели. В том числе:

  • Создание спама

  • Дезинформация и операции влияния

  • Унижение и диффамация

  • Домогательства и жестокое обращение

  • Обман

  • Самовольное олицетворение и имитация

  • Наблюдение без согласия

  • Создание контента без указания модели, как указано в лицензии RAIL, ограничения на использование

Предполагаемые пользователи

Прямые пользователи

  • Общий номер

  • Исследователи

  • Студенты

  • Педагоги

  • Инженеры/разработчики

  • Некоммерческие организации

  • Общественные защитники, включая группы по правам человека и гражданским правам

Косвенные пользователи

  • Пользователи производных продуктов, созданных Прямыми пользователями, например, использующие программное обеспечение по назначению

  • Пользователи производных моделей, как описано в Лицензии

Другие затронутые стороны (Стороны Prenantes)

  • Люди и группы, на которые ссылается LLM

  • Люди и группы, подвергающиеся воздействию результатов или решений, основанных на LLM

  • Люди и группы, чья оригинальная работа включена в LLM


В этом разделе указаны предсказуемый вред и недоразумения.

Нажмите, чтобы развернуть

Модель может:

  • Чрезмерное представление одних точек зрения и недостаточное представление других

  • Содержат стереотипы

  • Содержит личную информацию

  • Создать:

    • Выражение ненависти, оскорблений или насилия

    • Дискриминационные или предвзятые формулировки

    • Контент, который может не подходить для всех настроек, включая контент сексуального характера

  • Допускать ошибки, в том числе предоставлять неверную информацию, как будто она соответствует действительности

  • Создание нерелевантных или повторяющихся выходных данных

  • Побуждать пользователей приписывать ему человеческие черты, такие как разум или сознание


В этом разделе описываются протоколы оценки и приводятся результаты.

Нажмите, чтобы развернуть

Метрики

В этом разделе описываются различные способы расчета производительности и почему.

Включает:

Метрическая система Почему выбрали
Недоумение Стандартная метрика для количественной оценки улучшений модели во время обучения
Перекрестная потеря энтропии Стандартная цель для языковых моделей.

И несколько разных показателей для конкретных задач. (Дополнительные показатели оценки появятся после завершения протокола оценки.)

Факторы

В этом разделе перечислены некоторые аспекты моделей BLOOM. Основное внимание уделяется аспектам, которые могут привести к высокой дисперсии поведения модели.

  • Язык, например английский или йоруба

  • Домен, например лента новостей или истории

  • Демографические характеристики, такие как пол или национальность

Полученные результаты

Результаты основаны на факторах и показателях.

Нулевые оценки:

ПРЕДУПРЕЖДЕНИЕ: Раньше этот раздел содержал гораздо больше результатов, однако они были неправильными, и мы опубликовали их без одобрения рабочей группы по оценке. В настоящее время мы находимся в процессе исправления оценок.

См. этот репозиторий для файлов JSON: https://github.com/bigscience-workshop/evaluation-results

Задача Язык Метрическая система БЛУМ-176B ОПТ-175Б*
гуманный питон проход@1 ↑ 0,155 0,0
гуманный питон проход@10 ↑ 0,328 0,0
гуманный питон проход@100 ↑ 0,572 0,003

Оценка времени поезда:

Конечная контрольная точка после 95 тыс. шагов:

Подробнее см.: https://huggingface.co/bigscience/tr11-176B-ml-logs


В этом разделе содержится информация о предупреждениях и возможных мерах по устранению последствий.

Нажмите, чтобы развернуть
  • Косвенные пользователи должны быть уведомлены, когда контент, с которым они работают, создается LLM.

  • Пользователи должны быть осведомлены о рисках и ограничениях и при необходимости включить соответствующий отказ от ответственности или блокирующий интерфейс.

  • Модели, обученные или настроенные после BLOOM LM, должны иметь обновленную карточку модели.

  • Пользователи модели должны предоставить затронутым лицам механизмы для предоставления отзывов, например адрес электронной почты для комментариев.


В этом разделе определяются общие термины и способы расчета показателей.

Нажмите, чтобы развернуть
  • Потери: Расчет разницы между тем, что изучила модель, и тем, что показывают данные («наземная правда»). Чем меньше потери, тем лучше. Тренировочный процесс направлен на минимизацию потерь.

  • Недоумение: Это основано на том, как модель оценивает вероятность появления новых данных. Чем ниже недоумение, тем лучше. Если модель на 100% правильно предсказывает следующий токен, который она увидит, то недоумение равно 1. Математически это вычисляется с использованием энтропии.

  • Настройки с высокими ставками: Например, те, которые определены как «системы ИИ с высоким риском» и «системы ИИ с неприемлемым риском» в предложенном Европейском союзе Законе об искусственном интеллекте (ИИ).

  • Критические решения: Такие, как те, которые определены в предложенном Соединенными Штатами законе об алгоритмической ответственности.

  • Права человека: Включает права, определенные во Всеобщей декларации прав человека.

  • Персональные данные и личная информация: Персональные данные и информация определяются в нескольких правилах защиты данных, таких как «личные данные» в Общем регламенте ЕС по защите данных; и «личная информация» в Законе о защите личной информации Южно-Африканской Республики, Законе о защите личной информации Китайской Народной Республики.

  • Конфиденциальные характеристики: Сюда входят особо охраняемые категории в области прав человека (см. UHDR, статья 2) и регулирование личной информации (см. GDPR, статья 9).; Закон о защите личной информации, глава 1)

  • Обман: Действия, направленные на то, чтобы умышленно ввести людей в заблуждение, чтобы они поверили чему-то ложному, например, путем создания мертвых ботов или чат-ботов в социальных сетях, выдающих себя за реальных людей, или создания текстовых документов без информирования потребителей о том, что текст сгенерирован машиной.


В этом разделе приведены ссылки на материалы по созданию набора данных, технические спецификации, извлеченные уроки и первоначальные результаты.

Нажмите, чтобы развернуть

Промежуточные контрольно-пропускные пункты

Для академического (или любого другого) использования мы опубликовали промежуточные контрольные точки, соответствующие состоянию модели на каждые 5000 шагов. Пожалуйста, перейдите по этой ссылке, чтобы получить эти контрольные точки.

Создание набора данных

Сообщение в блоге с подробным описанием вариантов дизайна во время создания набора данных: https://bigscience.huggingface.co/blog/building-a-tb-scale-multilingual-dataset-for-language-modeling

Технические характеристики

Сообщение в блоге, в котором кратко излагаются выбранные архитектура, размер, форма и продолжительность предварительной подготовки: https://bigscience.huggingface.co/blog/what-language-model-to-train-if-you-have-two- миллион GPU-часов

Подробнее об архитектуре/оптимизаторе: https://github.com/bigscience-workshop/bigscience/tree/master/train/tr11-176B-ml

Сообщение в блоге об оборудовании/инженерии: https://bigscience.huggingface.co/blog/what-hardware-to-train-a-176b-parameters-model

Подробная информация о распределенной установке, используемой для обучения: https://github.com/bigscience-workshop/bigscience/tree/master/train/tr11-176B-ml

Tensorboard обновлен во время обучения: https://huggingface. co/bigscience/tr11-176B-ml-logs/tensorboard#scalars&tagFilter=loss

Уроки

Информация о том, как подходить к обучению, отрицательные результаты: https://github.com/bigscience-workshop/bigscience/blob/master/train/lessons-learned.md

Подробности о препятствиях, преодолеваемых при подготовке по инженерной части (нестабильности, оптимизация пропускной способности обучения, очень много технических хитростей и вопросов): https://github.com/bigscience-workshop/bigscience/blob/master/train/tr11 -176B-ml/chronicles.md

Первоначальные результаты

Первоначальные эксперименты с подсказками с использованием промежуточных контрольных точек: https://huggingface.co/spaces/bigscience/bloom-book

Оригинальные КПП

Контрольные точки в этом репозитории соответствуют формату HuggingFace Transformers. Если вы хотите использовать наш форк Megatron-DeepSpeed, с которым была обучена модель, вам лучше использовать этот репозиторий.

alexxlab

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *