Site Loader

Содержание

Встроенные трансформаторы тока трансформаторов

Подробности
Категория: Трансформаторы
  • трансформатор
  • ТТ

Трансформаторы тока (ТТ) предназначены для контроля и измерения токов в электрических цепях . Первичная обмотка ТТ включается последовательно в контролируемую цепь; вторичная обмотка вырабатывает ток, пропорциональный первичному, в соответствии с требуемым коэффициентом трансформации. Цепь вторичной обмотки замыкается либо на измерительные приборы, либо на устройства контроля и защиты электрических цепей.
В ТТ, предназначенных для установки в цепях высокого напряжения, первичная обмотка изолирована от вторичной на полное рабочее напряжение. Вторичная обмотка ТТ обычно заземляется и имеет нулевой потенциал. Это позволяет контролировать параметры сети приборами низкого напряжения, доступными для непосредственного наблюдения обслуживающим персоналом.

Встроенные ТТ используются в качестве элементов других устройств, в частности трансформаторов. Встроенные ТТ трансформаторов устанавливаются на вводах ВН или СН. Встроенные ТТ трансформаторов имеют только вторичную обмотку — функции первичной обмотки здесь выполняет токоведущий элемент линейного ввода (отвода), который охватывается встроенным трансформатором тока.

Конструктивно ТТ состоит из обмотки, намотанной на кольцевой магнитопровода, и имеющей отпайки, соответствующие различным коэффициентам трансформации.
Размещаются ТТ в адаптерах вводов (рис. 3). Каждый ввод укомплектовывается двумя трансформаторами тока: один ТТ служит для подключения измерительных приборов контроля линейного тока во вводе, второй — для подключения цепей защиты. Подключение измерительных приборов и цепей защиты допускается только к отдельным секциям ТТ. Хранение ТТ до монтажа осуществляется в отдельных адаптерах, заполненных маслом.


Рис. 3. Установка трансформаторов тока в адаптерах: 1 — корпус адаптера; 2 — трансформатор тока; 3 — распорные клинья; 4 — крышка адаптера; 5 — ввод; 6— фланец адаптера для установки ввода; 7— болты крепления ввода; 8 — фланец адаптера крепления к крышке бака; 9 — коробка зажимов обмотки ТТ; 10 — перегородка; 11 — отводы; 12 — лючок; 13 — сальник; 14— крышка бака трансформатора; 15 — фланец; 16 — люк адаптера к клеммнику.

Встраиваемые в силовые трансформаторы ТТ предназначены для номинальных напряжений 35; 110; 220; 330; 500; 750; 1150 кВ. При этом вторичный ток является заданной величиной. Наиболее употребительным является вторичный ток 5А; другими употребляемыми вторичными токами являются 2,5 А, 10 А, 1 А. В основном, применяются ТТ на следующие номинальные первичные токи при следующих коэффициентах трансформации (табл. 1).
Для обеспечения необходимой точности измерений и надежной работы максимальных и дифференциальных защит, применяемых в 3-фазных сетях, требуется определенная идентичность параметров трансформаторов тока и нормирование их токовых и угловых погрешностей. Согласно ГОСТ 7746—89, разность между абсолютными значениями первичного и вторичного тока характеризует токовую погрешность; угловая погрешность определяется углом между векторами первичного и вторичного токов ТТ.

ТТ должен надежно работать в некотором диапазоне первичных токов. Поскольку ТТ имеют нелинейный элемент — магнитную систему (МС), то при высоких кратностях токов и, соответственно, больших насыщениях МС (но также и при малых токах и малых насыщениях) погрешности возрастают, что может существенно повлиять на работу защит.
В качестве предельно допустимой кратности для ТТ условно принята т. н. 10%-ная кратность, то есть такое отношение первичного тока к его номинальному значению, при котором токовая погрешность достигает минус 10 % при заданной вторичной нагрузке и коэффициенте мощности 0,8, а трансформатор еще может надежно выполнять свои защитные функции.
Требования к точности ТТ, работающих в схемах максимальных защит, обычно невысоки (класса точности 3). Дифференциальная защита должна срабатывать при авариях внутри защищаемого участка или элемента, и не должна срабатывать при аварии за пределами этого участка. Требования к точности ТТ дифференциальных защит выше, их характеристики должны быть идентичными, чтобы исключить возникновение при сквозных токах короткого замыкания токов небаланса во вторичной цепи за счет неодинаковых токовых и угловых погрешностей.

Таблица 1

Номинальный первичный ток, А

Первичный ток при различных коэффициентах трансформации, А

300

100-150-200-300

600

200-300-400-600

1000

400-600-750-1000

1500

500-750-1000-1500

2000

1000-1500-2000

3000

1000-1500-2000-3000

4000

1000-2000-3000-4000

6000

6000

12 000

12 000

 

Таблица 2

 


Класс точности

Первичный ток, % номинального

Предельное значение

Пределы вторичной нагрузки, % ном, cos φ 0,8

Токовой погр. , %

Угловой погр., мин

0,5

10 20 100-120

±1,00 ±0,75 ±0,50

±60 ±45 ±30

25-100

1

10 20 100-120

±2,00 ±1,50 ±1,00

±120 ±90 ±60

25-100

3

50-120

±3,00

Не нормируется

50-100

10

 

±10,00

 

 

 

Для ТТ установлены номинальные классы точности 0,5; 1; 3; 10, характеризующие предельные погрешности ТТ при различных значениях первичного тока и заданном токе вторичной обмотки.
Предельные значения погрешностей ТТ для различных классов точности приведены в табл. 2.
В обозначениях ТТ, предназначенных для дифференциальной защиты, вместо класса точности указывается буква Д. Каждый новый тип ТТ классов точности 0,5 и 1 для питания измерительных приборов проходит государственные испытания. Перед монтажом ТТ на трансформаторе, каждый из них подвергается испытаниям в объеме, согласно требованиям НТД.

Во время работы ТТ его вторичные обмотки всегда должны быть замкнуты на приборы или, в противном случае — закорочены.

  • Назад
  • Вперёд
  • Вы здесь:  
  • Главная
  • Оборудование
  • Трансформаторы
  • org/ListItem»> Справка
  • Встроенные трансформаторы тока трансформаторов

Еще по теме:

  • Монтаж вводов и трансформаторов тока на трансформатор
  • Подготовка к установке на трансформаторы встроенных трансформаторов тока
  • Монтаж трансформаторов тока
  • Установка вводов и встроенных трансформаторов тока на силовые трансформаторы напряжением 110—750 кВ
  • Трансформаторы тока 35 и 110 кВ для силовых трансформаторов

Трансформаторы

Трансформатор тока ТОЛ-10-I-7 500/5 0,5s/0,5/10Р У2

  1. Главная
  2. Каталог
  3. Трансформаторы и преобразователи
  4. Трансформаторы тока
  5. Трансформатор тока ТОЛ-10-I-7 500/5 0,5s/0,5/10Р У2

Артикул:

SZT018

Производитель:
Свердловский завод трансформаторов тока

Трансформаторы предназначены для передачи сигнала измерительной информации измерительным приборам и устройствам защиты и управления, для изолирования цепей вторичных соединений от высокого напряжения в комплектных устройствах внутренней и наружной установок (КРУ, КРУН и КСО) переменного тока на класс напряжения до 10 кВ частоты 50 или 60 Гц.

Доставка:

до ТК бесплатно

Самовывоз:
до 18:00

Наличие: Уточнить у менеджера

Цена по запросу

Товар в Корзине

  • Описание товара
  • Комментарии
Общее описание

Трансформаторы изготавливаются в исполнении «У» и «Т» категории размещения 2 по ГОСТ 15150 и предназначены для эксплуатации в условиях:
высота над уровнем моря не более 1000 м;
температура окружающей среды с учетом перегрева воздуха внутри КРУ приведена в таблице 1;
окружающая среда невзрывоопасная, не содержащая пыли, химически активных газов и паров в концентрациях, разрушающих покрытия металлов и изоляцию;
рабочее положение — любое.
Трансформаторы комплектуются защитными прозрачными крышками для раздельного пломбирования вторичных выводов.
Могут изготавливаться переключаемыми по первичной или вторичной стороне.
Патентная защита
Патент на изобретение № 2089955.
Сообщаем, что в трансформаторах тока производства ОАО «Свердловский завод трансформаторов тока» допускается использование вторичных обмоток для учета, классов точности 0,2S и 0,5S со значением вторичной нагрузки ниже 25% от номинальной. Минимально допустимая нагрузка для обмоток класса точности 0,2S и 0,5S составляет 1ВА.
В паспорте на трансформаторы тока со вторичными обмотками для учета классов точности 0,2S и 0,5S указываются измеренные токовые и угловые погрешности при номинальной вторичной нагрузке 1ВА.

Дополнительная информация

Таблица 1

Климатическое исполнение

Рабочее значение температуры °C

нижнее

верхнее

эксплуатация

транспортировка

эксплуатация

транспортировка

У2

-45

-50

+50

+50

Т2

-10

-50

+55

+60

Таблица 2

Тип трансформатора

Номинальный первичный ток, А

B, мм

H, мм

h, мм

Масса, кг

ТОЛ-10-I-1,
ТОЛ-10-I-2

5

40

224

26

20±1

10-200

36

300-800

40

28

1000

60

1200

30

1500

32

2000

36

ТОЛ-10-I-3,
ТОЛ-10-I-4

30, 40, 50, 75, 80, 100, 150

40

22

ТОЛ-10-I-5, ТОЛ-10-I-6

100, 150, 200

40

229

22

ТОЛ-10-I-7, ТОЛ-10-I-8,
ТОЛ-10-I-16, ТОЛ-10-I-17

5, 15-400

40

224

26

10

22

600-800

28

ТОЛ-10-I-7,
ТОЛ-10-I-8

1000

60

1200

30

ТОЛ-10-I-16,
ТОЛ-10-I-17

1000

40

32

1200

60

ТОЛ-10-I-7, ТОЛ-10-I-8,
ТОЛ-10-I-16,ТОЛ-10-I-17

1500

2000

36

 

Тип трансформатора

ТОЛ-10-I-1

ТОЛ-10-I-3

ТОЛ-10-I-5

ТОЛ-10-I-2

ТОЛ-10-I-4

ТОЛ-10-I-6

ТОЛ-10-I-7

ТОЛ-10-I-8

ТОЛ-10-I-16

ТОЛ-10-I-17

Рис.

2

1

4

3

11

12

Таблица 3

Наименование параметра

Значение для конструктивного исполнения

1 или 2

3 или 4

5 или 6

7 или 8

16 или 17

Номинальное напряжение, кВ

10 или 11*

Наибольшее рабочее напряжение, кВ

12

Номинальная частота переменного тока, Гц

50 или 60*

Номинальный вторичный ток, А

1; 5

Номинальный первичный ток, А

5, 10, 15, 20, 30, 40, 50, 75, 80, 100, 150, 200, 300, 400, 500, 600, 750, 800, 1000, 1200, 1500, 2000

30, 40, 50, 75, 80, 100, 150

100, 150, 200

5, 10, 15, 20, 30, 40, 50, 75, 80, 100, 150, 200, 300, 400, 500, 600, 750, 800, 1000, 1200, 1500, 2000

Количество вторичных обмоток, шт.

2

3

4**

Класс точности вторичной обмотки для измерений при номинальной первичном токе, А:

5-400

500-2000

0,2S; 0,2; 0,5S; 0,5 или1

0,2S; 0,2; 0,5S; 0,5

вторичной обмотки для защиты

5Р; 10Р

Примечание:
*) только для поставок на экспорт
**) значение нагрузки уточняется в заказе, например «ТОЛ-10-I-2-0,5/10Р-200/5 15ВА«, если нагрузка в заказе не оговорена, то трансформатор по умолчанию производится с нагрузкой 10 ВА.

Таблица 3. Продолжение

Наименование параметра

Значение для конструктивного исполнения

1 или 2

3 или 4

5 или 6

7 или 8

16 или 17

Номинальная вторичная нагрузка вторичных обмоток с индуктивно-активным коэффициентом мощности соs φ = 0,8, В·А:

— для измерений

— для защиты

3; 5; 10; 15; 20; 25; 30***(10)

3; 5; 10; 15; 20; 25; 30***(15)

Номинальная вторичная нагрузка обмотки для измерений с коэффициентом мощности соs φ =1,В·А

1; 2; 2,5

Номинальная предельная кратность

вторичной обмотки для защиты, не менее

10

Номинальный коэффициент безопасности приборов вторичной обмотки для измерений в классах точности при номинальном первичном токе, А,

не более

0,2S; 0,5S

5-2000

10

0,2

5-1200

10

10

1500, 2000

16

0,5; 1

500; 750

11

5-75; 100-300; 600

13

80; 400; 800

16

1000

13

10

1200

14

1500; 2000

16

Односекундный ток термической стойкости, кА, при номинальном первичном токе, А:

0,4

0,4

5

10

0,78

0,78

15

1,2

1,2

20

1,56

1,56

30

2,5

3,2

2,5

40

3

4,3

3

50

5

8

5

75

5,85

20

5,85

80

6,23

20

6,23

100

10

20

40

10

150

20

31,5

40

12,5

200

20

40

20

300, 400

40

31,5

500 – 2000

40

40

***Значение нагрузки уточняется в заказе

Наименование параметра

Значение для конструктивного исполнения

1 или 2

3 или 4

5 или 6

7 или 8

 16 или 17

Ток электродинамической стойкости, кА, при номинальном первичном токе, А:

1

1

5

10

1,97

1,97

15

3

3

20

3,93

3,93

30

6,25

8

6,25

40

7,56

10

7,56

50

12,8

20

12,8

75

14,7

51

14,7

80

15,7

51

15,7

100

25,5

51

81

25,5

150

51

81

81

31,8

200

51

81

51

300, 400

102

81

500 – 2000

102

102

Испытательное напряжение, кВ:

промышленной частоты
грозового импульса

42
75

 

Расчетные значения номинальной предельной кратности вторичной обмотки для защиты в зависимости от номинальной вторичной нагрузки в классе точности 10Р для трансформаторов тока ТОЛ-10-I

Таблица 4. — Для конструктивных исполнений ТОЛ-10-I-1,2,3,4,5,6

Номинальная вторичная нагрузка, В·А

3

5

10

15

20

30

40

50

Коэффициент трансформации

Номинальная предельная кратность

5 — 300/5

27

20

12

10

7

5

4

3

80, 200, 400/5

27

21

14

10

8

6

4

3,5

500/5

24

20

13

10

8

5

4

4

600/5

26

21

15

10

9

7

5

4

750/5

27

23

16

13

10

8

6

5

800/5

28

23

17

10

11

8

6

5

1000/5

20

17

13

10

9

7

5

5

1200/5

20

17

13

10

9

7

5

5

1500/5

21

18

14

10

10

8

6

5

2000/5

21

17

14

10

11

9

7

6

Таблица 5. — Для конструктивных исполнений ТОЛ-10-I-7,8

Номинальная вторичная нагрузка, В·А

3

5

10

15

20

30

40

50

Коэффициент трансформации

Номинальная предельная кратность

50 — 600/5

24

19

13

10

8

6

4

4

750/5

26

21

15

11

9

7

5

4

800/5

26

21

15

10

10

7

5

5

1000/5

20

16

12

10

8

6

4

4

1200/5

21

17

13

10

9

6

5

4

1500/5

21

18

14

10

10

8

6

5

2000/5

18

15

12

10

9

7

6

5

Таблица 5. — Для конструктивных исполнений ТОЛ-10-I-16,17

Номинальная вторичная нагрузка, В·А

3

5

10

15

20

30

40

50

Коэффициент трансформации

Номинальная предельная кратность

5 — 600/5

24

19

12

10

7

5

4

3

750/5

23

18

12

10

7

6

4

3

80/5; 400/5; 800/5

23

19

13

10

8

6

4

3

1000/5

21

18

12

10

8

5

4

3

1200/5

22

19

14

10

9

6

5

4

1500/5

18

16

12

10

8

6

4

4

2000/5

17

16

12

10

9

7

5

5

Трансформаторы тока ТОЛ-10-I с переключаемыми коэффициентами трансформации

Предвтавляем вашему вниманию трансформаторы тока ТОЛ-10-I переключаемые по первичной или вторичной стороне. Трансформаторы имеют 2 коэффициента трансформации. Изготавляваются в двухобмоточном варианте, с любым классом точности (0,2S; 0,2; 0,5S; 0,5).

Трансформаторы ТОЛ переключаемые по первичной стороне имеют обозначение ТОЛ-10-I-12 (выводы контактов вторичных обмоток сверху) или 13 (выводы контактов вторичных обмоток снизу).

Трансформаторы ТОЛ переключаемые по вторичной стороне соответсвенно имеют обозначение ТОЛ-10-I-14 или 15.

Сообщаем, что в трансформаторах тока производства ОАО «Свердловский завод трансформаторов тока» допускается использование вторичных обмоток для учета, классов точности 0,2S и 0,5S со значением вторичной нагрузки ниже 25% от номинальной. Минимально допустимая нагрузка для обмоток класса точности 0,2S и 0,5S составляет 1ВА.
В паспорте на трансформаторы тока со вторичными обмотками для учета классов точности 0,2S и 0,5S указываются измеренные токовые и угловые погрешности при номинальной вторичной нагрузке 1ВА.

Таблица 1. Технические характеристики переключаемых трансформаторов тока ТОЛ-10-I.  

Вариант исполнения Номинальный первичный* ток, А

Коэффициент
безопасности 
приборов в классе 
точности 0,5

5/5 5 13
10
10/5 10
20
15/5 15
30
40/5 20
40
50/5 50
100
75/5 75
150
80/5 40 16
80
100/5 100 13
200
150/5 150
300
200/5 200
400
300/5 300
600
400/5 400 16
800
500/5 500 11
1000 13
600/5 600
1200 14
750/5 750 11
1500 16
800/5 800 16
1200 14
1000/5 1000 13
2000 16

К этому товару пока нет комментариев.
Ваш комментарий будет первым!

Ваш комментарий

Все поля обязательны для заполнения.

Похожие товары

Недавно просмотренные товары

Просто опишите, что Вам нужно, и мы вышлем Вам коммерческое предложение!

Опорные ТТ | Опорные измерительные трансформаторы тока

Измерительные трансформаторы внутренней установки

Опорные трансформаторы тока 

Опорные измерительные трансформаторы тока ТОЛ-НТЗ-10 (20, 35) УХЛ2, Т2 предназначены для установки в комплектные распределительные устройства (КРУ) внутренней установки, в сборные камеры одностороннего обслуживания (КСО), в другие электроустановки и являются комплектующими изделиями. 


Обеспечивают передачу сигнала измерительной информации приборам измерения, устройствам защиты, сигнализации, автоматики и управления. Предназначены для использования в цепях коммерческого и технического учета электроэнергии в электрических установках переменного тока на соответствующий класс напряжения.  

 

Общая информация о трансформаторах тока внутренней установки

 

Трансформаторы тока 6 кВ, 10 кВ

Измерительные трансформаторы тока ТОЛ-НТЗ-10-11, -12, -13

Измерительные трансформаторы тока ТОЛ-НТЗ-10-21, -22, -23

Измерительные трансформаторы тока ТОЛ-НТЗ-10-25, -26

Измерительный трансформатор тока ТОЛ-НТЗ-10-31

Измерительный трансформатор тока ТОЛ-НТЗ-41

Измерительный трансформатор тока ТОЛ-НТЗ-51

Измерительный трансформатор тока ТОЛ-НТЗ-61

Измерительные трансформаторы тока ТОЛ-НТЗ-10-71E, -72E, -73E

Трансформаторы тока 20 кВ

 

Измерительные трансформаторы тока ТОЛ-НТЗ-20-11, -13

Измерительные трансформаторы тока ТОЛ-НТЗ-20-81E, -82E, -83E

 

Трансформаторы тока 35 кВ

Измерительные трансформатор тока ТОЛ-НТЗ-35-11, -12

 

ОБЩАЯ ИНФОРМАЦИЯ ОБ ОПОРНЫХ ТРАНСФОРМАТОРАХ ТОЛ-НТЗ-10 (20, 35)

 

НАЗНАЧЕНИЕ И ОБЛАСТЬ ПРИМЕНЕНИЯ  

 

Трансформаторы тока ТОЛ-НТЗ-10 (20, 35) УХЛ2, Т2 (именуемые в дальнейшем трансформаторы) предназначены для установки в комплектные распределительные устройства (КРУ) внутренней установки, в сборные камеры одностороннего обслуживания (КСО), в другие электроустановки и являются комплектующими изделиями.  


Трансформаторы обеспечивают передачу сигнала измерительной информации приборам измерения, устройствам защиты, сигнализации, автоматики и управления. Предназначены для использования в цепях коммерческого и технического учета электроэнергии в электрических установках переменного тока на соответствующий класс напряжения. 


Трансформаторы изготавливаются в климатическом исполнении «УХЛ» или «Т» категории размещения 2 по ГОСТ 15150-69 и предназначены для работы в следующих условиях: 
— верхнее значение температуры окружающего воздуха при эксплуатации с учетом перегрева внутри ячейки для исполнения «УХЛ» плюс 55 °С, для исполнения «Т» плюс 60 °С; 
— нижнее значение температуры окружающего воздуха минус 60 °С для исполнения «УХЛ», минус 10 °С для исполнения «Т»; 
— относительная влажность воздуха для исполнения «УХЛ» – 100 % при плюс 25 °С, для исполнения «Т» – 100 % при плюс 35 °С; 
— высота над уровнем моря не более 1000 м; 
— окружающая среда невзрывоопасная, не содержащая токопроводящей пыли, химически активных газов и паров в концентрациях, разрушающих металлы – атмосфера типа II по ГОСТ 15150-69; — положение трансформаторов в пространстве – любое.  

 

Трансформаторы, предназначенные для использования в системах нормальной эксплуатации атомных станций (именуемых в дальнейшем АС), относятся к классу 4 по 2.6 Нп-001. 
 

Трансформаторы, предназначенные для использования в системе важной для безопасности нормальной эксплуатации АС, относятся к классу 3 и имеют классификационное обозначение 3Н по 2.6 Нп-001. 
 

Трансформаторы, предназначенные для использования в системе безопасности АС, относятся к классу 2 и имеют классификационное обозначение 2О по 2.6 Нп-001. 
 

Для ОАО «РЖД» областью применения трансформаторов являются тяговые подстанции, трансформаторные подстанции и линейные устройства тягового электроснабжения железных дорог. 
Трансформаторы выполняются с двумя уровнями изоляции «а» или «б» по гОСТ 1516.3-96. 

 

Уровень частичных разрядов изоляции первичной обмотки всех трансформаторов вне зависимости от уровня изоляции не превышает 20 пКл при напряжении измерения 1,1∙Uн. р/√3 кВ, где Uн.р – наибольшее рабочее напряжение. 


Класс нагревостойкости трансформаторов — «В» по ГОСТ 8865-93.

Корпус трансформаторов выполнен из эпоксидного компаунда, который одновременно является главной изоляцией и обеспечивает защиту обмоток от механических и климатических воздействий. 


Трансформаторы с различными конструктивными исполнениями и номинальным напряжением отличаются между собой размерами корпуса, формой, массой и расположением контактных выводов первичной обмотки. 


Выводы первичной обмотки расположены на верхней или боковой поверхности трансформаторов. Трансформаторы, имеющие в своем обозначении букву «П», имеют возможность переключения по первичной стороне. Трансформаторы, имеющие в своем обозначении букву «Б», оснащены изолирующими барьерами. 


Вторичные обмотки размещены каждая на своем магнитопроводе. Выводы вторичных обмоток расположены в нижней части трансформатора и имеют следующие варианты исполнений: 
— А — параллельно установочной поверхности; 
— В — перпендикулярно установочной поверхности; 
— С — из гибкого провода, параллельно установочной поверхности.  


Для исполнений с меньшим числом вторичных обмоток отверстия несуществующих вторичных выводов заглушены. Трансформаторы, имеющие в своем обозначении букву «К», имеют ответвления (отпайки) на одной или нескольких вторичных обмотках. 

Трансформаторы подлежат периодической поверке по методике ГОСТ 8.217-2003.                       

Межповерочный интервал – 16 лет. 
Трансформаторы ремонту не подлежат. 
Средняя наработка до отказа – 4∙105 часов. 
Средний срок службы – 30 лет.

Трансформаторы тока CIRCUTOR серии ТС (под шину)

Номенклатура

  • Измерение и контроль
    • Стационарные анализаторы сетей
      • Анализаторы мощности
      • Анализаторы качества электроэнергии
      • Анализаторы потребления
      • Аксессары
    • Измерительные трансформаторы тока и шунты
      • Трансформаторы тока ТС (под шину)
      • Трансформаторы тока ТСН (класс точности 0 5s — 0 2s)
      • Pазборные трансформаторы тока
      • Шунты
      • Суммирующие трансформаторы тока
      • Трансформаторы напряжения
      • Трансформаторы тока MC
      • Трансформаторы тока на ДИН рейку
      • Трансформаторы тока 4. ..20 мА
      • Трансформаторы тока ТА
    • Системы управления
      • Импульсный центратор
      • Менеджер по энергетике
    • Программное обеспечение энергетического управления
    • Переносные анализаторы сетей
      • Аксессуары для анализаторов
    • Цифровые контрольно-измерительные приборы
      • Амперметры / процесс-индикаторы
      • Вольтметры
      • Приборы на ДИН рейку
      • Преобразователи
      • Цифровой индикатор DHB
      • Другие цифровые приборы
    • Аналоговые контрольно-измерительные приборы
      • Амперметры
      • Вольтметры
      • Варметры
      • Ваттметр
      • Максиметры
      • Мегометры
      • Приборы для синхронизации
      • Процесс-индикаторы
      • Счетчики моточасов
      • Фазометры
      • Частотометры
      • Аксессуары для аналоговых приборов
  • Защита и контроль
    • Промышленная дифференциальная защита
    • Дифференциальная и магнитотермическая защита с обратным подключением
    • Реле и элементы управления
    • Трансформаторы тока для защиты
    • Измерительно-проверочное оборудование для CT
  • Компенсация реактивной энергии и фильтрация гармоник
    • Регуляторы реактивной мощности
    • Конденсаторы и реакторы для низкого напряжения
    • Автоматические конденсаторные установки
    • Фильтры гармоник
    • Конденсаторные установки для среднего напряжения
    • Конденсаторы для среднего напряжения
  • Интеллектуальная перезарядка транспортных средств с электро- двигателем
    • Внешняя перезарядка транспортных средств с электродвигателем
    • Внутренняя перезарядка транспортных средств с электродвигателем
    • Аксессуары
  • Возобновляемые источники энергии
    • Мгновенное самопотребление
    • Самопотребление с накоплением
    • Оборудование для фотоэлектрических панелей
    • Водные солнечные насосные решения
  • Счетчики электроэнергии
    • Многофункциональные счетчики электроэнергии
    • Счетчики энергии частичного потребления
    • Аксессуары для счетчиков электроэнергии

Кабинет

Забыли пароль?

Регистрация

ГлавнаяТрансформаторы тока Трансформаторы тока ТС (под шину)

Характеристики трансформаторов тока CIRCUTOR серии ТС
Наибольшее рабочее напряжение:0,72кВ
Испытанное напряжение изоляции:3кВ
Рабочая частота тока:50 или 60Гц
Допустимый коэффициент перегрузки:1,2
Испытанный термический ток (Iт):60Iн
Испытанный динамический ток (Iд):2,5Iт
Фактор безопасности:5
Термический класс:105°С
Климатическое исполнение:-5 °С … + 40 °С
Наработка на отказ, не менее:1000000 ч

Все измерительные трансформаторы тока фирмы CIRCUTOR поставляются с первичной поверкой

Измерительные трнсформаторы тока CIRCUTOR серии TC

Тип

Трансформатор тока
TC 4
Трансформатор тока
TC 5
Трансформатор тока
TC 5,2
Размер шины30 x 10
20 x 10
25 x 5
20 x 10
25 x 5
15 x 5
20 x 12
25 x 10
30 x 10
 КлассКодКлассКодКлассКод
0,5130,5130,513
40/5 1,5M70311
    
50/51M703D5
3M70312
    
60/51,25M703D6
1,253,5M70313
    
75/511,25M703D7
23,5M70314
    
100/52,03M703D8
1,52,53,75M70315
 —  11,5 M70321
125/52,53,75M703D9
1,753,55M70316
1,52M70322
150/51,52,54M703DA
2,53,55M70317
122,5M70323
200/52,556M703DB
3,7555M70318
2,533,5M70324
250/5    57,57,5M70319
3,53,755M70325
300/5        3,53,755M70326
400/5        3,557,5M70327
500/5        57,510M70328
600/5        57,510M70329
Измерительные трансформаторы тока CIRCUTOR серии TC

Тип

Трансформатор тока
TC 6,2
Трансформатор тока
TC 6
Трансформатор тока
TC 8,3
Размер шины20 x 20
25 x 12
30 x 10
30 x 15
20 x 25
40 x 10
20 x 25
30 x 20
40 x 10
 КлассКодКлассКодКлассКод
0,5130,5130,513
100/51,753,757,5M70341
        
125/53,757,510M70342
        
150/557,510M70343
13,55M70331
    
200/57,51010M70344
3,55705M70332
152025M703B2
250/57. 51015M70345
57,510M70333
101520M703B1
300/5101015M70346
57.510M70334
152025M703B3
400/5101015M70347
57.510M70335
152025M703B4
500/5151520M70348
7.51015M70336
1520325M703B5
600/5152025M70349
7,51015M70337
152025M703B6
750/5    101520M70338
202530M703B7
800/5    101520M70339253035M703B8
1 000/5        253035M703B9

 

Измерительные трансформаторы тока CIRCUTOR серии TC
Тип

Трансформатор тока
TC 8
Трансформатор тока
TC 10
Трансформатор тока
TC 12
Размер шины50 x 30
60 x 12
50 x 50
60 x 30
80 x 30
3 x 100 x 10
84,5
102
50
130
108
50
150
129
50
 КлассКодКлассКодКлассКод
0,5130,5130,513
200/512,55M7036C
12,55M7037F
    
300/52. 5575M7036B
2,557,5M7037D
    
400/557,510M70361
2,557,5M7037G
    
500/57,51015M70362
57,510M7037B
    
600/5101520M70363
7,51015M7037C
    
750/5152025M70364
 7,51015M7037H    
800/5152030M70365
7,51015M70372
101520M7038B
1000/5152030M70366
101520M70373
101520M70381
1200/5152030M70367
101520M70374
101520M70382
1250/5152030M7036A
101520M7037E
101520M7038D
1500/5152030M70368
152025M70375
152030M70383
1600/5152030M70369
152025M70376
152030M70384
2000/5    152025M70377
152030M70385
2500/5    152030M70378
203040M70386
3000/5    152030M70379
304060M70387
3200/5        304060M7038C
4000/5        354060M70388

 

Принадлежности для трансформаторов тока
ТипКод
Пломбировочные крышки для измерительных трансформаторов токаM79951
PA-TC/WG Крепеж для трансформаторов тока на DIN-рейкуP19921

 

Измерительные трансформаторы тока Circutor — размеры серии ТС
Размер трансформатора тока (мм)ТС 4ТС 5ТС 5,2ТС 6,2ТС 6ТС 8ТС 10
a505858646484. 5108
b70707080.580.5102130
c29292934344661
d2120.3222628.54463
e43.5454560.566.569
f30323244445050
g5659597171.27878
h5.55.65.65.65.66.66.6
i45.5484860606464
j31.6393946466286
k30. 525.630.620.640.660.680.6
l30.515.615.630.625.230.650.8

 

Новости все новости

  • Новый портативный анализатор качества электроэнергии MYeBOX

  • CVM-A1500-ITF-485-ICT2

  • WiBeee

  • REC3

  • Управляйте всеми своими устройствами в реальном времени из облака

  • Цифровые приборы DCB

Трансформаторы тока

Новости

20. 11.2018

Ампер, килограмм и другие величины будут определяться по-новому

С 13 по 16 ноября 2018 года в Париже проходила 26-я Генеральная конференция по мерам и весам. Результатом ее работы стало установление новых точных значений для некоторых величин системы СИ.

Общие сведения

   Измерительные трансформаторы тока предназначены для передачи измерительным приборам и счетчикам электроэнергии информации о величине тока в контролируемой цепи. 
   Конструктивно трансформаторы тока состоят из первичной и вторичной обмотки. В некоторых типах трансформаторов роль первичной обмотки выполняют токоведущие шины, на которых закрепляется корпус трансформатора тока. Обмотки трасформаторов выполняют на торроидальном сердечнике. Выводы первичной обмотки обозначают символами Л1 и Л2, вторичной И1 и И2.
   Для учета на оптовом рынке электроэнергии используются трансформаторы класса точности 0,2 и 0,2s. Трансформаторы класса точности 0,5 применяют для совместной работы с электроизмерительными приборами и в схемах учета электроэнергии при расчетах с потребителями. Трансформаторы класса точности 0,5s используют для коммерческого учета электроэнергии. Трасформаторы тока, имеющие в обозначении букву «s» (0,2s, 0,5s), являются более точными, так как их обмотки проверяют на погрешность по пяти точкам в диапазоне от 1% до 120% от номинального тока. При классе точности 0,2 и 0,5 погрешность измеряется в четырех точках в диапазоне 5%…120% от номинального тока.  
   Если по каким-то причинам от трансформатора тока отключается измерительное устройство, то выводы измерительной обмотки необходимо закоротить, так как на свободных концах обмотки возникает напряжение в несколько киловольт, которое создает угрозу для обслуживающего персонала. Кроме того, трансформатор может выйти из строя из-за перегрева корпуса.

Трансформаторы тока ТТ-А и ТТ-В с межповерочным интервалом 12 лет     

Узнать стоимость трансформаторов ТТ-А и ТТ-В..

ТТ-А

   Опорные трансформаторы тока. В качестве первичной обмотки трансформатора используется встроенная шина.

   Классы точности – 0,5 и 0,5s.

   Изготавливаются в двух типоразмерах.
Первый типоразмер для класса точности 0,5: 30/5А, 40/5А, 50/5А, 60/5А, 75/5А, 80/5А, 100/5А, 125/5А, 150/5А, 200/5А, 250/5А, 300/5А.
Второй типоразмер для класса точности 0,5: 400/5А, 500/5А, 600/5А.

Первый типоразмер для класса точности 0,5s: 50/5А, 75/5А, 100/5А, 150/5А, 200/5А, 250/5А, 300/5А.
Второй типоразмер для класса точности 0,5s: 400/5А, 500/5А, 600/5А. 

   Корпус из пластика, не поддерживающего горение.

   Предусмотрена цветовая маркировки фаз: в комплекте групповой упаковки их 3 шт. имеются 3 цветные панели, устанавливаемые под прозрачную крышку выводов: желтая, зеленая, красная.

   Внесены в Государственный реестр средств измерений. Имеют сертификат об утверждении типа, выданный Федеральным Агентством по Техническому Регулированию и Метрологии.

   Габаритные размеры трансформаторов тока ТТ-А.

ТТ-В

   Шинные трансформаторы тока. В качестве первичной обмотки используют шину или кабель, устанавливаемые в окне корпуса трансформаторов.

   Классы точности – 0,5 и 0,5s.

   Изготавливаются в пяти типоразмерах.
ТТ-В 30 для класса точности 0,5: 100/5А, 150/5А, 200/5А, 250/5А, 300/5А.
ТТ-В 60 для класса точности 0,5: 300/5А, 400/5А, 500/5А, 600/5А, 800/5А, 1000/5А.
ТТ-В 80 для класса точности 0,5: 750/5А, 800/5А, 1000/5А, 1500/5А.
ТТ-В 100 для класса точности 0,5: 800/5А, 1000/5А, 1200/5А, 1500/5А, 1600/5А, 2000/5А, 2500/5А, 3000/5А.
ТТ-В 120 для класса точности 0,5: 1500/5А, 2000/5А, 2500/5А, 3000/5А.

ТТ-В 30 для класса точности 0,5s: 100/5А, 150/5А, 200/5А, 250/5А, 300/5А. 350/5А.
ТТ-В 60 для класса точности 0,5s: 300/5А, 400/5А, 500/5А, 600/5А, 800/5А, 1000/5А.
ТТ-В 80 для класса точности 0,5s: 1000/5А, 1500/5А.
ТТ-В 100 для класса точности 0,5s: 800/5А, 1000/5А, 1200/5А, 1500/5А, 1600/5А, 2000/5А, 2500/5А, 3000/5А.
ТТ-В 120 для класса точности 0,5s: 2500/5А.

   Корпус из пластика, не поддерживающего горение.

   Монтаж может осуществляться на панель с помощью винтов или непосредственно на токопроводящую шину с помощью специальных прижимов.
Универсальное крепление на шину с помощью 4-х направляющих на корпусе трансформатора и универсальной втулки с саморезом и изолирующей проставкой, которые можно установить в любую из направляющих.

   Предусмотрена цветовая маркировки фаз: в комплекте групповой упаковки их 3 шт. имеются 3 цветные панели, устанавливаемые под прозрачную крышку выводов: желтая, зеленая, красная.

   Внесены в Государственный реестр средств измерений. Имеют сертификат об утверждении типа, выданный Федеральным Агентством по Техническому Регулированию и Метрологии.

   Габаритные размеры трансформаторов тока ТТ-B.

Возможно вам нужны счетчики электроэнергии или щитовые приборы.

Компоненты и системы панели

— Трансформатор тока модели ND-TT

4,25″ внутренний диаметр

Соответствует ANSI C57.13 и применимым стандартам IEC.
Частота 50–400 Гц. Класс изоляции 0,6 кВ BIL 10 кВ
Коэффициент тепловой защиты:
1,33 при 30°C для коэффициентов до 2500:5,
1,00 при 30°C для коэффициентов выше 2500:5.
8-32 Шпильки.
Формованный корпус из термопласта. Доступны дополнительные монтажные кронштейны.
Другие значения первичного тока до 5000 А доступны по запросу.
Номер детали Соотношение НАГРУЗКА
AT ± 1% ACC (VA)
НОМИНАЛЬНАЯ ВТОРИЧНАЯ ОБМОТКА
СОПРОТИВЛЕНИЕ (Ом)
НД-500-00-ТТ 500:5А 3,0 0,10
НД-600-00-ТТ 600:5А 5,0 0,13
НД-750-00-ТТ 750:5А 5,0 0,15
НД-800-00-ТТ 800:5А 11 0,16
НД-1000-00-ТТ 1000:5А 17 0,20
НД-1200-00-ТТ 1200:5А 27 0,24
НД-1500-00-ТТ 1500:5А 38 0,30
НД-1600-00-ТТ 1600:5А 40 0,33
НД-2000-00-ТТ 2000:5А 58 0,41
НД-2500-00-ТТ 2500:5А 75 0,52
НД-3000-00-ТТ 3000:5А 95 0,97
НД-4000-00-ТТ 4000:5А 125 1,5
НД-5000-00-ТТ 5000:5А 125 2,0

Примечание. Все размеры указаны в дюймах

Многофункциональная мебель для экономии места | Стол-трансформер – Стол-трансформер США

Купить сейчас

Безграничные возможности

Вся линейка столов-трансформеров была продумана и разработана таким образом, чтобы ее можно было полностью переставлять и настраивать, что позволяет вам создать свое собственное уникальное пространство.

Умная мебель

Сочетание многофункциональности, универсальности, инноваций и дизайна — вот что делает нашу мебель самой модной и уникальной в мире и гарантированно произведет впечатление на ваших гостей.

Создано и спроектировано для всех

Наша цель проста — проектировать и создавать самые удивительные и единственные в своем роде продукты на рынке, делая вашу жизнь лучше и проще. Независимо от того, где и как вы живете.

Стол 6-в-1, отвечающий всем вашим потребностям

Столы-трансформеры изготовлены из 100 % твердой древесины и высококачественных материалов.

Купить стол-трансформер

Один диван, бесконечные возможности

Полностью модульный диван-трансформер можно трансформировать в десятки различных конфигураций сидений.

Купить диван-трансформер

Невозможное теперь возможно

Полностью модульный комплект Transformer Outdoor включает скрытые сиденья и регулируемые секции.

Магазин Трансформер Открытый

Все продукты

Обеденный набор-трансформер — Практичный — Стол + Скамейка

Обычная цена $2,599. 00 USD

Обычная цена 3648,00 долларов США Цена продажи 2 599,00 долларов США

Цена за единицу товара / за

Стол-трансформер

Обычная цена 2 249,00 долларов США

Обычная цена 2948,00 долларов США Цена продажи 2 249,00 долларов США

Цена за единицу товара / за

Журнальный столик-трансформер — панель для хранения и журнальный столик

Обычная цена 699,00 долларов США

Обычная цена Цена продажи 699,00 долларов США

Цена за единицу товара / за

Обеденный набор-трансформер — The Full House — Стол + 2 скамьи + 2 стула

Обычная цена 3 349,00 долларов США

Обычная цена 4847,00 долларов США Цена продажи 3 349,00 долларов США

Цена за единицу товара / за

Обеденный набор-трансформер — The Family — Стол + 4 стула

Обычная цена 2 849,00 долларов США

Обычная цена 3848,00 долларов США Цена продажи 2 849,00 долларов США

Цена за единицу товара / за

Обеденный набор-трансформер — Хозяин — Стол + скамья + 4 стула

Обычная цена 3 299,00 долларов США

Обычная цена 4 647,00 долларов США Цена продажи 3 299,00 долларов США

Цена за единицу товара / за

ГАРАНТИЯ ОДИН ГОД

Все покупки защищены годовой гарантией от структурных дефектов.

БЕСПЛАТНАЯ ДОСТАВКА

Мы предоставляем бесплатную доставку при заказе на сумму более 9 долларов США.99 в США и Канаде.

0% ГОДОВЫХ ДОСТУПНО ФИНАНСИРОВАНИЕ *

Получите финансирование от 0% годовых на 6 месяцев с помощью Bread*.

Что говорят люди

Легкий, удобный для перемещения и универсальный, как никто другой. Качество потрясающее, и очень легко изменить размер и снять крышки для чистки.

Подробнее Обзоры кушеток

Я не могу нахвалиться качеством этого стола – это не дешевая мебель для начинающих из ламината. Качество материалов, отделки и сборки на высоте.

Подробнее Обзоры столов

Я хотел бы пожать руку тому, кто это придумал — это действительно потрясающе! Я никогда не видел ничего подобного. Мой задний двор стал моим счастливым местом этим летом.

Читать далее Отзывы на открытом воздухе

Узнай первым

Присоединяйтесь к списку и следите за нашими новыми инновационными продуктами и предстоящими акциями!

Рекомендуем на

Стол-трансформер

Наша раздвижная столовая мебель из цельного дерева трансформируется из уютного стола на двоих в банкетный стол на 12 гостей.

Диван-трансформер

Максимальная регулируемость и комфорт. Полностью модульный диван-трансформер может быть преобразован в десятки различных конфигураций сидений, чтобы вместить комнату или группу любого размера.

Трансформер

Максимальная регулируемость и удобство. Полностью модульный комплект Transformer Outdoor может быть преобразован в десятки различных конфигураций сидений, от самой большой до самой маленькой группы.

Преобразите свой дом

Мебель Transformer Table сочетает в себе качественные материалы, инновационную конструкцию, модульную конструкцию и классический дизайн в линейке красивых предметов интерьера, которые функционируют как ничто другое на рынке.

Стол-трансформер

#eattogether

Силовой трансформатор, ТТ-500 — ВСЕ ЗАПАСНЫЕ ЧАСТИ NUMARK

Цена:

39,50 $

(пока отзывов нет) Написать рецензию

Силовой трансформатор, TT-500 — TF66031601YH

Рейтинг Обязательно Выберите Рейтинг1 звезда (худший)2 звезды3 звезды (средний)4 звезды5 звезд (лучший)

Имя

Электронная почта Обязательно

Тема отзыва Обязательно

комментариев Обязательно


Артикул №:
ТФ66031601ИХ
Состояние:
Новый
  • Описание
  • Обзор
  • сопутствующие товары
  • Клиенты также просмотрели
  • Быстрый просмотр Добавить в корзину

    Силовой трансформатор, ТТ-1520 — 411-DJ2500-133

    Цена:

    26,00 $

    Добавить в корзину

  • Быстрый просмотр Добавить в корзину

    Силовой трансформатор, ТТ-200 — TF57021603YH

    Цена:

    26,00 $

    Добавить в корзину

  • Быстрый просмотр Добавить в корзину

    Силовой трансформатор, TT-X1 — TF66021801YH

    Цена:

    37,50 $

    Добавить в корзину

  • Быстрый просмотр

    Силовой трансформатор, ТТ-1910 — 411-DJ2000-121

    Цена:

    0,00 $

  • Быстрый просмотр

    Трансформатор, Силовой, ТТ-100 — 411-ТТ100-189

    Цена:

    0,00 $

  • Быстрый просмотр

    Силовой трансформатор — новый TTX (переменный крутящий момент) — TF66031603YH

    Цена:

    45,50 $

  • Быстрый просмотр Добавить в корзину

    Силовой трансформатор, TT-X1 — TF66021801YH

    Цена:

    37,50 $

    Добавить в корзину

  • Быстрый просмотр

    Печатная плата, основной узел, TT-500 — TWPC03P02101

    Цена:

    108,50 $

  • Быстрый просмотр Добавить в корзину

    Силовой трансформатор, ТТ-200 — TF57021603YH

    Цена:

    26,00 $

    Добавить в корзину

  • Быстрый просмотр Добавить в корзину

    Печатная плата, блок питания, TT-500 — TWPC03P03401

    Цена:

    $39,50

    Добавить в корзину

  • Быстрый просмотр

    Печатная плата, двигатель в сборе (переменный крутящий момент), TT-500/TTX — TWMD96407YH -ИСПОЛЬЗУЕТСЯ

    Цена:

    129,00 $

  • Быстрый просмотр Добавить в корзину

    Слайд-потенциометр, фейдер высоты тона, TT500/другие — VRS103610010

    Цена:

    71,50 $

    Добавить в корзину

  • Быстрый просмотр Добавить в корзину

    Печатная плата, ФУНКЦИОНАЛЬНЫЙ СБОР (ШАГ) — T — TWPC03P03702

    Цена:

    74,50 $

    Добавить в корзину

  • Быстрый просмотр

    Целевой свет, ТТ-500/ТТХ/и т.
    д. — Numark — TWMT322030801-B

    Цена:

    26,00 $

  • Быстрый просмотр Добавить в корзину

    Силовой трансформатор, TT1510/1700 — 411-BJ1900-053

    Цена:

    $18.00

    Добавить в корзину

ТТ Выпуск 12

Компании и более крупные консалтинговые фирмы формируют

Страна Афганистан Аландские острова Албания Алжир американское Самоа Андорра Ангола Ангилья Антарктида Антигуа и Барбуда Аргентина Армения Аруба Австралия Австрия Азербайджан Багамы Бахрейн Бангладеш Барбадос Беларусь Бельгия Белиз Бенин Бермуды Бутан Боливия Бонайре Босния и Герцеговина Ботсвана Остров Буве Бразилия Британская территория Индийского океана Бруней-Даруссалам Болгария Буркина-Фасо Бурунди Камбоджа Камерун Канада Кабо-Верде Каймановы острова Центрально-Африканская Республика Чад Чили Китай Остров Рождества Кокосовые (Килинг) острова Колумбия Коморы Конго Конго, Демократическая Республика Острова Кука Коста-Рика Берег Слоновой Кости Хорватия Куба Кюрасао Кипр Чешская Республика Дания Джибути Доминика Доминиканская Респблика Эквадор Египет Эль Сальвадор Экваториальная Гвинея Эритрея Эстония Эфиопия Фолклендские (Мальвинские) острова Фарерские острова Фиджи Финляндия Франция Французская Гвиана Французская Полинезия Южные Французские Территории Габон Гамбия Грузия Германия Гана Гибралтар Греция Гренландия Гренада Гваделупа Гуам Гватемала Гвинея Гвинея-Бисау Гайана Гаити Остров Херд и острова Макдональдс Святой Престол (город-государство Ватикан) Гондурас Гонконг Венгрия Исландия Индия Индонезия Иран, Исламская Республика Ирак Ирландия Остров Мэн Израиль Италия Ямайка Япония Иордания Казахстан Кения Кирибати Корея, Народно-Демократическая Республика Корея, Республика Кувейт Кыргызстан Лаосская Народно-Демократическая Республика Латвия Ливан Лесото Либерия Ливийская арабская джамахирия Лихтенштейн Литва Люксембург Макао Македония Мадагаскар Малави Малайзия Мальдивы Мали Мальта Маршалловы острова Мартиника Мавритания Маврикий Майотта Мексика Микронезия, Федеративные Штаты Молдова, Республика Монако Монголия Черногория Монтсеррат Марокко Мозамбик Мьянма Намибия Науру Непал Нидерланды Новая Каледония Новая Зеландия Никарагуа Нигер Нигерия Ниуэ Остров Норфолк Северные Марианские острова Норвегия Оман Пакистан Палау Палестинская территория Панама Папуа — Новая Гвинея Парагвай Перу Филиппины Питкэрн Польша Португалия Пуэрто-Рико Катар Воссоединение Румыния Российская Федерация Руанда Саба Святая Елена Сент-Китс и Невис Сент-Люсия Сен-Пьер и Микелон Святой Винсент и Гренадины Самоа Сан-Марино Сан-Томе и Принсипи Саудовская Аравия Сенегал Сербия Сейшелы Сьерра-Леоне Сингапур Синт-Эстатиус Словакия Словения Соломоновы острова Сомали Южная Африка Южная Георгия и Южные Сандвичевы острова южный Судан Испания Шри-Ланка Судан Суринам Шпицберген и Ян-Майен Свазиленд Швеция Швейцария Сирийская Арабская Республика Тайвань Таджикистан Танзания, Объединенная Республика Таиланд Тимор-Лешти Идти Токелау Тонга Тринидад и Тобаго Тунис Турция Туркменистан острова Теркс и Кайкос Тувалу Уганда Украина Объединенные Арабские Эмираты Соединенное Королевство Соединенные Штаты Малые отдаленные острова США Уругвай Узбекистан Вануату Венесуэла Вьетнам Виргинские острова, Британские Виргинские острова, США Уоллис и Футуна Западная Сахара Йемен Замбия Зимбабве

Takagi Electric TT-1030 Трансформатор напряжения, 1 фаза, 1 кВА, 180–220 В переменного тока, 110 В переменного тока

Takagi Electric

Код продукта: ${ getProductId() }

MFG #:

8 7 $

6 }

Подпишитесь на TAKAGI ELECTRIC

Получайте уведомления о новых и поступающих запасах

Takagi Electric

Код продукта: ${getProductId() }

MFG #: ${ product. model }

7

${ _applyMoneyFormat(getPrice() / 100, ‘доллары США’, ‘символ’)}

${ _applyMoneyFormat(getPrice(false) / 100, ‘доллары США’, ‘символ’)}

Сэкономьте до 15% мгновенно зарегистрировавшись или войдя в систему

${ _applyMoneyFormat(getOutOfStockPrice() / 100, ‘USD’, ‘символ’)}

Бесплатная доставка в тот же день

Бесплатный возврат

Нужно ${shippingArrivalDayOfWeek}, ${shippingArrivalDate.format(‘MMM.DD’) }? Закажите его в течение следующего ${shippingCountDown} и выберите авиадоставку на следующий день при оформлении заказа.

Количество
В наличии Осталось только ${getQuantityAvailable()}

${кол-во}0

Нажмите здесь, чтобы получить уведомление, как только TAKAGI ELECTRIC TT-1030 снова в наличии

${вариант.имя}

-1 ? ‘активный’: », isOptionGreyedOut (вариант, вариант)? ‘v-chip—grey’: »]» @click=»selectOption(вариант, вариант)» > ${getOptionValue(опция)}

Предметы

-1 ? ‘активный’ : »]» @click=»selectItem(item)»> ${элемент. описание}

${ _applyMoneyFormat(getPrice() / 100, ‘доллары США’, ‘символ’)}

${ _applyMoneyFormat(getPrice(false) / 100, ‘доллары США’, ‘символ’)}

Сэкономьте до 15% мгновенно зарегистрировавшись или войдя в систему

${ _applyMoneyFormat(getOutOfStockPrice() / 100, ‘USD’, ‘символ’)}

БЕСПЛАТНАЯ ДОСТАВКА В ТОТ ЖЕ ДЕНЬ

БЕСПЛАТНЫЙ ВОЗВРАТ

Количество
В наличии Осталось только ${getQuantityAvailable()}

$ { кол-во } 0

${вариант.имя}

-1 ? ‘активный’: », isOptionGreyedOut (вариант, вариант)? ‘v-chip—grey’: »]» @click=»selectOption(вариант, вариант)» > ${ option.value == ноль? ‘Н/Д’ : option.value }

Предметы

-1 ? ‘активный’ : »]» @click=»selectItem(item)»> ${элемент.описание}

Сведения о продукте

${getProductId()}

${getCondition()}

${product. brand.name}

${product.model}

${getSpecToDisplayByCategoryAttribute}

${ _getVar(комбинация, ‘custom_description’) }

${ _getVar(комбинация, ‘дополнительные_примечания’) }

Сведения о доставке

${ getWarehouses().map(s => s.address + ‘, ‘ + s.city + ‘, ‘ + s.state).join(‘ / ‘) }

Весь мир

Санкционированные регионы

${combination.weight} lbs

${combination.length} x ${combination.width} x ${combination.height}

Трансформатор напряжения Тоги ТРх2К-21С 1 кВА 200/210/220 В переменного тока 100/105/110 В переменного тока

$170,08

Square D 9070TF50D1 Трансформатор напряжения 0,05 кВА 220/230/460 В переменного тока 110/115/120 В переменного тока

$161,80

Трансформатор напряжения Ph350MQMJ 250 ВА 220/230/240 В переменного тока 110/115/120 В переменного тока

128,62 доллара США

Square D 9070T50D1 Трансформатор напряжения 0,05 кВА 220/230/240 В переменного тока 110/115/120 В переменного тока

$59,49

Трансформатор Toyogiken TRh2.
5K-21S 1-1/2 кВА 200/210/220 В переменного тока 100/105/110 В переменного тока

245,68 долларов США

Gomi Electric E2565-254-509 Трансформатор 1 фаза 880 ВА 200/220 В переменного тока 100/110 В переменного тока

$89,53

Трансформатор Shimizu Electronics NWBS-V750D 750 ВА 200/220 В переменного тока 100/110 В переменного тока

126,55 долларов США

Ph350MQMJ 250 ВА 240–480/230–460/220–440 В переменного тока 120/115/110 В переменного тока Трансформатор

$91,71

Трансформатор напряжения Micron B100BTZ13JK 100 ВА 240/480 В переменного тока 110/115/120 В переменного тока

$62,06

Chuo Electric BK0-R8424 Трансформатор напряжения 3 фазы 2 кВА 180-220 В переменного тока 110 В переменного тока

196,37 долларов США

Сначала вам нужно будет войти в свою учетную запись
Нет учетной записи? Вы всегда можете создать его за несколько секунд.
Это бесплатно!

Войти

Зарегистрироваться

TT-SRN: Платформа сегментации экземпляров видео на основе Transformer | by Can Kocagil

Совместное обнаружение объектов, сегментация экземпляров, отслеживание объектов и классификация в области видео

Пример предсказания TT-SRN на произвольном тестовом видео. Мы намерены указать на окклюзии, вариации точки обзора, систематические артефакты на перекрывающихся объектах и ​​масштаб экземпляров. От левого верхнего угла до правого нижнего угла визуальные эффекты представляют собой последовательные предсказания нашей модели. (Изображение автора)

У вас есть 5 секунд, скажите, что такое ТТ-СРН?

«F ast, простой, но точный модуль сегментации экземпляров видео на основе преобразователей»

Сегментация экземпляров видео (VIS) — это недавно представленное исследование компьютерного зрения, направленное на совместное обнаружение, сегментацию и отслеживание экземпляров в видео домен. В последних методах предложены очень сложные и многоступенчатые сети, которые практически непригодны для использования. Следовательно, на практике необходимо использовать простые, но эффективные подходы. Чтобы восполнить этот пробел, мы предлагаем сквозной модуль сегментации экземпляров видео на основе преобразователя с синусоидальными репрезентативными сетями (SRN), а именно TT-SRN для решения этой проблемы. TT-SRN рассматривает задачу VIS как задачу прогнозирования прямой последовательности на одном этапе, что позволяет нам объединять временную информацию с пространственной. Набор функций видеокадра извлекается с помощью двойных преобразователей, которые затем распространяются на исходный преобразователь для создания набора прогнозов экземпляров. Полученная информация об уровне экземпляра затем передается через модифицированные SRN для получения идентификаторов классов и ограничивающих рамок на уровне конечного экземпляра, а также трехмерных сверток с автоматическим обслуживанием для получения масок сегментации. По своей сути TT-SRN представляет собой естественную парадигму, которая обрабатывает сегментацию и отслеживание экземпляров посредством обучения по сходству, что позволяет системе производить быстрый и точный набор прогнозов. TT-SRN обучается от начала до конца с глобальными потерями на основе набора, которые обеспечивают уникальные прогнозы посредством двустороннего сопоставления. Таким образом, общая сложность конвейера значительно снижается без ущерба для качества масок сегментации. Впервые проблема VIS решается без неявных архитектур CNN благодаря двойным преобразователям, что является одним из самых быстрых подходов.

Наш метод можно легко разделить на подкомпоненты для создания отдельных масок экземпляров и ограничивающих рамок, что сделает его единым подходом для многих задач машинного зрения. Мы сопоставляем наши результаты с набором данных YouTube-VIS, сравнивая базовые показатели конкурентов, и показываем, что TT-SRN значительно превосходит базовую модель VIS.

Code & Paper доступен по адресу:

GitHub — cankocagil/TT-SPN: TT-SPN: Twin Transformers with Sinusoidal Representation Networks for…

Сегментация экземпляров видео — это недавно представленное исследование компьютерного зрения, направленное на совместное обнаружение…

github.com

Обнаружение объектов на уровне изображения и сегментация изображений версия TT-SRN:

GitHub — cankocagil/TT -SPN—Object-Detection: версия TT-SPN для обнаружения объектов.

0008

1. Введение в сегментацию экземпляров видео

Сегментация на основе экземпляров и обнаружение объектов на изображениях и видео являются фундаментальными проблемами в контексте компьютерного зрения. В отличие от сегментации экземпляров изображения, новая задача направлена ​​на одновременное обнаружение, сегментацию и отслеживание экземпляров объектов в видео [31]. Впервые он представлен в статье о сегментации экземпляров видео [31] с новым алгоритмом под названием Mask-Track R-CNN. Сегментация экземпляров видео является важной задачей для пространственно-временного понимания в области видео с приложениями для редактирования видео, автономного вождения, отслеживания пешеходов, дополненной реальности, зрения роботов и многого другого. Поскольку для этого требуется как сегментация, так и отслеживание, это более сложная задача по сравнению с сегментацией экземпляра на уровне изображения. Кроме того, это помогает нам кодировать пространственно-временные необработанные данные в осмысленные идеи вместе с видео, поскольку оно имеет более богатый контент по сравнению с визуально-пространственными данными. С добавлением временного измерения в наш процесс декодирования мы дополнительно получаем информацию о движении, изменениях точки обзора, освещении, окклюзиях, деформациях и локальных неоднозначностях из видеокадров. Таким образом, сегментация экземпляров видео приобрела популярность как область исследований, и в последнее время она привлекает сообщество к исследованиям для понимания видео.

Пример прогноза TT-SRN (изображение автора)

Современные подходы разработали очень сложные архитектуры с несколькими сетями и в основном были основаны на ориентированных на человека подходах к постобработке (например, NonMaximum Suppression) для получения высокой -качественные маски сегментации и ограничивающие рамки. Как правило, для решения задачи VIS предлагаются подходы, основанные на отслеживании путем обнаружения (подходы «сверху вниз») [31, 3, 5] или пространственно-временной встроенной кластеризации [6] (подходы «снизу вверх»). В нисходящих подходах создаются маски сегментации экземпляров на уровне изображения, а затем связываются во временном измерении с помощью сложных правил, созданных вручную, для продвижения пространственных прогнозов к пространственно-временным прогнозам, которые усложняют процесс декодирования и делают их практически непригодными для использования. Принимая во внимание, что в восходящих методах пиксели уровня экземпляра в формациях группируются в пространственно-временном пространстве встраивания с неперекрывающимися областями, которые в значительной степени основаны на качестве плотного прогнозирования [6] и требуют нескольких сетей для получения конечных результатов VIS. Следовательно, очень желательны простые, но эффективные, одноэтапные, практически применимые и сквозные обучаемые подходы.

Общий трубопровод ТТ-СРН. Учитывая видеокадры, набор характеристик изображения извлекается двойным преобразователем, а затем передается классической архитектуре преобразователя для получения прогнозов на уровне экземпляра. Затем эти прогнозы передавались в отдельные ветви SRN для создания набора идентификаторов классов, доверительных интервалов, ограничивающих рамок и самообслуживаемых сверток для получения масок сегментации. Общие прогнозы следуют порядку кадров видео. (Изображение автора)

В этой статье мы предлагаем новый подход, а именно TTSRN, чтобы уменьшить общую сложность конвейера без ущерба для скорости прогнозов и их качества для получения результатов VIS. Общий конвейер показан на рисунке 1. Для видеокадров набор характеристик изображения извлекается с помощью двойного преобразователя, а затем передается в классическую архитектуру преобразователя для получения прогнозов на уровне экземпляра. Эти прогнозы затем передавались в отдельные ветви SRN для создания набора идентификаторов классов, доверительных интервалов, ограничивающих рамок и модулей автоматической свертки для получения масок сегментации. По сути, все подзадачи ВИС (классификация, обнаружение, сегментация и отслеживание) являются связанными задачами. Следовательно, выходные данные одной задачи могут предоставить важную информацию для другой задачи, которая будет взаимно способствовать всем подмодулям. Понимая это, TT-SRN также облегчается парадигмой обработки подзадач в одном модуле. В то же время, поскольку нет разработанных человеком правил для всех отдельных задач VIS, качество функций на уровне экземпляра является еще одной важной частью TT-SRN, которая достигается с помощью модуля двойного преобразователя. Двойной преобразователь — современная архитектура, основанная на пространственно-ориентированных преобразователях зрения и недавно предложенная в статье [9].]. Из публикации о классических преобразователях в контексте НЛП [28] трансформаторы де-факто помещены как метод для различных задач НЛП (например, машинный перевод и задачи последовательного преобразования).

Трансформаторы зрения впервые предложены в статье [11] и демонстрируют возможности преобразователей в контексте компьютерного зрения. Однако проблема заключалась в вычислительной сложности, которая квадратична размеру изображения. Для подавления предлагаются различные преобразователи зрения и демонстрируется, что тщательно разработанные механизмы глобального и локального внимания могут превзойти классические архитектуры CNN в задачах плотного прогнозирования [11, 27, 9].]. Обходной путь — это локально сгруппированное внимание к себе (или внимание к себе в неперекрывающихся окнах, как в недавнем Swin Transformer [20]), где ввод пространственно группируется в неперекрывающиеся окна, а стандартное внимание к себе вычисляется. только в пределах каждого подокна [9]. Даже преобразователи Swin уменьшают общую вычислительную сложность, они не могут устанавливать связи между непересекающимися областями с помощью внимания. Чтобы преодолеть это, в статье [9] предложены двойные трансформаторы, которые вводят пространственно разделяемое собственное внимание (SSSA), чтобы облегчить эту проблему. SSSA состоит из локально сгруппированного внимания к себе (LSA) и глобального субдискретизированного внимания (GSA) [9].]. Мы обнаружили, что функции уровня экземпляра, создаваемые двойными трансформаторами, сильно оптимизированы по сравнению с их аналогами в обычных CNN.

Здесь мы также вводим модифицированные сети синусоидального представления для задач классификации и обнаружения объектов. Сети синусоидального представления предложены в статье [25] и демонстрируют, что неявно определенные, непрерывные, дифференцируемые представления сигналов, параметризованные нейронными сетями, стали мощной парадигмой, предлагающей множество возможных преимуществ по сравнению с обычными представлениями [25]. Они вводят функции периодической активации 2 для неявных нейронных представлений и демонстрируют, что эти сети, получившие название сетей синусоидального представления или SIREN, идеально подходят для представления сложных естественных сигналов и их производных [25]. В этой статье мы адаптировали архитектуру SIREN для задач плотного прогнозирования и модифицировали ее для повторного использования для прогнозирования ограничивающей рамки и идентификатора класса. Наши модифицированные сети SRN состоят из нескольких слоев SIREN с отсевами. В качестве последнего слоя SRN размещается полносвязный слой с нелинейностью GELU [15] для получения конечных результатов. Предлагаемая архитектура SRN изображена на рисунке 2. Сегментация и отслеживание экземпляров — другие важные аспекты задачи VIS.

«Для выполнения естественной, эффективной и взаимоисключающей сегментации и отслеживания» мы адаптировали модуль сопоставления и отслеживания последовательностей экземпляров из VisTR [29]. «Сопоставление последовательности экземпляров выполняет сопоставление двудольного графа между выходной последовательностью экземпляров и последовательностью экземпляров, и контролирует последовательность, которая однозначно назначает прогнозы и их аннотации» [29].

Таким образом, TT-SRN может напрямую сохранять порядок предсказаний [29]. «Сегментация последовательности экземпляров накапливает функции маски для каждого экземпляра в нескольких кадрах посредством самоконтроля и сегментирует последовательность маски для каждого экземпляра с помощью трехмерных сверток для получения конечных результатов» [29].].

Наши основные вклады резюмируются следующим образом.

  • Мы предлагаем высокоэффективный модуль сегментации экземпляров видео, построенный на основе машинного зрения и классических преобразователей с синусоидальными репрезентативными сетями, который рассматривает задачу VIS как сквозную задачу прогнозирования множества.
  • Насколько нам известно, впервые проблема сегментации экземпляра видео решается без каких-либо неявных архитектур CNN, вместо этого в качестве генератора функций на уровне экземпляра используются преобразователи зрения (например, двойные преобразователи).
  • Без какого-либо вязания TT-SRN является одним из самых быстрых методов, поскольку работает со скоростью 55,3 кадров в секунду и обеспечивает конкурентоспособную точность на YouTube-VIS на уровне 39,3 % mAP, значительно превосходя базовую модель VIS.

В литературе встречаются различные подходы к решению задачи сегментации видеоэкземпляров, так как ее часто считают многоэтапной задачей, т.е. компоненты сегментации/обнаружения и отслеживания обрабатываются на разных этапах. Однако в недавних исследованиях были предложены одноэтапные, простые, эффективные в вычислительном отношении методы решения проблемы, хотя производительность одноэтапных подходов не превосходит многоэтапные подходы. Следовательно, сообщество исследователей компьютерного зрения расширяет работу, проделанную в статье [31], предлагая либо вариант Mask-Track R-CNN, либо новые подходы к задачам сегментации экземпляров видео. STEm-Seg — еще один новый алгоритм для этой задачи, и, в частности, они моделируют видеоклип как единый трехмерный пространственно-временной объем и предлагают новый подход, который сегментирует и отслеживает экземпляры в пространстве и времени за один этап [1].

Аннотации и прогнозирование данных VIS [31]

Затем Chung-Ching Lin et. al. предложил алгоритм отслеживания сегментации на основе вариационного автоматического кодировщика для задачи сегментации экземпляра видео, поскольку он создает общий кодировщик и три параллельных декодера, что дает три непересекающихся ветви для предсказания будущих кадров, полей обнаружения объектов и масок сегментации экземпляра [16]. Чтобы облегчить исследование проблемы, Jiale Cao et al. предложили еще один одноэтапный новый алгоритм под названием SipMask, который сохраняет специфичную для экземпляра пространственную информацию путем разделения предсказания маски экземпляра на разные подобласти обнаруженной ограничивающей рамки. 6]. Затем VisTR предлагается как одноступенчатая архитектура VIS на основе преобразователя, которая рассматривает задачу VIS как прямую сквозную задачу декодирования/прогнозирования параллельной последовательности [29].]. Часть нашей работы адаптирована из модуля VisTR. Если быть точным, мы интегрировали их модуль сопоставления последовательности экземпляров и модуль сегментации, чтобы контролировать и сегментировать экземпляры как завершенные. Сопоставление последовательностей экземпляров выполняет сопоставление двудольного графа между выходной последовательностью экземпляров и последовательностью экземпляров, и контролирует TT-SRN, поэтому TT-SRN изучает сходство между экземплярами [29]. Модуль сегментации последовательности экземпляров выполняет самостоятельные трехмерные свертки для изучения сходства на уровне пикселей. Следовательно, существуют различные подходы к решению задач сегментации на уровне экземпляров временной области. Здесь, в этой работе, мы предлагаем наш подход к решению проблемы сегментации экземпляров видео, поскольку мы рассматриваем ее как прямой набор задач прогнозирования. Даже концепцию сегментации экземпляров видео можно классифицировать как новую задачу, в литературе исследователями рассматриваются различные похожие проблемы, такие как сегментация экземпляров на уровне изображения, обнаружение видеообъектов, отслеживание видеообъектов и сегментация видеообъектов. Кратко опишем подобные задачи следующим образом.

2.1. Сегментация экземпляра на уровне изображения

Сегментация экземпляра не только группирует пиксели в разные семантические классы, но также группирует их в разные экземпляры объекта [12]. Обычно используется двухэтапная парадигма, которая сначала генерирует предложения объектов с использованием сети региональных предложений (RPN), а затем прогнозирует ограничивающие рамки и маски объектов с использованием агрегированных функций RoI [12]. В нашем случае мы не только генерируем маски сегментации для отдельных лиц, но и связываем их в видеорядах.

Пример сегментации экземпляра (https://www.researchgate.net/figure/Instance-segmentation-in-a-open-set-environment-Our-method-segments-all-image-regions_fig1_325557020)

2.2. Обнаружение видеообъектов

Обнаружение видеообъектов направлено на обнаружение объектов в видео, что впервые предложено как часть визуальной задачи ImageNet [24]. Даже ассоциация и обеспечение идентичности улучшают качество обнаружения, эта проблема ограничена пространственно сохраненными метриками оценки для обнаружения для каждого кадра и не требует совместного обнаружения и отслеживания объектов [31]. Однако в нашем случае мы стремимся к совместному обнаружению, сегментации и отслеживанию, а не к задаче обнаружения видеообъектов.

Пример обнаружения видеообъектов (https://miro.medium.com/max/840/1*tQ9PotwEr93jwFte56U8aA.gif)

2.3. Отслеживание видеообъектов

Задача отслеживания видеообъектов обычно рассматривается как подходы отслеживания на основе обнаружения и без обнаружения. В алгоритмах отслеживания, основанных на обнаружении, объекты обнаруживаются и отслеживаются совместно, так что часть отслеживания улучшает качество обнаружения, тогда как в подходах без обнаружения нам дается начальная ограничивающая рамка, и мы пытаемся отслеживать этот объект по видеокадрам [26, 31]. . Поскольку подходы, основанные на обнаружении, аналогичны нашему случаю, для сегментации экземпляров видео требуются маски временной сегментации. Следовательно, в отличие от предыдущих фундаментальных задач компьютерного зрения, сегментация экземпляров видео требует междисциплинарных и агрегированных подходов.

Пример отслеживания видеообъектов (https://i2.wp.com/github.com/yehengchen/video_demo/raw/master/video_demo/TownCentreXVID_output.gif?w=450&ssl=1)

2.4. Сегментация экземпляров видео

Поскольку задача сегментации экземпляров видео находится под наблюдением, для нее требуются ориентированные на человека высококачественные аннотации для ограничивающих рамок и масок бинарной сегментации с предопределенными категориями. Пусть Ci — категории объектов, принадлежащие набору данных D для i = 1, …, K, где K — количество уникальных категорий, включая фон в D. Тогда пусть B ti j и S ti j — j-я ограничивающая рамка и бинарная маска для объекта j th ∈ C1,…, CK в видеокадре ti ∈ T, где T представляет количество кадров в данной видеопоследовательности. Предполагая, что на этапе вывода алгоритм VIS выдает N ∈ C1, …, гипотезу экземпляра CK, такую, что H ti Nj представляет прогноз для N-го j-го экземпляра и t-й раз, созданный VIS. Следовательно, H ti Nj включает показатель достоверности s ti j ∈ [0, 1] как вероятность идентификации экземпляра с заранее определенной категорией, ˆB ti j и ˆS ti j. Следовательно, мы пытаемся свести к минимуму созданные человеком аннотации и выдвинутые гипотезы, поскольку это требует быстрых и оптимальных оценок обнаружения, отслеживания и сегментации.

Пример сегментации экземпляра видео (изображение автора)

Мы предлагаем сквозной модуль сегментации экземпляра видео на основе преобразователя с синусоидальными сетями представления (SRN), а именно TT-SRN, для решения задачи VIS. Наш метод, TT-SRN, рассматривает задачу VIS как прямой набор задач прогнозирования в одном состоянии, что позволяет нам объединять временную информацию с пространственной информацией. Набор функций видеокадра извлекается двойными преобразователями, которые затем распространяются на исходный преобразователь для создания последовательности предсказаний экземпляров. Эта созданная преобразователями информация на уровне экземпляра затем передается через модифицированные сети синусоидального представления для получения идентификаторов классов и ограничивающих рамок на уровне конечного экземпляра, а также самообслуживаемые трехмерные свертки для получения масок сегментации. По своему внутреннему механизму TT-SRN представляет собой естественную структуру, которая обрабатывает отслеживание и сегментацию посредством обучения по сходству, что позволяет системе производить быстрый и точный набор прогнозов. Алгоритм сопоставления последовательностей экземпляров адаптирован из [29] для отслеживания экземпляров в видеокадрах. TT-SRN обучается от начала до конца с глобальными потерями на основе набора, которые обеспечивают уникальные прогнозы посредством двустороннего сопоставления. Таким образом, общая сложность конвейера значительно снижается без ущерба для качества масок сегментации. Впервые проблема VIS решается без неявных архитектур CNN благодаря двойным преобразователям, которые являются одним из самых быстрых подходов. Наш метод можно легко разделить на подкомпоненты для создания отдельных масок экземпляров и ограничивающих рамок, что сделает его единым подходом для многих задач машинного зрения. В этом разделе TT-SRN разделен на подмодули, и подробно описаны.

3.1. Twin Transformers

Недавно в статье [9] были предложены близнецы, демонстрирующие, что пространственно ориентированные преобразователи зрения могут превзойти классические CNN [9]. Здесь мы интегрировали сеть Twins-SVT в наш корпус для создания функций уровня экземпляра. Их двойной преобразователь основан на пространственно-разделимой сети само-внимания (SSSA), которая состоит из локально сгруппированного само-внимания (LSA) и глобального субдискретизированного внимания (GSA) [9]. Благодаря пространственно разделяемому модулю качество функций значительно повышается. В подразделах мы подробно опишем модуль SSSA.

3.1.1 Локально сгруппированное собственное внимание (LSA)

В LSA двухмерные карты объектов разделены на подокна, которые позволяют выполнять самостоятельный поиск в каждом подокне. Карты объектов разделены на подокна m x n, что приводит к тому, что каждые 4 окна состоят из HW mn элементов, где H, W представляют размеры изображения. При разделении изображения на области m x n вычислительные затраты уменьшаются с O(H²*W²*d) до O(H²*W²/(m*n)*d), где d — размер собственного внимания. В этот момент мы не делали никакого дальнейшего отношения к неперекрывающимся областям в окнах. Следовательно, здесь в игру вступает модуль GSA.

Архитектура синусоидальных сетей представления. Он состоит из двух слоев SIREN с одним дополнительным полносвязным слоем с активацией GELU. (Изображение автора)

3.1.2 Глобальное субдискретизированное внимание (GSA)

Поскольку нам нужна дальнейшая локализация в механизме само-внимания, глобальное само-внимание необходимо для установления соединений в непересекающихся областях. В модуле GSA один репрезентативный ключ в формациях из локально посещаемых окон используется для вычисления глобального внимания. Однако при вычислении глобального внимания стоимость вычислений увеличится до O(H²*W²*d). Чтобы предотвратить это, локально посещаемые функции подвергаются подвыборке с помощью среднего пула, сверток с глубоким шагом и обычных сверток с шагом. Результаты показывают, что регулярные шаговые свертки работают лучше всего [9].]. Математически модуль SSSA выполняет следующие вычисления.

для i = 1, …, m и j = 1, …n, где LSA обозначает локально сгруппированное внимание к себе, GSA обозначает глобальное внимание с субдискретизацией, FFN обозначает сеть с прямой связью, а LayerNorm обозначает уровень нормализации уровня [2]. Оба модуля внимания выполнялись многоголовым способом.

Архитектура Twin Transformers [9]

3.2. Classical Transformers

Классическая архитектура преобразователя с 6 уровнями кодировщиков, 6 уровнями декодеров, с активацией GELU [15] адаптирована для выполнения генерации запросов по экземплярам. Результатом классического преобразователя являются предложения экземпляров плюс дополнительные запросы без объектов. Использование преобразователя очень похоже на то, что используется в модели обнаружения объектов DETR [7]. Во время обучения выполняется двудольное сопоставление, чтобы контролировать модель, однозначно назначая прогнозы с истинными основаниями. Прогноз без совпадения должен давать прогноз класса «без объекта», поэтому количество запросов экземпляров должно быть больше, чем количество экземпляров в видеокадрах. По своей сути преобразователь состоит из структуры кодера и декодера, которая обсуждается в следующих подразделах.

3.2.1 Пространственно-временное позиционное кодирование

Поскольку архитектура преобразователя инвариантна к перестановкам, пространственно-временное позиционное кодирование необходимо для моделирования точной информации о местоположении. Пространственно-временное позиционное кодирование основано на синусоидальных волнах и представляет собой трехмерную версию классического позиционного кодирования. Наше позиционное кодирование имеет 3 разных измерения: временное, горизонтальное и вертикальное. Пусть d является конечной размерностью кодирования положения объединенного канала, тогда мы независимо использовали d/3 синусоидальных функций с разными частотами следующим образом 9(2*k/ (d/3)), pos — позиция в этом измерении. (NxLxHxW), где N — размер пакета, L — скрытый размер, H и W — высота и ширина выходных данных одного сверточного слоя. Обратите внимание, что временной порядок сохраняется в соответствии с порядком ввода. Каждый уровень кодировщика, как обычно, выполняет многосторонний механизм самоконтроля.

3.2.3 Преобразователь-декодер

Затем последовательность закодированных признаков проходит через уровень преобразователя-декодера для создания последовательности предсказаний запроса экземпляра. На этом уровне последовательность обучаемых запросов экземпляра также передается на уровень декодера. Запросы экземпляров представляют собой фиксированное количество входных вложений, представляющих общее количество прогнозов экземпляров. Количество запросов экземпляров всегда больше, чем количество экземпляров в образе, чтобы быть в безопасности. Двудольное сопоставление выполняет назначение экземпляров уникальным образом, открытые прогнозы называются «запросами без объектов». Например, предположим, что мы производим предсказание n_t экземпляров в кадре t, тогда пусть q будет размером общих запросов экземпляров, так что q > n_t во всех кадрах.

3.3. Синусоидальные репрезентативные сети

Синусоидальные репрезентативные сети — недавно предложенный в статье [25] метод обучения представлению. Синусоидальные слои состоят из полносвязных слоев со своей уникальной инициализацией, введенной в работе [25] синусоидальным активационным слоем. Общая архитектура изображена на рисунке 2. В этой работе мы изменили их архитектуру для нашего случая, добавив внутренние отсевающие слои между синусоидальными слоями с конечной нелинейностью GELU [15] для создания конечных функций на уровне экземпляра. Эти конечные функции затем распространяются на ветви классификации, обнаружения ограничивающей рамки и сегментации экземпляров. Мы поняли, что периодические активации для неявных нейронных представлений и продемонстрировали, что эти сети, получившие название сетей синусоидального представления или SIREN, идеально подходят для задач плотного прогнозирования. N_i=1 множество N предсказаний. Наша потеря дает оптимальное двудольное соответствие между предсказаниями и истинной реальностью. Чтобы вычислить двудольное соответствие между двумя наборами, вычисляется следующая минимизация.

, где L_match(y_i, y_σ˜(i) ) — стоимость сопоставления по экземпляру между истинной истиной и предсказанием. Эта задача о назначениях вычисляется с помощью венгерского метода, который представляет собой алгоритм комбинаторной оптимизации, решающий задачу о назначениях за полиномиальное время [7]. Процедура сопоставления учитывает как предсказания классов, так и сходство предсказанных и наземных полей истинности. Пусть каждый элемент i аннотации обозначается как y_i = (c_i, b_i), где ci целевой класс, а bi — вектор, обозначающий нормализованные координаты наземной истины. Эти координаты организованы как центр, высота и ширина, и они относятся к размеру изображения. Тогда для предсказания с индексом σ(i) пусть ˜p_σ(i)(ci) обозначает вероятность класса, а ˜b_σ(i) — предсказанное поле. Следовательно, мы можем определить Lmatch(y_i, y_σ˜(i)) следующим образом.

Эта процедура контролирует модель и играет важную роль в процессе эвристического назначения. В классических задачах обнаружения объектов или сегментации экземпляров (например, Mask RCNN [13]) эти процедуры являются аналогами предложения сопоставления или привязываются к основным истинам. Существенно отличаясь от классических подходов, двудольное сопоставление присваивает однозначно. На этом этапе мы присвоили прогнозам их основные истины, поэтому нам нужно вычислить потери, в нашем случае венгерские потери для всех совпадающих пар. Учитывая однозначное назначение, венгерская потеря вычисляет потерю как линейную комбинацию отрицательного логарифмического правдоподобия для предсказания класса, поля и потери маски для последовательности экземпляров следующим образом.

, где σ˜ — предварительно вычисленное оптимальное назначение. Эта потеря используется для сквозного обучения модели. Далее нам нужно определить L_box и L_mask. L_box вычисляется аналогично DETR [7] следующим образом.

, где λ_IoU и λ_L1 — гиперпараметры. Обратите внимание, что потери нормированы с количеством экземпляров внутри кадра.

3.5. Сегментация последовательности экземпляров

Другой важный аспект TT-SRN, а именно модуль сегментации последовательности экземпляров, адаптирован из статьи [29].] для создания конечных масок сегментации. Внутри этот модуль накапливает экземпляры признаков кадров, затем выполняется сегментация этих накопленных признаков. Для каждого кадра прогнозы экземпляров, собранные уровнем конечного декодера преобразователя, и закодированные признаки преобразователя, собранные уровнем конечного кодировщика преобразователя, проходят через модуль внутреннего внимания. Эти посещаемые функции затем объединяются с функциями, собранными двойным преобразователем, и закодированными функциями, сгенерированными конечным кодировщиком преобразователя. Эта процедура очень похожа на VisTR [29]. (1xCxTxtHxW), где C — размерность канала, T — временная размерность, H и W — размеры пространственных признаков, которые вводятся в трехмерный сверточный слой с групповой нормализацией [30] и нелинейностью GELU [15]. На конечном слое один сверточный слой имеет 1 размер выходного канала для получения масок сегментации. Наконец, нам нужно определить Lmask для завершения функции потерь. L_mask вычисляется путем объединения игральных костей [22] и фокальных потерь [18] следующим образом.

В этом разделе мы демонстрируем наши результаты на наборе данных YouTubeVIS [31]. YouTube-VIS — это большой и масштабируемый набор данных, состоящий из 2883 видеороликов YouTube с высоким разрешением, 2238 обучающих видеороликов, 302 проверочных видеороликов и 343 тестовых видеороликов. Набор меток категорий состоит из 40 обычных объектов, таких как люди, животные и транспортные средства, а также 4883 уникальных видеоэкземпляров, которые содержат 131 тыс. высококачественных аннотаций, ориентированных на человека. Поскольку оценка набора тестов закрыта, результаты оценки основаны на наборе проверки. 4.1.

4.1 Детали реализации

Мы унаследовали гиперпараметры, используемые в сдвоенных трансформаторах [9] для первой ступени TT-SRN. Следовательно, размер встраивания выбран равным 64, размер патча 4, размер локального патча 7 и глубина 1. В том же порядке гиперпараметры второй ступени двойного трансформатора равны 128, 2, 7, 1. Для третий этап, 256, 2, 7, 5 выбраны в качестве гиперпараметров третьего этапа. На заключительном этапе размер встраивания равен 512, размер патча равен 2, размер локального патча равен 7, а глубина равна 4. Здесь глубина означает количество блоков трансформаторов, описанных в разделе двойного трансформатора. Пожалуйста, обратитесь к рисунку ??. Скрытый размер одного сверточного слоя выбран равным 256. В классическом преобразователе имеется 6 слоев кодировщика и 6 слоев декодирования с размером мультиголовки 8. Внутренняя активация блока преобразователя — GELU [15] во всех кодировщиках. декодеры. На этапе SRN вероятность отсева выбрана равной 0,2. Все уровни SRN инициализируются с помощью своей специальной схемы инициализации, описанной в статье [25]. Тогда наибольшее число длины аннотированного видео в YouTube-VIS равно 36 [31], это значение мы выбираем в качестве входной длины видео. Таким образом, для объединения разных клипов из одного видео не требуется никакой постобработки. Таким образом, наша модель полностью обучаема за один этап. Поскольку наша модель предсказывает 10 объектов на видеокадр, мы устанавливаем номер запроса равным 360. TT-SRN реализован через PyTorch 1.8 [23]. Благодаря простым строительным блокам TT-SRN можно обобщать и масштабировать для других сред и задач машинного зрения. Мы также предоставляем отдельную версию TT-SRN для сегментации экземпляров и обнаружения объектов на странице нашего проекта.

Таблица 1: Сегментация экземпляров видео mAP (%) результаты на YouTube-VIS [31]. Результаты получены из их статей.

На этапе обучения мы оптимизировали все слои с помощью AdamW [21], начиная со скорости обучения 1e-4 и затухания 0,1 за 3 эпохи. TT-SRN обучается с 18 эпохами и размером пакета, выбранным равным 16. Веса классического преобразователя инициализируются из DETR [7], предварительно обученного в COCO [19]. Все видеокадры нормализованы по среднему значению ImageNet и стандартному отклонению для каждого канала. Затем размер всех видеокадров изменяется до 300 x 540, чтобы соответствовать графическому процессору. В качестве аугментации видеоданных мы использовали только случайное горизонтальное переворачивание с вероятностью 0,5. TT-SRN обучается на одном графическом процессоре Tesla K80 с 8 ГБ ОЗУ в течение 5 дней.

На этапе вывода в архитектуре TT-SRN нет изменений. Следовательно, формы обучения и вывода нашей модели полностью совпадают. Кроме того, нет необходимости в ручной постобработке для связывания экземпляров в видеокадрах. Мы устанавливаем порог для сохраненных экземпляров, оценка которых выше определенного порога, чтобы получить конечный результат. Мы устанавливаем этот порог равным 0,6. Были некоторые экземпляры, идентифицированные как разные классы в видеокадрах. В то время мы используем наиболее часто прогнозируемую категорию.

4.2 Метрики оценки

Оценки выполняются со стандартными метриками оценки при сегментации экземпляра изображения с модификациями, адаптированными к нашей новой задаче [31]. В частности, метриками 8 являются средняя точность (AP) и средняя полнота (AR) [31] при различных условиях. AP определяется как площадь под кривой точности-отзыва [31]. Оценка достоверности используется для построения кривой. AP усредняется по нескольким пороговым значениям пересечения над объединением (IoU) [31]. Средний отзыв описывает площадь, удвоенную под кривой Recall-IoU. В качестве условного AP и AR мы следуем процедуре оценки COCO, поскольку она требует порогов 10 IoU от 50% до 9.5% на шаге 5%. Поскольку мы находимся в области видео, нам необходимо учитывать временную согласованность в наших оценках, например, даже если модель производит успешные сегментации, если она не может отслеживать экземпляры, это указывает на плохую производительность. i_t представляет гипотезу.

4.3 Основные результаты

Мы сравнили TT-SRN с другими современными методами в VIS с точки зрения скорости и точности на YouTube-VIS. Поскольку наш метод является одноэтапным и сквозным обучаемым, мы отдаем приоритет сравнению нашего метода с одноэтапными и сквозными обучаемыми подходами. Мы сравнили TTSRN с Mask Track R-CNN [31], MaskProp [3], VisTR [29] и STEm-Seg [1]. Сводка результатов представлена ​​в таблице 1. Без какого-либо вязания TT-SRN является одним из самых быстрых методов, поскольку работает со скоростью 55,3 кадра в секунду на одном графическом процессоре и достигает конкурентоспособной точности на YouTube-VIS как 39..3 % mAP, значительно превосходя базовую модель VIS. По скорости TT-SRN занимает второе место среди современных моделей VIS. Текущим победителем с точки зрения скорости является VisTR [29], поскольку он работает со скоростью 57,7 с магистралью ResNet-101 [14] и со скоростью 69,9 с магистралью ResNet-50 [14]. TT-SRN превосходит текущую базовую модель VIS Mask Track R-CNN, которая работает со скоростью 20,0 кадров в секунду, со значительным отрывом с точки зрения скорости. Этот запас возникает из-за простого механизма TTSRN, основанного на внимании, который требует наименьшего количества шагов для получения прогнозов VIS. Другой конкурентоспособный метод, STEm-seg, работает со скоростью 2,1 кадра в секунду, что крайне непригодно для целей реального времени. Скорость MaskProp не упоминается в их статье [3]. Обратите внимание, что время загрузки и предварительной обработки данных не включено в упомянутые результаты. С точки зрения точности TT-SRN значительно превосходит Mask Track R-CNN, поскольку наша модель достигает 39Оценка mAP составляет 0,3 % в проверочном наборе YouTube-VIS, тогда как Mask Track R-CNN достигает оценки mAP 30,3 %. Этот значительный запас обусловлен структурой TTSRN, которая состоит из современных подходов во всех компонентах. Кроме того, TT-SRN также значительно превосходит STEmseg, поскольку STEm-seg достигает 34,6% показателя mAP с магистралью ResNet-101. Поскольку TT-SRN похож на VisTR, VisTR с магистралью ResNet-101 превосходит TT-SRN на 0,8 % по шкале mAP, тогда как TT-SRN превосходит VisTR с магистралью ResNet-50 на 3,1 % по шкале mAP. Текущий победитель, MaskProp, набирает 46,6% баллов mAP и значительно превосходит TT-SRN. Разрыв между TT-SRN и MaskProp возникает из-за многосетевого дизайна MaskProp, который состоит из сети пространственно-временной выборки [4], сети функциональных пирамид [17], каскадной сети гибридных задач [8] и уточнения маски высокого разрешения. постобработка [3]. Будучи одной из самых простых архитектур VIS, TT-SRN обеспечивает один из самых быстрых и точных результатов среди всех конкурентов. Кроме того, TT-SRN можно легко разделить на подкомпоненты для выполнения отдельных задач VIS, т. е. обнаружения объектов, сегментации экземпляров и классификации. Это делает наш подход простым, унифицированным и работающим в режиме реального времени без ущерба для качества масок экземпляров.

5. Заключение

В этой работе мы предложили сквозной модуль сегментации экземпляра видео на основе преобразователя с синусоидальными сетями представления (SRN), а именно TT-SRN, для решения задачи сегментации экземпляра видео. TT-SRN рассматривает задачу VIS как задачу прогнозирования прямой последовательности в одном состоянии, что позволяет нам объединять временную информацию с пространственной информацией. Для получения высококачественных признаков, извлеченных из видеокадров, мы использовали двойной преобразователь. Классический преобразователь используется для создания последовательности предсказаний экземпляров, которые затем проходят через модифицированные сети синусоидального представления для получения конечных результатов. TT-SRN — это естественная парадигма, которая обрабатывает отслеживание посредством обучения подобия, что позволяет системе производить быстрый и точный набор прогнозов. TT-SRN обучается от начала до конца с глобальными потерями на основе наборов, которые обеспечивают уникальные прогнозы посредством двустороннего сопоставления, что приводит к снижению общей сложности конвейера без ущерба для качества масок сегментации. Впервые проблема VIS решается без использования традиционных архитектур CNN благодаря двойным трансформаторам, что является одним из самых быстрых подходов. Наш метод можно легко разделить на подкомпоненты для создания отдельных масок экземпляров и ограничивающих рамок, что сделает его единым подходом для многих задач машинного зрения. Мы считаем, что сегментация экземпляров видео является важной задачей в области понимания видео и внесет инновации в сообщество исследователей компьютерного зрения. Страница нашего проекта находится по адресу https://github.com/cankocagil/TT-SRN, а отдельная версия TT-SRN для обнаружения/сегментации — по адресу https://github.com/cankocagil/ TT-SRN — -Object-Detection.

[1] А. Атар, С. Махадеван, А. Осеп, Л. Леал-Таикс ˇ e и ´ Б. Лейбе. Stem-seg: Пространственно-временные вложения для сегментации примеров в видео, 2020.

[2] Дж. Л. Ба, Дж. Р. Кирос и Г. Э. Хинтон. Нормализация слоев, 2016.

[3] Г. Бертасиус и Л. Торресани. Классификация, сегментация и отслеживание экземпляров объектов в видео с распространением по маске, 2020 г.

[4] Г. Бертасиус, Л. Торресани и Дж. Ши. Обнаружение объектов на видео с помощью сетей пространственно-временной выборки, 2018.

[5] А. Бьюли, З. Ге, Л. Отт, Ф. Рамос и Б. Апкрофт. Простое онлайн-отслеживание и отслеживание в реальном времени. Международная конференция IEEE по обработке изображений (ICIP), 2016 г., сентябрь 2016 г.

[6] Дж. Цао, Р. М. Анвер, Х. Чолаккал, Ф. С. Хан, Ю. Панг и Л. Шао. Sipmask: Сохранение пространственной информации для быстрой сегментации изображений и видео, 2020.

[7] Н. Карион, Ф. Масса, Г. Синнаев, Н. Усюньер, А. Кириллов, С. Загоруйко. Сквозное обнаружение объектов с трансформаторами, 2020.

[8] К. Чен, Дж. Панг, Дж. Ван, Ю. Сюн, С. Ли, С. Сунь, В. Фэн, З. Лю, Дж. Ши, В. Оуян, К. С. Лой и Д. Лин. Каскад гибридных задач, например сегментация, 2019.

[9] X. Chu, Z. Tian, ​​Y. Wang, B. Zhang, H. Ren, X. Wei, H. Xia и C. Shen. Близнецы: пересмотр дизайна пространственного внимания в преобразователях зрения, 2021.

[10] Дж. Дай, Х. Ци, Ю. Сюн, Ю. Ли, Г. Чжан, Х. Ху и Ю. Вэй. Деформируемые сверточные сети, 2017.

[11] А. Досовицкий, Л. Бейер, А. Колесников, Д. Вайссенборн, X. Жай, Т. Унтертинер, М. Дегани, М. Миндерер, Г. Хейгольд, С. Гелли. , и другие. Изображение стоит 16×16 слов: Трансформеры для распознавания изображений в масштабе. Препринт arXiv arXiv: 2010.11929, 2020.

[12] Б. Харихаран, П. Арбелаез, Р. Гиршик и Дж. Малик. Одновременное обнаружение и сегментация, 2014.

[13] К. Хе, Г. Гкиоксари, П. Доллар, Р. Гиршик. Mask r-cnn, ´ 2018.

[14] K. He, X. Zhang, S. Ren, and J. Sun. Глубокое остаточное обучение для распознавания изображений, 2015.

[15] Д. Хендрикс и К. Гимпель. Линейные единицы ошибки Гаусса (gelus), 2020.

[16] C.-C. Лин, Ю. Хун, Р. Ферис и Л. Хе. Отслеживание сегментации экземпляров видео с измененной архитектурой vae. Материалы конференции IEEE/CVF по компьютерному зрению и распознаванию образов (CVPR), июнь 2020 г.

[17] Т.-Ю. Лин, П. Доллар, Р. Гиршик, К. Хе, Б. Харихаран и С. Белонги. Сети функциональных пирамид для обнаружения объектов, 2017.

[18] Т.-Ю. Лин, П. Гоял, Р. Гиршик, К. Хе и П. Доллар. Фокусные потери при обнаружении плотных объектов, 2018.

[19] Т.-Ю. Лин, М. Мэр, С. Белонги, Л. Бурдев, Р. Гиршик, Дж. Хейс, П. Перона, Д. Раманан, К. Л. Зитник и П. Доллар. ´ Microsoft coco: Общие объекты в контексте, 2015.

[20] Z. Liu, Y. Lin, Y. Cao, H. Hu, Y. Wei, Z. Zhang, S. Lin и B. Guo. Преобразователь Swin: преобразователь иерархического зрения, использующий сдвинутые окна. Препринт arXiv arXiv: 2103.14030, 2021.

[21] И. Лощилов и Ф. Хаттер. Раздельная регуляризация распада веса, 2019.

[22] Миллетари Ф., Наваб Н., С.-А. Ахмади. V-net: Полностью сверточные нейронные сети для сегментации объемных медицинских изображений, 2016.

[23] А. Пашке, С. Гросс, Ф. Масса, А. Лерер, Дж. Брэдбери, Г. Чанан, Т. Киллин, З. . Лин, Н. Гимельшайн, Л. Антига, А. Демезон, А. Копф, Э. Ян, З. Де Вито, М. Рейсон, ¨ А. Теджани, С. Чиламкурти, Б. Штайнер, Л. Фанг, Дж. Бай и С. Чинтала. Pytorch: императивный стиль, высокопроизводительная библиотека глубокого обучения, 2019 г. .

[24] О. Русаковский, Дж. Денг, Х. Су, Дж. Краузе, С. Сатиш, С. Ма, З. Хуанг, А. Карпати, А. Хосла, М. Бернштейн, А. К. Берг и Л. , Фей-Фей. Задача крупномасштабного визуального распознавания Imagenet, 2015.

[25] В. Зицманн, Дж. Н. П. Мартель, А. В. Бергман, Д. Б. Линделл и Г. Ветцштейн. Неявные нейронные представления с периодическими функциями активации, 2020.

[26] J. Son, M. Baek, M. Cho, and B. Han. Отслеживание нескольких объектов с помощью четверных сверточных нейронных сетей. На конференции IEEE 2017 г. по компьютерному зрению и распознаванию образов (CVPR), страницы 3786–379.5, 2017.

[27] H. Touvron, M. Cord, M. Douze, F. Massa, A. Sablayrolles, and H. Jegou. Обучение эффективному использованию данных преобразователей изображений и дистилляции с помощью внимания. Препринт arXiv arXiv:2012.12877, 2020.

[28] А. Васвани, Н. Шазир, Н. Пармар, Дж. Ушкорейт, Л. Джонс, А. Н. Гомес, Л. Кайзер и И. Полосухин. Внимание — это все, что вам нужно, 2017.

alexxlab

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *