Трансформатор тс 160: характеристики, схема подключения, данные обмоток

характеристики, схема подключения, данные обмоток

Автор Andrey Ku На чтение 6 мин Опубликовано

Трансформаторы ТС — 160 (ТС — 170)   по характеристикам сконструированы для питания телевизионных приемников в 60-е годы прошлого века. Конструкция стандартная с расположением первичных и вторичных медных обмоток на магнитопроводе из стали. Рассчитаны на частоту 50 герц.

Технические характеристики

Первичные обмотки рассчитаны для напряжений 110, 17 вольт. Это позволяет подключаться к сети 220 В. При другом соединении выводов возможна работа с 127 В. В годы разработки агрегата как раз менялись стандарты напряжения, кроме того телеприемники шли на экспорт. Максимальный ток проходящий через первичку 0,6 А. Вторичных катушек несколько, все они парные и позволяют реализовать подачу двухполярного питания на различные узлы схемы. Напряжения снимаемые с ТС — 160 следующие:

  • 42 В;
  • 66 В;
  • 6,8 В;
  • 6,9 ВА.

Разновидности агрегата отличаются напряжениями.

Особенности конструкции

Трансформатор собран на броневом разрезном «О» образном сердечнике. Части магнитопровода стыкуются между собой с помощью металлической обоймы, на которой крепятся кронштейны для монтажа. Рассчитан для крепления к шасси телеприемника с помощью четырех винтов.

Трансформаторы с маркировкой ТСШ собираются на наборе пластин в виде буквы «Ш».

Обмотки располагаются на двух картонных полимерных катушках, которые полностью идентичны одна другой. На них наматываются парные первичные и вторичные обмотки. Дополнительная изоляция обеспечивается пропиткой лаком и обматыванием электротехнической бумагой.

Применение

Как уже говорилось выше, трансформатор собирался для телевизоров. Снимаемое напряжение шесть с половиной вольт при 3 А позволяет питать нити накала ламп. Но благодаря широкому диапазону напряжений снимаемых с трансформатора и большой он может использоваться в блоках питания и других устройств, как на лампах (сейчас они снова приобрели популярность), так и на полупроводниках: усилителей мощности, радиоприемников, зарядных устройствах.

Намоточные данные

Обе катушки одинаковы, номера выводов отличаются только знаком «’». который обозначает что провода расположены на второй катушке. Выводы «4» и «4’» соединены с экраном. Намоточные данные следующие.

Трансформатор ТС 160

  • Между выводами 1 и 2 (на второй обмотке они дополнительно обозначаться апострофом) 414 витков провода в лаковой изоляции диаметром 0,68 миллиметров.
  • 2-3 предназначены для 127 вольт (точнее для компенсации разницы: 110+110=220), при параллельном соединении двух намоток плюс 17 как раз дают 127 В. Марка и диаметр тот же самый.
  • Пятый и шестой вывод дают 31, это основные напряжения для узлов схемы обслуживающих низкочастотные усилители.
  • Девять и десять: нити накала ламп. 6,3 В, это стандарт. 3,5 Ампера более чем достаточно.
  • 11-12: Эти обмотки развязаны с более мощными предназначенными для питания ламп. В стандартных схемах от них запутывались только узлы с транзисторами.

Трансформатор ТС — 160-1

Отличается от ТС — 160 тем, что обмотка 11-12 намотана более толстым проводом (0,50 мм) и рассчитана на ток не 0,35 А.

Трансформатор ТС — 160-2

Аналогичен ТС — 160, но не имеет первичек на 17 В. Он рассчитан на работу с напряжением исключительно 220 В.  Также для намотки используется уже не провод ПЭЛ, а ПЭВ. Остальные характеристики аналогичны. Экраны соединены с клеммой — «0».

ТС — 160-3

У ТС — 160-3 снова есть в первичной обмотке катушки на 17 В. Вторичные обмотки связаны между собой и выполнены проводом одинаковой толщины (1,54 мм). Снимают с них напряжения от 2,5; 3,5 и 7 вольт при токе 6 А. Количество витков в них 26, 27 и 250 соответственно.

 ТС —160-4

Отличается увеличенным диапазоном напряжений. Разрабатывался для ЭВМ. Первичная обмотка аналогична ТС — 160-2. Вторичные обмотки следующие.

  • Две по 36 витков на напряжение 9 В. В одной из них используется провод диаметром 0,6 мм, и она рассчитана на ток 0,85А. Вторая из провода 1,8 мм на ток 7 А.
  • 90 витков диаметром 0,19 на напряжение 24 В, ток 0,06А.
  • Конструктивно последовательно соединенные между собой две обмотки на двух катушках по 75 витков ПЭВ 0,65. С них снимаюь38 вольт при 0,85 амперах.

ТСШ — 160

ТСШ — 160 собраны на сердечниках из пластин в виде буквы «Ш». Первичные обмотки рассчитаны на 200 и 30 В. Трансформатор может работать в обычных сетях при экстремальных режимах.

Снять с него можно напряжения нужные для накала ламп (3,2 ампера достаточно для 10-20 таких деталей) так и для анодных линий (133 В).

ТСШ — 170

Является аналогом ТСШ — 160. Несколько отличаются токи, напряжения. Намотка из менее совершенного провода ПЭЛ. Сердечник «ш» – образный.

№ п/п Обозначение выводов Число витков Марка провода Диаметр провода, мм Рабочее напряжение, В Ток, А
1. «1»-«2» 200 ПЭЛ 0,58 110-112 0,60
2. «2»-«3» 30 -//- 0,58 17-19 0,60
3. «4»-«5» 30 -//- 0,58 17-19 0,60
4. «5»-«6» 200 -//- 0,58 110-112 0,60
5. «7»-«8» 139 -//- 0,47 74-80 0,40
6. «9»-«10» 242 -//- 0,55 127-136 0,60
7. «11»-«12» 12,5 -//- 1,25 6,3-6,5 3,20
8. «7»-«7’» 12 -//- 0,51 6,3-5,5 0,30

 ТСШ — 170-3

Отличается от ТСШ — 170 только тем, что отсутствует первичная обмотка на 17 вольт, то есть данный прибор можно подключить только в сеть 220 Вольт.

Схема подключения

Все приборы типа ТС (ТСШ) — 160 (170) подключаются аналогично. Вариант с сетями на 127 В не рассматриваем, так как это напряжение давно не используется в сети.

  • Первичные обмотки на 110 В, согласно приведенной таблице, соединяются последовательно между собой.
  • С вторичных обмоток снимаем необходимое напряжение. Для приборов с двумя катушками серии ТС катушки соединяем параллельно, чтобы увеличить силу тока.
  • Если есть необходимость в двухполярном питании, то вторичные обмотки соединяют последовательно, и от точки их сопряжения выводят нулевой провод.

Важно! При последовательном или параллельном соединении обмоток следите за тем, чтобы не сделать соединение в противофазе.

Варианты схемотехники

Как мы уже говорили, на базе этих трансформаторов есть возможность сделать самостоятельно множество различных устройств. Рассмотрим, как собрать зарядное устройство на базе ТС — 160.

  • К клеммам «1» и «1’» подключаем сетевое питание через выключатель и предохранитель, рассчитанный на ток 0,6 А.
  • Выводы «2» и «2’» соединяем между собой.
  • Также между собой соединяются выводы «10» и «9’». Подключив последовательно эти две обмотки можно получить переменное напряжение 13 В и ток 3, 5 А. Этого вполне достаточно для зарядки аккумуляторов.
  • Напряжение необходимо выпрямить. Для этого к выводам «9» и «10’» подключаем выпрямитель (диодный мост). Можно использовать для него отечественный приборы Д242, Д244 с любым буквенным индексом. Для охлаждения диоды обязательно крепим на радиаторы.
  • Чтобы не производить зарядку пульсирующим током желательно после диодного моста установить конденсатор (или несколько штук параллельно) емкостью не менее 1000 мкФ.

  • Тоже желательно установить амперметр и вольтметр для контроля режима зарядки.
  • Для защиты вторичных обмоток нужен предохранитель на 3,5 ампер или аналогичное ему устройство.
  • Всю конструкцию монтируем в безопасный корпус и оснащаем выходными проводами сечения не менее 3,5 мм с клеммами.

Будем рады, если наша статья оказалась вам интересной и практически полезной. Старая аппаратура это не только вторчермет, но и источник полезных деталей. Работайте с удовольствием…!

ТРАНСФОРМАТОР ТС 160

      Справочные данные трансформаторов серии ТС-160 — ТС-160, ТСШ-160, ТСШ-170, ТСШ-170-3. Фотографии, схема подключения обмоток. Напряжения и токи входных-выходных обмоток, количество витков и диаметр провода. 

   Трансформатор ТСШ-160, аналогичен трансформаторам ТСШ-170, ТСШ-170-3. Выполнены на броневом сердечнике Ш30х60. Все трансформаторы взаимозаменяемые. Разница между ТСШ-170 и ТСШ-170-3, у последнего сетевая обмотка выполнена только на 220 вольт (схема 2 на рисунке 1), выводы первичной обмотки 1 — 2 и дальнейшая нумерация обмоток продолжается с номера 3 (у ТСШ-160, ТСШ-170 с номера 7), то есть если вместо ТСШ-170 ставить ТСШ-170-3, то к лепесткам 3-4 ТСШ-170-3, припаиваются провода, подходящие к лепесткам 7-8 ТСШ-170 и т.д. Напряжение сети 220 вольт у ТСШ-160 и ТСШ-170, подключается к выводам 1 и 6, при этом устанавливается перемычка между выводами 2 и 5. У трансформатора ТСШ-170-3 (схема 2 на рисунке 1) напряжение 220 вольт подключается к выводам 1 и 2.

Схема и моточные данные трансформатора ТС 160-4


Напряжение сети 220 вольт подключается к выводам 1 и 1′.


Схема и моточные данные трансформатора ТС 160-3



Схема и моточные данные трансформатора ТС 160-2


Напряжение сети 220 вольт подключается к выводам 1 и 1′.

Схема и моточные данные трансформатора ТСШ-160



Схема и моточные данные трансформатора ТС-160 и ТС160-1



Originally posted 2019-06-10 00:14:15. Republished by Blog Post Promoter

Трансформатор ТС 160/10/0,4

Оформите заявку на Трансформаторы сухие  серии ТС 160/10/0,4 или ТС 160/6/0,4

Большой выбор трансформаторов серии ТС класса напряжения до 10 кВ. Трехфазные сухие двухобмоточные трансформаторы предназначены для преобразования электроэнергии.

Сухие трансформаторы с воздушно-барьерной изоляцией  имеют класс нагревостойкости H.  Сухие трансформаторы можно использовать с превышением температуры 80ºС и с нагрузкой в 133% от номинальной.

Это приведет к меньшим затратам, нежели затраты, связанные с установкой дополнительного трансформатора.

Данный тип трансформаторов не поддерживает горения и не выделяет токсичного дыма или опасных частиц.

Благодаря использованию сухих трансформаторов с воздушно-барьерной изоляцией можно сократить потери, связанные с передачей электроэнергии, т.к. эти трансформаторы можно размещать рядом с источниками их нагрузки.

Класс нагревостойкости обмоток – H, класс пожаробезопасности — F 1, климатическое исполнение — С 2 и воздействие окружающей среды — Е 2. Гарантийный срок эксплуатации – 2 года, а срок службы – не менее 25 лет.

  • Трансформаторы соответствуют требованиям ГОСТ 11677-85.
  • Режим работы — длительный.
  • Температура окр. среды от -45С до +40С.
  • Относительная влажность воздуха не более 80% при 250С.
  • Номинальное частота — 50 Гц.
  • Схема и группа соединений обмоток Д/Ун-11, У/Ун-0.
  • Степень защиты IР00 (IP 21) по ГОСТ 14234.
  • Рабочее положение трансформатора в пространстве вертикальное.

В СТРУКТУРЕ УСЛОВНОГО ОБОЗНАЧЕНИЯ ТРАНСФОРМАТОРОВ ТС -Х УЗ:

Т — Трехфазный
С(3) — Сухой (в защищенном исполнении)
X — Номинальная мощность, кВА
УЗ — Климатическое исполнение и категория
размещения

Заказать трансформатор ТС 160/10/0,4 или ТС 160/6/0,4 мы можете оставив заявку по форме ниже:

Скачать опросный лист на трансформатор ТС

 

 

Трансформатор тс 160 параметры

Все категории. Пора урожая Товары со скидками Продавать на Shop. Трансформатор сварочный Диолд ТС Характеристики Где купить Добавить отзыв.


Поиск данных по Вашему запросу:

Схемы, справочники, даташиты:

Прайс-листы, цены:

Обсуждения, статьи, мануалы:

Дождитесь окончания поиска во всех базах.

По завершению появится ссылка для доступа к найденным материалам. ПОСМОТРИТЕ ВИДЕО ПО ТЕМЕ: понижающий трансформатор ТС-160 , применение

Трансформатор ТС 160/10/0,4


Мощность кВА. Первичное напряжение номинальное напряжение обмотки ВН. Номинальное напряжение ВН 6 10 кВ:. В таблицах указаны справочные данные. Размеры трансформаторов могут буть изменены по заказу. Номинальное напряжение ВН 35 кВ:. Чертёж общего вида. Преимущества трансформаторов сухих силовых с воздушно — барьерной изоляций производства Группой компаний «Энергия»:. Трансформатор отправляется заказчику упакованным:. Тип упаковки выбирается в зависимости от требований к защите трансформатора, от воздействия климатических факторов внешней среды, способа транспортирования и с учетом конструктивных особенностей изделия.

Табличка технических данных, контактные поверхности вводов и зажимы заземления подвергнуты консервации покрыты консервационной смазкой. Перед размещением трансформатора на хранение , необходимо призвести осмотр сохранности упаковки и самого изделия, а также проверить комплектность.

Повреждённую упаковку восстановить. Трансформатор сухой силовой необходимо хранить в упаковке завода-изготовителя в закрытом, сухом, чистом, вентилируемом помещении. При хранении трансформатора сухого силового необходимо применять меры, исключающие возможность его механического повреждения и загрязнения. Трансформаторы перед отправкой заказчику проходят консервацию и упаковку, обеспечивающие защиту на период транспортировки и хранения. Группа компаний «Энергия» предоставляет полную гарантию качества на производимые трансформаторы сухие силовые:.

Специалисты компании «Энергия» ответят на все интересующие вопросы, помогут в выборе необходимого трансформатора сухого силового, предоставят квалифицированную консультацию. Запомнить меня. Энергетика Промышленная автоматизация Специализированный сервис Инжиниринговые решения.

Применены вертикальные и горизонтальные каналы охлаждения; Низкие шумы при эксплуатации; Специально разработанная конструкция с использованием негорючих и огнестойких материалов, обеспечивающих отсутствие частичных разрядов; Разборный стальной кожух, покрытый порошковой краской; Температурные датчики Pt и блок контроля температуры для обеспечения термоконтроля; При модернизации существующих РТП и КТП возможна замена без реконструкции помещений. Комплектация Базовая комплектация Дополнительная комплектация по запросу 4 температурных датчика Блок контроля температуры Катки для транспортировки Устройство регулирования напряжением ПБВ Эксплуатационная документация Комплект ЗИП Упаковка стретч-плёнка Защитный кожух Шкаф тепловой защиты Комплект вентиляторов дополнительного охлаждения с приборами автоматики Комплект виброгасителей Комплект трансформаторов тока Комплект дополнительных шин Комплект пробивных предохранителей Ограничитель перенапряжения ОПН Упаковка специальная деревянная; стандартная; морская; тропическая.

Трансформатор отправляется заказчику упакованным: В деревянный ящик опционально Полиэтилен Картон. Хранение Перед размещением трансформатора на хранение , необходимо призвести осмотр сохранности упаковки и самого изделия, а также проверить комплектность. Гарантия Группа компаний «Энергия» предоставляет полную гарантию качества на производимые трансформаторы сухие силовые: Соответствие фактическим параметров оборудования согласованным требованиям; Фирменная заводская гарантия — от 3 лет; Срок службы трансформатора сухого силового — от 30 лет.

Логин Пароль Запомнить меня. Продажа ответвительных муфт При полном или частичном использовании материалов сайта ссылка на www. О группе компаний. Опросный лист. Число фаз. Регулирование высокого напряжения вид переключения, диапозон и число ступеней регулирования. Вторичное напряжение номинальное напряжение НН. Схема и группа соединения обмоток. Н Климатическое исполнение по ГОСТ Степень защиты по ГОСТ Уровень звукового давления. Гарантийный срок эксплуатации.

Срок службы. Трансформатор ТС кВА без кожуха. Материал обмоток. Потери короткого замыкания, Вт. Размеры, мм. Масса не более, кг. Длина, L. Ширина, B. Высота, H. ТС трансформатор без кожуха, степень защиты IP ТСЗ трансформатор в кожухе с боковым расположением вводов, степень защиты IP21 исполнение: левое и правое. Трансформатор без кожуха.

Трансформатор в кожухе расположением вводов на крыше. Трансформатор в кожухе с боковым расположением вводов. Базовая комплектация. Дополнительная комплектация по запросу. Защитный кожух Шкаф тепловой защиты Комплект вентиляторов дополнительного охлаждения с приборами автоматики Комплект виброгасителей Комплект трансформаторов тока Комплект дополнительных шин Комплект пробивных предохранителей Ограничитель перенапряжения ОПН Упаковка специальная деревянная; стандартная; морская; тропическая.

Карта сайта. Отдел продаж:. Электронная почта:.


Трансформатор трехфазный ТС-160/10 6/0,35 кВ Δ /Yн-11

Определение параметров сетевого трансформатора. Здесь можно немножко помяукать :. Re: Опознание сетевых трансформаторов. Нашел дома трансформатор, от старого телевизора.

Купить Трехфазный сухой трансформатор ТС в Москве. Доставка по всей России в кратчайшие сроки. Низкие Входные параметры. Тип сети.

Трансформатор сварочный Диолд ТС-160-01

Рисунок 1. Таблица 1. Трансформаторы этого ряда предназначались, как для питания ламповой теле-радио аппаратуры, так и для радио аппаратуры, выполненной на полупроводниковых приборах. Предназначались для применения в блоках питания ламповой, лампово-полупроводниковой теле-радио аппаратуры. Трансформаторы в принципе одинаковы и взаимозаменяемые между собой. Отличаются друг от друга лишь незначительным отличием напряжений некоторых вторичных обмоток. Трансформатор ТСА, отличается от трансформаторов ТС, лишь тем, что у него обмотки выполнены алюминиевым проводом. Первичная обмотка трансформаторов может состоять только из двух секций по вольт, то есть только на вольт.

Технические характеристики трансформатора ТС 160, данные обмоток и схема подключения

Высота над уровнем моря не более м. Окружающая среда невзрывоопасная, не содержащая агрессивных паров и газов в концентрациях, разрушающих металлы и изоляцию, не насыщенная токопроводящей пылью. Требования техники безопасности по ГОСТ Трансформаторы для внутригосударственных и экспортных поставок в страны с умеренным климатом соответствуют ГОСТ

Трансформатор ТС используется во многих отраслях народного хозяйства, он предназначен для преобразования электрической энергии в электросетях трехфазного переменного тока частотой 50Гц. Они устанавливаются в промышленных помещениях и общественных зданиях, к которым представляются повышенные требования в части пожаробезопасности, взрывозащищенности, экологической чистоты.

Трансформатор ТС-160-380/380

Мощность кВА. Первичное напряжение номинальное напряжение обмотки ВН. Номинальное напряжение ВН 6 10 кВ:. В таблицах указаны справочные данные. Размеры трансформаторов могут буть изменены по заказу.

Трансформатор ТС-160

Трансформатор серии ТС предназначены для преобразования электроэнергии в сфере потребления переменного тока. Устанавливаются на объектах, где предъявляются строгие требования в части пожаробезопасности, взрывозащищенности, экологической чистоты. Экономичен и прост в обслуживании и установке. Сухой трансформатор ТС не требуют частых осмотров, отсутствует необходимость контроля над состоянием трансформаторного масла или селикагеля, что снижает затраты на обслуживание. Для защиты от перегрева трансформатор комплектуется устройством тепловой защиты типа УТЗК, управляемым термисторами, встроенными в обмотки НН. Тепловая защита двухступенчатая. Степень защиты трансформатора — IP

Общие сведения ТС Трехфазные сухие трансформаторы ТС мощностью кВА класса напряжения 6;10 кВ предназначены для.

ТС 1000 — Трансформатор сухой силовой мощностью 1000 кВА

Силовые сухие трансформаторы ТС кВА. Трансформаторы ТС кВА с успехом используют многие отрасли народного хозяйства. Их прямое предназначение — преобразование электроэнергии в электрических сетях трехфазного переменного тока, имеющего частоту 50 Гц. В таких сухих силовых трансформаторах ТС кВА нуждаются объекты и сооружения промышленного и общественного назначения, к которым предъявляются самые высокие требования по части взрывозащищенности, пожаробезопасности, экологии и чистоты.

Трехфазный сухой трансформатор ТС-160

Трансформатор ТС сухой силовой трехфазный, без кожуха, с изоляцией «Номекс» напряжением до 10 кВ предназначен для преобразования электроэнергии у потребителей переменного тока с номинальной частотой 50 Гц. Окружающая среда невзрывоопасная, не содержащая пыли в концентрациях, снижающих параметры изделий в недопустимых пределах. Трансформатор ТС, Минск не предназначен для работы в условиях тряски, вибрации, ударов, в химически активной среде. Высота установки над уровнем моря не более м. Класс нагревостойкости обмотки низшего напряжения Н, высшего F.

Трехфазные сухие трансформаторы ТС мощностью кВА класса напряжения 6;10 кВ предназначены для преобразования электроэнергии у потребителей, а также для использования в качестве безопасного источника питания ламп освещения, электроинструмента и других целей.

Трансформатор ТС МЭТЗ, Минск

Цена по запросу. Трансформаторы серии ТС — сухие силовые трехфазные трансформаторы с изоляцией «Номекс», без кожуха. Предназначены для преобразования переменного напряжения промышленной частоты 50 Гц, в помещениях с повышенными требованиями в части пожаробезопасности и взрывозащищенности. Я прочитал а и согласен а с Политикой конфиденциальности. Категория товара Стабилизаторы напряжения Источники бесперебойного питания Системы оперативного постоянного тока Компенсаторы реактивной мощности Устройства плавного пуска Высоковольтные устройства плавного пуска Преобразователи частоты Высоковольтные преобразователи частоты Трансформаторы Распределительные устройства Электродвигатели.

Данный товар не продается по одной единице. Вы должны выбрать по крайней мере 1 единиц данного товара. Напишите свой отзыв.


РАДИО — РадиоЛюбителям — ТС160


Трансформаторы выпускаются на броневых и стержневых сердечниках и предназначены для питания бытовой радио-телевизионной аппаратуры.

Трансформаторы на броневых сердечниках.



Трансформатор ТСШ-160, аналогичен трансформаторам ТСШ-170, ТСШ-170-3. Выполнены на броневом сердечнике Ш30х60. Все трансформаторы взаимозаменяемые. Разница между ТСШ-170 и ТСШ-170-3, у последнего сетевая обмотка выполнена только на 220 вольт (схема 2 на рисунке 1), выводы первичной обмотки 1 — 2 и дальнейшая нумерация обмоток продолжается с номера 3 (у ТСШ-160, ТСШ-170 с номера 7), то есть если вместо ТСШ-170 ставить ТСШ-170-3, то к лепесткам 3-4 ТСШ-170-3, припаиваются провода, подходящие к лепесткам 7-8 ТСШ-170 и т.д.
Напряжение сети 220 вольт у ТСШ-160 и ТСШ-170, подключается к выводам 1 и 6, при этом устанавливается перемычка между выводами 2 и 5. У трансформатора ТСШ-170-3 (схема 2 на рисунке 1) напряжение 220 вольт подключается к выводам 1 и 2.

Рисунок 1.
Внешний вид и схема трансформаторов ТСШ-160, ТСШ-170, ТСШ-170-3.

Таблица 1. Моточные данные трансформаторов ТСШ-160, ТСШ-170, ТСШ-170-3.

Тип трансформатора

Сердечник

NN выводов

Число витков

Марка и диаметр провода, мм

Напряжение, ном. В

Ток, ном. А

ТСШ-160
(ТСШ-170)

УШ30х60

1-2
2-3
4-5
5-6
7-8
9-10
11-12
13-14

200
30
30
200
139
242
12,5
12

ПЭВ-1 0,59
ПЭВ-1 0,59
ПЭВ-1 0,59
ПЭВ-1 0,59
ПЭВ-1 0,47
ПЭВ-1 0,55
2хПЭВ-1 1,25
ПЭВ-1 0,51

110
17
17
110
74
130
6,4
6,3

0,7
0,7
0,7
0,7
0,4
0,6
8,5
0,3


Трансформаторы на стержневых сердечниках.


На стержневые трансформаторы ТС-160 напряжение сети 220 вольт подключается к выводам 1 и 1′, при этом устанавливается перемычка между выводами 2 и 2′.

Рисунок 2.
Схема трансформатора ТС-160, ТС-160-1.

Таблица 2. Моточные данные трансформаторов ТС-160, ТС-160-1.

Тип трансформатора

Сердечник

NN выводов

Число витков

Марка и диаметр провода, мм

Напряжение, ном. В

Ток, ном. А

ТС-160

ПЛР21х45

1-2
2-3
1′-2′
2′-3′
5-6
5′-6′
7-8
7′-8′
9-10
9′-10′
11-12
11′-12′

414
64
414
64
129
129
253
253
27
27
26
26

ПЭЛ 0,69
ПЭЛ 0,69
ПЭЛ 0,69
ПЭЛ 0,69
ПЭЛ 0,47
ПЭЛ 0,47
ПЭЛ 0,51
ПЭЛ 0,51
ПЭЛ 1,35
ПЭЛ 1,35
ПЭЛ 0,41
ПЭЛ 0,41

110
17
110
17
31
31
64
64
6,5
6,5
6,4
6,4

0,65
0,65
0,65
0,65
0,4
0,4
0,5
0,5
3,5
3,5
0,25
0,25

ТС-160-1

ПЛР21х45

1-2
2-3
1′-2′
2′-3′
5-6
5′-6′
7-8
7′-8′
9-10
9′-10′
11-12
11′-12′

414
64
414
64
158
158
250
250
26
26
26
26

ПЭЛ 0,69
ПЭЛ 0,69
ПЭЛ 0,69
ПЭЛ 0,69
ПЭЛ 0,47
ПЭЛ 0,47
ПЭЛ 0,51
ПЭЛ 0,51
ПЭЛ 1,35
ПЭЛ 1,35
ПЭЛ 0,57
ПЭЛ 0,57

110
17
110
17
39
39
61
61
6,4
6,4
6,4
6,4

0,65
0,65
0,65
0,65
0,4
0,4
0,5
0,5
3,5
3,5
0,35
0,35



Трансформатор предназначен для питания полупроводниковой аппаратуры.
Сердечник трансформатора ПЛ20х40х50
Напряжение сети 220 вольт подключается к выводам 1 и 1′.
Внешний вид трансформатора ТС-160-2 на рисунке 3.

Рисунок 3.
Внешний вид трансформатора ТС-160-2.

Рисунок 4. Схема трансформатора ТС-160-2.

Таблица 3. Моточные данные трансформатора ТС-160-2.

Тип трансформатора

Сердечник

NN выводов

Число витков

Марка и диаметр провода, мм

Напряжение, ном. В

Ток, ном. А

ТС-160-2

ПЛ20х45

1-2
1′-2′
3-4
3′-4′
5-6
5′-6′
7-8
7′-8′
9-10
9′-10′

414
414
42
42
68
68
75
75
210
210

ПЭВ-1 0,69
ПЭВ-1 0,69
ПЭВ-1 0,95
ПЭВ-1 0,95
ПЭВ-1 0,63
ПЭВ-1 0,63
ПЭВ-1 0,95
ПЭВ-1 0,95
ПЭВ-1 0,37
ПЭВ-1 0,37

110
110
10,5
10,5
17,5
17,5
19
19
54
54

0,65
0,65
1,8
1,8
0,6
0,6
1,8
1,8
0,25
0,25

Трансформатор ТС-160-3, аналогичен трансформатору ТС-150-1 и выпускается с двумя видами первичной обмотки, это на 127 и 220 вольт (схема на рисунке 6), и только на 220 вольт (отсутствуют обмотки Iб и Iб’ и выводы 3 и 3′ первичной обмотки).
Внешний вид трансформатора ТС-160-3 изображен на рисунке 5.

Рисунок 5.
Внешний вид трансформатора ТС-160-3.

Рисунок 6.
Схема трансформатора ТС-160-3.

Таблица 4. Моточные данные трансформаторов ТС-160.

Тип трансформатора

Сердечник

NN выводов

Число витков

Марка и диаметр провода, мм

Напряжение, ном. В

Ток, ном. А

ТС-160-3

ПЛР21х45

1-2
2-3
1′-2′
2′-3′
4-5
4-6
4-7
4′-5′
4′-6′
4′-7′

362
56
362
56
27
36
46
27
36
46

ПЭВ-1 0,56
ПЭВ-1 0,56
ПЭВ-1 0,56
ПЭВ-1 0,56
ПЭВ-1 1,55
ПЭВ-1 1,55
ПЭВ-1 1,55
ПЭВ-1 1,55
ПЭВ-1 1,55
ПЭВ-1 1,55

110
17
110
17
7,0
9,5
13,0
7,0
9,5
13,0

0,65
0,65
0,65
0,65
6,0
6,0
6,0
6,0
6,0
6,0

Трансформатор предназначен для питания полупроводниковой аппаратуры. Использовался например в блоках питания ЭВМ.
Сердечник трансформатора ПЛ20х40х50
Напряжение сети 220 вольт подключается к выводам 1 и 1′.

Рисунок 7.
Внешний вид ТС-160-4.

Рисунок 8.
Схема трансформатора ТС-160-4.

Таблица 5. Моточные данные трансформатора ТС-160-4.

Тип трансформатора

Сердечник

NN выводов

Число витков

Марка и диаметр провода, мм

Напряжение, ном. В

Ток, ном. А

ТС-160-4

ПЛР20х40

1-2
1′-2′
3-4
3′-4′
5-6
5′-6′
7-7′
9-10
9′-10′

414
414
36
36
36
36
75+75
90
90

ПЭВ-1 0,56
ПЭВ-1 0,56
ПЭВ-1 1,8
ПЭВ-1 1,8
ПЭВ-1 0,64
ПЭВ-1 0,64
ПЭВ-1 0,64
ПЭВ-1 0,18
ПЭВ-1 0,18

110
110
9,0
9,0
9,0
9,0
38
24
24

0,7
0,7
7,0
7,0
0,85
0,85
0,85
0,06
0,06


Трансформатор силовой сухой ТС 160

Общие сведения ТС 160.

Трехфазные сухие трансформаторы ТС 160 мощностью 160 кВА класса напряжения 0,66 кВ и 10 кВ предназначены для преобразования электроэнергии у потребителей, а также для использования в качестве безопасного источника питания ламп освещения, электроинструмента и других целей.

Трансформаторы имеют высокую надежность, пожаробезопасны, т.к обмотки и изоляционные детали активной части трансформаторов выполнены из материалов, не поддерживающих горения. Трансформаторы требуют минимальных затрат на обслуживание, экономичны и просты в эксплуатации.

  • Трансформаторы типа ТС 160 — незащищенного исполнения (степень защиты IP00).
  • Класс нагревостойкости — F.
  • Вид климатического исполнения — У.
  • Категория размещения — 3.
  • Режим работы — длительный.
  • Температура окружающего воздуха — от -45ºС до + 40ºС.
  • Относительная влажность воздуха при +25ºС — не более 80%.
  • Корректированный уровень звуковой мощности не более 60 дБА.

Трансформаторы типа ТС 160, выполнены без защитного кожуха и предназначены для установки в шкафах и блоках управления. Трансформатор может быть использован также самостоятельно в качестве источника электрического питания.

Трансформаторы ТС 160 должны эксплуатироваться в следующих условиях:

а) высота над уровнем моря не более 1000 м;

в) трансформаторы не предназначены для работы в условиях тряски, вибрации, ударов, взрывоопасной и химически агрессивной среды.

  • Частота питающей сети — 50Гц.
  • Напряжение на стороне ВН — 220; 380(660)В.
  • Напряжение на стороне НН на трансформаторах мощностью 1,6:25 кВА от 12 до 660 В.
  • Напряжение на стороне НН на трансформаторах мощностью 40:250 кВА от 42 до 660 В.По заказу потребителей завод может изготовить трансформаторы с напряжением на стороне НН 12; 24; 36 В.
  • Материал обмоток — медь.

По требованию заказчика на трансформаторах предусмотрена возможность регулирования напряжения на стороне ВН в диапазоне +5% на полностью отключенном трансформаторе (ПБВ).

Готовы изготовить нестандартные трансформаторы. Вся продукция сертифицирована по системе сертификации ГОСТ Р Госстандарта России и имеет сертификаты соответствия.

Схема и группа соединения — Yн/Yн-0; Д/Yн-11; Yн/Д-11.

Технические характеристики трансформатора ТС 160

 

Номинальная
 мощность ТС,
кВА

Напряжение ВН, кВ

Напряжение
КЗ. %

Потери, Вт

Размеры ТС, мм

Масса
кг

 

ХХ

КЗ

160 0,66 3,5 800 2150 840 700 1065 435 860

160

6; 10

4,0

530

2300

1520

650

1150

550

850

 

 

Трансформатор ТС 160 10 0,4 КВа

Город

Регион/Область

Срок доставки

Майкоп

Республика Адыгея

3-4 дней

Уфа

Республика Башкортостан

1-3 дней

Улан-Удэ

Республика Бурятия

5-15 дней

Горно-Алтайск

Республика Алтай

1-2 дней

Минск — Козлова

Минск

1-2 дней

Назрань

Республика Ингушетия

1-2 дней

Нальчик

Кабардино-Балкарская Республика

1-2 дней

Элиста

Республика Калмыкия

1-2 дней

Черкесск

Республика Карачаево-Черкессия

1-2 дней

Петрозаводск

Республика Карелия

1-2 дней

Сыктывкар

Республика Коми

1-2 дней

Йошкар-Ола

Республика Марий Эл

1-2 дней

Саранск

Республика Мордовия

1-2 дней

Якутск

Республика Саха (Якутия)

1-2 дней

Владикавказ

Республика Северная Осетия-Алания

1-2 дней

Казань

Республика Татарстан

5-7 дней

Кызыл

Республика Тыва

5-7 дней

Ижевск

Удмуртская Республика

5-7 дней

Абакан

Республика Хакасия

5-7 дней

Чебоксары

Чувашская Республика

5-7 дней

Барнаул

Алтайский край

5-7 дней

Краснодар

Краснодарский край

5-7 дней

Красноярск

Красноярский край

5-7 дней

Владивосток

Приморский край

5-7 дней

Ставрополь

Ставропольский край

5-7 дней

Хабаровск

Хабаровский край

7-12 дней

Благовещенск

Амурская область

7-12 дней

Архангельск

Архангельская область

7-12 дней

Астрахань

Астраханская область

7-12 дней

Белгород

Белгородская область

7-12 дней

Брянск

Брянская область

7-12 дней

Владимир

Владимирская область

7-12 дней

Волгоград

Волгоградская область

7-12 дней

Вологда

Вологодская область

7-12 дней

Воронеж

Воронежская область

7-12 дней

Иваново

Ивановская область

7-12 дней

Иркутск

Иркутская область

7-12 дней

Калининград

Калиниградская область

7-12 дней

Калуга

Калужская область

4-7 дней

Петропавловск-Камчатский

Камчатская область

4-7 дней

Кемерово

Кемеровская область

4-7 дней

Киров

Кировская область

4-7 дней

Кострома

Костромская область

4-7 дней

Курган

Курганская область

4-7 дней

Курск

Курская область

1-3 дней

Санкт-Петербург

Ленинградская область

1-3 дней

Липецк

Липецкая область

1-3 дней

Магадан

Магаданская область

1-3 дней

Москва

Московская область

1-3 дней

Мурманск

Мурманская область

1-3 дней

Нижний Новгород

Нижегородская область

1-3 дней

Новгород

Новгородская область

1-3 дней

Новосибирск

Новосибирская область

1-3 дней

Омск

Омская область

1-3 дней

Оренбург

Оренбургская область

1-3 дней

Орел

Орловская область

1-3 дней

Пенза

Пензенская область

1-3 дней

Пермь

Пермская область

1-3 дней

Псков

Псковская область

1-3 дней

Ростов-на-Дону

Ростовская область

1-3 дней

Рязань

Рязанская область

1-3 дней

Самара

Самарская область

1-3 дней

Саратов

Саратовская область

1-3 дней

Южно-Сахалинск

Сахалинская область

1-3 дней

Екатеринбург

Свердловская область

1-3 дней

Смоленск

Смоленская область

1-2 дней

Тамбов

Тамбовская область

1-2 дней

Тверь

Тверская область

1-2 дней

Томск

Томская область

1-2 дней

Тула

Тульская область

1-2 дней

Тюмень

Тюменская область

1-2 дней

Ульяновск

Ульяновская область

1-2 дней

Челябинск

Челябинская область

1-2 дней

Чита

Читинская область

1-2 дней

Ярославль

Ярославская область

1-2 дней

Москва

г. Москва

1-2 дней

Санкт-Петербург

г. Санкт-Петербург

1-2 дней

Биробиджан

Еврейская автономная область

1-2 дней

пгт Агинское

Агинский Бурятский авт. округ

1-2 дней

Кудымкар

Коми-Пермяцкий автономный округ

1-2 дней

пгт Палана

Корякский автономный округ

1-2 дней

Нарьян-Мар

Ненецкий автономный округ

1-2 дней

Дудинка

Таймырский (Долгано-Ненецкий) автономный округ

1-2 дней

пгт Усть-Ордынский

Усть-Ордынский Бурятский автономный округ

1-2 дней

Ханты-Мансийск

Ханты-Мансийский автономный округ

1-2 дней

Анадырь

Чукотский автономный округ

1-2 дней

пгт Тура

Эвенкийский автономный округ

1-2 дней

Салехард

Ямало-Ненецкий автономный округ

1-2 дней

Грозный

Чеченская Республика

1-2 дней

Plug Pack Силовые трансформаторы и блоки розеток в магазине Ken’s Electronics (оптовая и розничная продажа электронных деталей) Каламазу, Мичиган

Силовые трансформаторы и комплекты вилок: В чем разница? Силовые трансформаторы — это неизолированные трансформаторы (проволочные выводы или наконечники под пайку), предназначенные для установки внутри шкафа электронного оборудования. Использование трансформатора для замены штепсельной вилки переменного тока требует, чтобы трансформатор был заключен в металлическую или пластиковую коробку, где соединения изолированы, чтобы защитить вас из соображений безопасности.Шнуры питания должны проходить через компенсаторы натяжения или резиновые втулки, чтобы острые края не прорезали изоляцию. Блоки вилок
(также известные как «Plugpaks» или «Wall Warts») представляют собой формованные пластиковые корпуса с штырями, которые подходят непосредственно к электрической розетке. Они могут содержать только небольшой силовой трансформатор («Силовые трансформаторы переменного тока класса 2» «Пакеты вилок переменного тока» ) или могут включать выпрямитель и фильтрующий конденсатор (Источники питания постоянного тока класса 2 «Комплекты вилок постоянного тока» ). Выходное напряжение Unregulated Plug Paks зависит от тока нагрузки.Типичная вилка «12 В постоянного тока» показывает почти 18 В постоянного тока при измерении с VOM (без нагрузки) и падает примерно до 11 В постоянного тока при нагрузке при максимальном номинальном выходном токе.

PHMW41-350A включает в себя: ph58-1335A, -1555, -2150, -2155, -2555, -2155, -2555, -P35 $ 13.92 , -P35 1615 1615 9006 1615

Технический совет: размер вилки посмотрите на слева два изображения внизу:
Около 60% всех приложений plug pak требуют разъем DCP-2155 (Ph58-2155): с 2.Отверстие 1 мм = 0,082 дюйма (размером примерно с буровое долото 5/64 дюйма) с диаметром ствола 5,5 мм = 0,215 дюйма. : с отверстием 2,5 мм = 0,098 дюйма (размером примерно с буровое долото 3/32 дюйма) с диаметром ствола 5,5 мм = 0,215 дюйма.
Примерно для 10% всех приложений plug pak требуется разъем P-35 (Ph58-P35): он выглядит как штекер «мини-наушник» с диаметром 3,5 мм = 0,137 дюйма (примерно размер сверла 9/64 дюйма). бит) диаметр.
Для оставшихся 15% всех приложений plug pak требуется один из 20+ других размеров разъемов: их гораздо труднее идентифицировать.Посетите нашу веб-страницу с коаксиальной вилкой питания для получения дополнительной информации.

$ $ 58.95 $ 58.95 $ 58.95 $ 37.90 $ 39.36 $ 58.95 $ WEP-PS35 Regulated 16.8VDC 35 AMP

Номер производителя для общих замен Спецификации Цены — верхняя половина страницы
038-0020 Cybex 9VAC 1000mA размер — вилка P35 используйте SR-AC9-1.0-3.5
01536-01 01536-01 Verifone Tranz 330 CreditCardMachine 8.5VAC 1A Size-2555 Использование SR-AC9-1.0-2.1 + CR30-343
GE-5-2154A 14VDC 700ma размер-2155 POS GND используйте SR-DC12-1.0-2.1 + Ph396, чтобы изменить полярность
GE-5-2154C 14 В постоянного тока, 700 мА размер-2155 pos gnd используйте SR-DC12-1.0-2.1 +PH-296, чтобы изменить полярность

Блоки питания постоянного тока класса 2; Выход постоянного тока Plugpaks
Источники питания могут иметь выходы постоянного или переменного тока; модели в этом параграфе имеют выход постоянного тока
PH-MW41-350A регулируемый источник питания 3 В постоянного тока 500 мА (6) Adapt-A-Plugs $12.88
SR-DC5-2.6-2.1 Переключение Регулируемая 5 В постоянного тока 2.6Amp Plugpak $ 32,40 $ 32,40
PH-MW41-650A Регулируемая 6 В постоянного тока 500Ма (6) Adath-A-Plugs $ 13.92
PH-MW41-650A включает в себя: PH58-1335, -1555 , -2150, -2155, -2555, -P35
PH-MW41-730A регулируемый 7.5ВДЦ 300 мА питания (6) Adapt-a-plugs $ 14.70
PH-MW41-730A включает в себя: PH58-1335, -1555, -2150, -2155, -2555, -P35
EP-150U Sharp нерегулируемый штекер DCP-2155, 9 В пост. тока, 200 мА, положительное заземление
AC-T91S Sony нерегулируемый 9 В пост. тока 210 мА DCP-17 Положительное заземление
$9,00
AC-T37 Sony Нерегулируемый 9VDC 300ma DCP-17 отрицательный земля $ 10,50
AD-227 Sanyo Нерегулируемый 9ВДК 350 мА DCP-2155 положительный отбор $ 10,50
PH -MW41-945A регулируемый источник питания 9 В постоянного тока 450 мА (6) Adapt-A-Plugs 15 долларов США.48
PH-MW41-945A включает в себя: PH58-1335, -1555, -2150, -2155, -2555, -P35
T-955 SW Bell Нерегулируемый 9VDC 500 мА отрицательный заземление DCP- 2155 $ 11,70 $ 11,70
SR-DC6-500-2.1 Нерегулируемый 6ВДК 500 мА DCP-2155 Plug отрицательная земля $ 13,65
CR45-757-2.1 Нерегулируемая 9 ВДЦ 300 мА DCP-2155 штекер отрицательного заземления 7,50 $
CR45-757 нерегулируемый 9 В пост.1 Нерегулируемый 9VDC 500 мА DCP-2155 Plug отрицательный MOOM $ 14,40 $ 14,40
SR-DC9-600-2.5 Нерегулируемый 9ВДК 600 мА DCP-2555 Plug отрицательный MOOM $ 14,40
SR- DC9-1.0-2.1 нерегулируемый 9 В пост. тока 1 А DCP-2155 штекер отрицательное заземление $15,15
FP-3355 (SA48-29A) Fisher Price 9 В пост. тока 1 А DCP-21019 отрицательное заземление $ 12,33 $ 12,33
KX-A10 Panasonic Нерегулируемые 12VDC 100 мА Положительный фонарь DCP-2155 $
CR45-750 Нерегулируемые 12VDC 200 мА Отрицательная земля DCP-2155 $ 9,00
AC-T120 Sony Нерегулируемая 12VDC 200ma DCP-17 Положительная земля $ 10 50019
KX-A09 Panasonic Нерегулируемая 12VDC 200ma Положительная земля DCP-2155 Использование VA-371225
CR45-746 Нерегулируемый 12VDC 300MA P-35 Plug отрицательный земля $ 8,85
VA-371225 = KX-A11 = LF12500D-41 Нерегулируемый 12ВДК 500 мА DCP2155 POS GND $ 11,70
SR-DC12-500-2.1 Нерегулируемая 12VDC 500MA DCP-2155 Plug отрицательная земля $ 14,40
CR45-761-2.5 нерегулируемая 12VDC 500mA DCP-2555 Plug отрицательный земля 9,75
CR45-761 Нерегулируемый 12VDC 500MA P-35 Plug отрицательная земля $ 9,75 $ 9,75
SR-DC121.0-2.1 Нерегулируемая 12 В постоянного тока 1AMP DCP-2155 Plug отрицательная земля $ 15,90
SR-DC12- 1.5-2.1 Нерегулируемая 12VDC 1.5AMP DCP-2155 Plug отрицательная земля $ 23,40
SR-DC1212-2.59 Нерегулируемая 12VDC 1.5AMP DCP-2555 Plug отрицательная земля $ 23,40
SR-DC15-1.0-2.1 Нерегулируемый 15ВДК 1AMP DCP-2155 Plug отрицательный грунт $ 18,15
SR-DC15-3.3-2.1 (вход от 110 до 240VAC) Переключение регулируемого ноутбука 15VDC 3.3 AMP $58,95
SR-DC18-500-2.1 Нерегулируемая 18VDC 500 мА DCP-2155 Plug отрицательная земля $ 15,15 $ 15,15
SR-DC24-400-3.59 Нерегулируемая мощность 24 В постоянного тока 400ma P-35 Plug отрицательная земля $ 15,15
SR- Dc24-600-2.1 Нерегулируемый 24VDC 600ma DCP-2155 Plug отрицательный доль $ 16,65
SR-DC24-1.2-2.1 Нерегулируемый 24ВДК 1.2 Ампу DCP-2155 Plug отрицательная земля $ 27,90
Импульсные регулируемые блоки питания подходят для портативных компьютеров и других приложений
CR45-602 (110-240 В переменного тока) импульсное регулируемое 12 В постоянного тока 2.5A Размер-2155 Отрицательная земля $ 37.90 $ 37.90
HP-02015 (100-240VAC в) Переключение Регулируют 12 ВДЦ 3.33A 40W NEG GND Size-2555 $ 32.40
SR-DC12-4.1-2.1 (110-240VAC вход) Переключение регулируемого ноутбука и т. Д. 12VDC 4.1A $ 58.95 $ 58.95 $ 58.95
SR-DC18-3.3-2.1 (110-240VAC вход) Переключение Регулируемый ноутбук и т. Д. 18 В постоянного тока 3.3 AMP $ 58.95
СР-DC19-3.1-2.1 (вход от 110 до 240VAC) Переключение регулируемого ноутбука и т. Д. 19VDC 3.16 AMP $ 58.95 $ 58.95 $ 58.95
(вход от 100 до 240VAC) Переключение регулируемого ноутбука и т. Д. 20VDC 3 AMP $ 58.95
SR-DC24-2.5-2.1 (110-24-2,5-2,5-2,1 (110-24-2-2,5-2,1 (110-24-2-2,5-2,1 (110-24-2-2,5-2,1 (110-24-2.5-2,1 ) Переключение регулируемого ноутбука и т. Д. 24VDC 2.5 AMP $ 58.95 $ 58.95
SR-Plug-2155 4 мм Центр 2-контактный 5.5 мм =. Ствол 215 дюймов; 2,1 мм =.отверстие 082 дюйма 2,25 $
SR-PLUG-2555 4 мм центральный 2-контактный 5,5 мм = 0,215 дюйма ствол; 2,5 мм = .098 «отверстие $ 1.50 $ 1.50
SR-Plug-35 » Стиль наушников « 4 мм Центр 2-контактный 3,5 мм = .136″ Штекер $ 2.25
CR45-752 блок питания с регулируемой вилкой 13,6 В постоянного тока, 1,2 А, вилка DCP-2155 21,90 долл. США
CR45-602 (вход 110–240 В переменного тока), регулируемое переключение, 12 В постоянного тока 2.5a DCP-2155 NEG Ground $ 37.90 $ 37.90
PH-MW123 Защищенные PH-MW123 Защищенные 12 В 3 AMP Регулируемый источник питания DC $ 46.88
PH58-130 = MWS1248UC (100-140VAC в) Переключение Регулируются 4.1 12VDC LIL Socket $ 39.36 $ 39.36
(110-240VAC вход) Переключение Регулируемый ноутбук и т. Д. 12ВДК 4.1А $ 58.95
PS-7KX Регулируемый источник питания постоянного тока .8 В пост. тока 5 А 39,98 $
PS-9KX регулируемый блок питания 13,8 В пост. тока 5 А. Литровая розетка $ 42,98 $ 42,98 $ 42,98
PSV-5 Скамья постоянного питания Регулируемый 0-30VDC Регулируемый 0-6 AMPS $ 219 98-SO
VR-1A Регулирует 24-28VDC ( Автобус / Crane-etc) до 13.6VDC 10 AMP $ 39,98 $ 39,98
PS-12KX Регулируемый источник питания 13.8VDC 10 AMP $ 69
PS-15KX Регулируемый источник питания 13.8VDC 10 AMP, литровый сокет $ 74,98 $ 74,98
PS-14CX Регулируемый источник питания 13.8VDC 12 AMP (12 фунтов) $ 79,95
PS-21KX Регулируемый источник питания 13.8VDC 20 AMP, AMP-Meter, Fan $ 99,98 $ 99,98
$ 147.86 $ 147.86
PH-296 «Fits-All» Размер и полярность Адаптер 6- дюймовый шнур; разъем размера 2155 на 6 выходных разъемов 5 долларов США.64
PH-296 включает в себя размер-1335, -2150, -1555, -2555, -2855, -2555, -2855, -P35 Выходные вилки
PH58-0723 ранее Ph58-475 Коаксиальная адаптация -Затыкать; 2,4 мм = (0,093″) ствол; отверстие 0,75 мм 2,31 $
Ph58-480 Коаксиальный Adapt-A-Plug; 7,0 мм = (0,277″) ствол; Центральный контакт 1,0 мм 2,79 $
SR-PLUG-C вилка питания с контактом в центре для ноутбуков аналогичный 48-480
Ph58-1030 Коаксиальный Adapt-A-Plug; 3.0 мм = (0,117″) ствол; отверстие 1,0 мм 1,56 $
Ph58-1747 ранее Ph58-1475 Коаксиальный Adapt-A-Plug; 4,75 мм = (0,187″) ствол; отверстие 1,75 мм 1,56 $
Ph58-1550 Коаксиальный Adapt-A-Plug; 5,0 мм = (0,197 дюйма) ствол; отверстие 1,5 мм 1,56 долл. США
Ph58-1555 Коаксиальный Adapt-A-Plug; 5,5 мм = (0,215 дюйма) ствол; Отверстие 1,5 мм 1,56 $
GE-90
GE-5-2191B 9В пост. тока 300 мА размер-2155 поз. земля использовать SR-DC9-500-2.1 +PH-296 для обратной полярности
GE-5-2191B 9В пост. -2.1 +PH-296 для обратной полярности
GE-5-2321A 9VDC 800mA типоразмер-2155L pos gnd используйте SR-DC9-1.0 -2155L отрицательное заземление используйте T955 с VA-DCP2155L $16,26
GE-5-2330 9VDC size-2155 pos gnd используйте SR-DC9-500-2.1 +PH-296 для изменения полярности
GE

GE-5-2367A 9 В пост. тока, 400 мА, размер-2155, минус, земля , используйте SR-DC9-500-2.1
GE-5-2393B GE-5-2393B 9VAC 200 мА Угол-размером-2155 Использование SR-AC9-1.0-2.1
GE-5-2431A 12VDC 300MA Размер-2155 POS GND Использование SR-DC12-500-2.1 +PH-296 для обратной полярности
GE-5-2884A 9VDC 450mA угловой размер-2155 pos gnd используйте SR-DC9-500-2.1 размер-2155 минус земля используйте SR-DC9-500-2.1
9CV850 Sanyo 9BDC 100 мА размер-2155 минус земля используйте SR-DC9-500-2.1
9000U
9D200U Conair 9VDC 200 мА отрицательный GND Size-2155 Использование CR45-757-2.1
9L-120H Sanyo 9VDC 500MA Размер-2155 Отрицательный GND Использование SR-DC9-500-2.1
19- 1120 для сканера Realistic Pro-28, 12 В пост. тока, 100 мА, размер-2155, минусовая земля
20-126 для сканера Realistic Pro-57, 12 В пост. тока, 300 мА, размер-2155 Recoton: 18 В переменного тока, 150 мА, размер-2155
41A-12-830 для Pet Safe 300-006: 12 В переменного тока, 830 мА, размер-2555 , используйте SR-AC12-1.0-2.5
45-13128 ChannelMaster9521a 18 0005 ChannelMaster9521a 18VAC 1000MA Угол SR-AC18-1.0 + PH58-2155

52-650N Arista Переключаемый универсальный PAK 300MA 3 / 4,5 / 6/75 / 9 /12 В пост. тока сменный 2-контактный разъем
118 SW Bell 12 В пост. тока 200 мА размер-2155 минус земля использовать SR-DC12-500-2.1
500CT Goldstar 12 В пост. 2.1 +PH-296 для обратной полярности

810T Pactel 12 В пост. тока 250 мА угловой размер-2155 отрицательный заземление SR-DC12-500 и 48-2155 используйте SR-DC12-NP
1320 AT&T 13VAC 800mA size-2155 используйте PH-BE260
1820 Bell South 12VDC 300mA size-2150 SR0-100 отрицательный gnd 9001
3037 3037 канал Master 18VDC отрицательный GND F-59 разъем настроить SR-DC18-NP с F-59
4000T AT & T 12VDC 200MA подключена к доску Использование SR-DC12-500-NP 9000T
4000T AT&T 12 В пост. тока, 200 мА, угловой размер-2155, отрицательный заземление (версия с разъемом) использовать CR45-750
1` 4200T AT&T 12 В пост. тока, 200 мА, подключенный к плате , используйте CR45-750
5100 Модему SpeedStream DSL требуется 12 В пост.0 + CR30-343

480008
4822-219-10058 Phillips 13VDC 400ma размер-2155 NEG GND Использование SR-DC12-500-2.1
5500T AT & T 14VDC 360MA подключена к доску Использование SR-DC12-1.0- NP
5600T
5600T AT & T 12VDC 800MA подключен к доску Использование SR-DC12-1.0-NP
5650T AT & T 13VDC 850 мА подключена к доску Использование SR-DC12-1.0-NP
6000 Mostek необходимо 15 В постоянного тока штекер размера P35 используйте SR-DC-15-1.0-3.5
7047.0 Bradford Новинка Волоконно-оптическая Рождественская елка 12VAC 23W Использование PH58-1240 + PH-TC218 COAD
9100 AT & T 12VDC 300MA подключена к доску Использование CR45-746
33600 US Robotics Sportster 33.6K модем используйте SR-AC9-1.0 с адаптером размера CR30-343 45561-02 Plantronics (UD-09505C) 9 В пост. тока, 500 мА, отрицательное заземление, размер-2155 использовать SR-DC9-500-2.1 )
4400001 Ryobi 9 В пост. тока 400 мА минус заземление прямоугольная сторона-2155L
845885631 AT&T 10 В перем. тока 500 мА размер-2155 используйте SR-AC9-1.0-2.1
3502CA
Белл Юг 9ВДК 300 мА Размер-2555 POS GND Использование SR-DC9-500-2.1 + pH-296 для обратной полярности
3512025002C0 GTE 12VDC 250 мА Угол-2155 Отрицательный GND Использование SR -Dc12-500 с 48-2155

411205003C0 Escort 12VDC 500mA POS GND = PH-240 Plug Использование SR-DC12-500 с PH58-4740
AA-1880 OEM SPEDEMEAM 5360 ADSL модем 18VAC 800MA, размер -2155 Использование SR-AC-AC-18-1.0-2.1
A35-400 Bell South 12VDC 200 мА отрицательный GND Size-2155 Использование CR45-750
A2530 Record-a-Call 12VAC 600MA Размер-2155 используйте SR-AC12-1.0-2.1
A209220N Cobra 9 В пост. тока 150 мА размер-2155 отрицательный земля использовать CR45-757-2.1
AC-EV2 Sony (1-473-789-789-7 использовать отрицательный PHnd 13,5 В пост. SR-DC12-1.0 +PH-255
AC-T20S Sony 9 В пост. тока 300 мА размер под прямым углом-2155 минус заземление использовать Минус Используйте SR-DC9-1.0 +Ph58-1475
AC-T35 Sony 9VDC 210mA DCP-17 Минус Используйте SR-DC9-500 +Ph58-1475
09mA DDC3 Sony 09009 AC-0T50 -17 отрицательный GND см. Приведенные выше списки
AC-T42 Sony 9VDC 350 мА DCP17 отрицательный GND Использование SR-DC9-500 + PH58-1475
AC-T48 9VDC 210MA DCP17 Отрицательный GND Использование SR-DC9- 500 +Ph58-1475
AC-T62 Sony 12 В пост. тока 300 мА минус, заземление, вилка PH-255 0 мА минус, заземление PH-255, штекер , требуется специальная пайка.1
AC-T91S Sony 9VDC 210MA DCP-17 POS GND см. Вышеселенные списки
AC-T105 Sony 10VDC 650 мА DCP-17 отрицательный GND Использование SR-DC9-1.0 + PH58-1475
AC -T120 Sony 12 В пост. тока 200 мА DCP-17 поз. земля см. списки выше
AC-T121 Sony 12 В пост. -T122 Sony (серый) 9 В пост. тока 500 мА отрицательный заземление SR-DC9-500 +Ph58-1475
AC-T122 Sony (белый) 12 В пост.1 +PH-296 для обратной полярности

AC-T122B Sony (черный) 12VDC 300mA size-2155 pos gnd SR-DC12-500-2.1 +PH-296 для обратной полярности
AC-T145 904. VDC нужна информация о разъеме, полярности и силе тока
AC-T908 Sony (белый) 9VDC 200mA size-2155 pos gnd SR-DC9-500-2.1 +PH-296 для обратной полярности 10 В переменного тока размер-2155 для BC144XLT BC860XLT; также SR-DC12-2.1 используйте SR-AC9-1.0-2.1
AC-930A Sony 9VDC 600mA size-2155 pos заземление используйте SR-DC9-600-2.1 +PH-296 для изменения полярности Sony AC-
9VDC 600mA size-2155 Pos Ground используйте SR-DC9-600-2.1 +PH-296 для обратной полярности
ACC614 Code-A-Phone 10VDC 500mA size-2155 отрицательная земля используйте SR-DC9-1.0-2.81

ACC614-1 Code-A-Phone 9VDC 500mA size-2155 отрицательное заземление используйте SR-DC9-500-2.1
AD41-0
0DU (GJE-AD41-877) (GJE-AD41-877) (GJE-AD41-877) 9VDC 500MA Размер-2155 Отрицательная площадка
AD70U Uniden 12VDC 200 мА Отрицательный GND Размер-1335: BC70 / 120 / SC150 / 180 / BC3000 SR-DC12-500 & CR30-340 9000U
AD100U Uniden 12VDC Размер-2155 отрицательный GND Plug Pak для BC65XLT BC100XL Использование SR-DC12-500-2.1
AD140U Uniden 12VDC 500MA Размер-2155 Отрицательный GND для BC142XLT BCT7 Использование SR- DC12-500-2.1
AD140UP Uniden 12VDC 500mA размер-2155 минус земля для BC147XLT BC310A используйте SR-DC12-500-2.1
Uniden BC560 Мобильный сканер 12VDC Размер-2555 Отрицательная земля Использование CR45-761-2.5
AD-177 Sanyo 12VDC 200 мА Угловой размер-2155 POS MORD Использование SR-DC12-500 и 48-2155
AD-178 Sanyo 12VDC 400mA size-2155 pos заземление SR-DC12-500-2.1 +PH-296 для обратной полярности
AD-300 Canon (K30081) 13.5VDC 1AMP отрицательная земля, PH-255 Plug SR-DC12-1.0 + PH-255
AD310 Uniden 9VDC 210MA Размер-2155 Отрицательная земля Использование SR-DC9-500-2.1
AD314 Uniden 9VDC 350 мА отрицательный MONG Использование SR-DC9-500 + PH58-1475
AD420 Uniden 9VDC 350 мА Размер-2155 Отрицательная земля Использование SR-DC9-500-2.1
AD1220M NW Bell 12VDC 200 мА-2155 (полярность? )
AD1250 Cobra 12 В пост. тока 500 мА размер-2155 отрицательное заземление используйте SR-DC12-500-2.1
ADU240050 24VAC 500MA Размер-2155 Использование SR-AC24-500-2.1
ADP-10 (D12-2000) Домашняя 12 ВДЦ 2А Размер-2155 Отрицательная земля Использование SR-DC12-1.5-2.1
ADP-65HB Шлюз имеет выход 19 Вольт 3,42 А; отрицательный размер заземления DCP2555
ADP2010 Citizen (проигрыватель компакт-дисков CBM) 7 В пост. тока 800 мА, размер заземления-2155
AEC4190 Conair 9 В пост.
AT&T 954 4-линейный телефон требует 12 В пост. тока, 300 мА, размер 2555, отрицательное заземление , используйте SR-DC12-500-2.5
BE114810AAA BASLER электрический винтовой клемма 24VAC 10VA Использование PH58-2420
PH-BE260 13VAC 830MA Подходит для многих автоответчиков см. Вышеселенные списки
BENTLEY 100A & 100C 5 «ТВ нуждается в 12 ВДЦ 8 Вт положительная земля SR-DC12-1.0 +Ph396 +Ph58-2855; сборочный адаптер
C2175A Hewlett Packard 30VDC 400mA положительный размер заземления-6330
CA-570S Canon для Mini-DV 7W 7A 900 8.0.0090 8.0.001 8.0008.8.0008. -1190 в положении 7В

CCS-1 Wahl 1.2VDC 1.65A Controlless / Short Shaver разъем аналогичных CBH3C
CDLS-A09
CDLS-A09 AT & T 12VDC 200MA POS SIZEL SIZE-2155 SR-DC12-500-2.1 + PH-296 для обратной полярности
CL44 Columbia 12VDC 300 мА угол Размер-2155 Отрицательная земля SR-DC12-500 + PH58-2155
CU5001B Sanyo 12VDC 200ma Размер-2155 POS MORD Использование SR-DC12-500-2.1 + PH-296 к обратной полярности
CU6001T Sanyo 12 В пост. тока, 200 мА, типоразмер 2155, заземление SR-DC12-500-2.1 +PH-296 для обратной полярности
D12-1A Hon-Kwang 12 В пост. тока 1000 мА размер-2155 отрицательное заземление -Ac9-1.0-2.1

DC00 Sandan 9VDC 100 мА размером-2155 отрицательный земля
DPX412003 Craig 4.5VDC 700ma размер-2155 отрицательный земля 9000 мА DV1220 Bell Юг 12ВДК 200 мА Размер-2155 Отрицательная земля Использование CR45-750
DV1230 Audiovox 12 В пост. тока 300 мА размер-2155 отрицательная земля используйте CR45-757-2.1
DV1248
DV1248 Cobra Moaded: 12-14VDC Использование SR-DC12-1.0-2.1
DV1280 DVE 12 В постоянного тока 800 мА Размер-2155 Отрицательная земля Использование SR-DC12-1.0-2.1
DV-1280 -3UP DVE (Европа 230Vac) 12V 1000ВА Отрицательный размер земли-2555 US: Использование SR-DC12-1.0-2.5
DV1283 COBRA TOOT: 14VAC / 500MA или 12VAC / 830MA Использование PH-BE260
DV1283 -1 Record-A-Call 14 В переменного тока 500 мА используйте PH-BE260
DV9750-5 Cobra 9 В переменного тока 780 мА размер-2555 SR-AC9-1.0-2.5
EP-150U
EP-150U Sharp 9VDC 200MA Размер-2155 Plug POS MORD См. Вышеприведенные списки
EP-220 Sharp 12VDC 200ma POS Size-2155 SR-DC12-500-2.1
EUD4200 Execuedyne 10VAC 400ma Size-2555 SR-AC9-1.0-2.5

Техническое совет: Путешествия преобразователи мощности могут быть силовые трансформаторы Более 2 фунтов и дорогостоящие или Выпрямительные редукторы типа выпрямителя весят менее 1 фунта и дешевы.
Выпрямители можно использовать для переносных фенов, но радиоприемники, телевизоры, проигрыватели компакт-дисков и магнитофоны содержат электронные схемы, которые будут повреждены , если вы подключите их к сети переменного тока от редуктора мощности выпрямительного типа!
50 Гц по сравнению с 60 Гц: более качественные (только для переменного тока) магнитофоны и магнитофоны, а также устройства с часами зависят от частоты 60 Гц (США) для работы с правильной скоростью. Если вы возьмете часы США с частотой 60 Гц в Европу: они потеряют 10 минут в час при питании от сети переменного тока с частотой 50 Гц! Магнитофоны лучшего качества из США, подключенные к сети Европы, будут звучать смешно из-за слишком медленной работы!
Дешевое портативное оборудование, предназначенное для работы как от сети переменного тока, так и от батарей, не имеет значения, является ли сеть переменного тока частотой 50 Гц или 60 Гц, потому что их схемы и двигатели работают от постоянного тока (батареи) и не зависят от 50 Гц. или 60 Гц для управления скоростью! Двухполюсные однофазные генераторы
, работающие со скоростью 3600 об/мин, производят переменный ток частотой 60 Гц; если этот генератор работает со скоростью 3000 об/мин, он производит переменный ток частотой 50 Гц!

Технические характеристики трансформаторов серии ALLU TS

ALLU TS Структура

Уникальная конструкция ALLU TS-Structure позволяет просеивать фрагменты двух разных размеров из одного и того же устройства, обеспечивая более универсальную обработку.Оценка размера фрагмента основана на расстоянии растровой гребенки. Быстро и легко переключаться с одной работы на просеивание на другую. Самоочищающаяся конструкция обеспечивает максимально возможную производительность даже при работе с влажным материалом. Мы называем эту инновационную конструкцию незасоряющейся структурой. Все это обеспечивает более универсальную обработку, экономя время и деньги.

Обратитесь в компанию Pacific Rock and Recycle, чтобы узнать о необходимых размерах и наличии.

Применение TS-структуры

  • Обращение с отходами
  • Компостирование
  • Обратная засыпка/прокладка трубопровода
  • Дробление коры полевой

Таблица размеров серии TS Structure

Технические характеристики Рекоменд.
Экскаваторы
т
Рекоменд.
Колесные погрузчики
т
Объем
м3
Гидр. масло
расход
л/мин
Вес
ТС 25
кг
Ду 2-12 ТС 12-28 6-14 0,6/0,7 95-160 1 100
Ду 2-17 ТС 15-28 7-14 0,9/1,0 95-160 1 380
Ду 3-12 ТС 16-28 7-14 1,0/1,2 125-160 1 410
Ду 3-17 ТС 20-28 9-14 1,3/1,5 160-200 1 790
ДС 3-12 ТС 16-35 8-22 1,0/1,2 120-200 1 670
ДС 3-17 ТС 20-35 9-22 1,3/1,5 120-200 1 990
ДС 4-12 ТС 20-35 10-22 1,2/1,4 120-200 1 940
ДШ 3-23 ТС 24-35 12-22 1,7/2,0 140-235 2 360
ДШ 4-17 ТС 24-35 12-22 1,7/2,0 140-235 2 540
ДШ 4-23 ТС 30-* 14-22 2,3/2,7 190-315 3 160
ДХ 3-12 ТС 18-45 8-30 1,0/1,2 190-315 1 970
ДХ 3-17 ТС 22-45 10-30 1,3/1,5 190-315 2 460
ДХ 3-23 ТС 26-45 14-30 1,7/2,0 190-315 2 870
ДХ 4-12 ТС 22-45 10-30 1,2/1,4 190-315 2 240
ДХ 4-17 ТС 27-45 14-30 1,8/2,1 190-315 2 940
ДХ 4-23 ТС 32-45 16-30 2,3/2,7 190-315 3 370

Изменение температуры самой горячей точки обмотки восьмитрансформаторного трансформатора (ТФ)…

Контекст 1

… На рис. 3 показано изменение температуры самой горячей точки обмотки для восьми распределительных трансформаторов номинальной мощностью 160, 190, 220, 250, 300, 400, 500 и 630 кВА и отношение R потерь нагрузки при номинальной нагрузке к потерям холостого хода, равное 5,61. , 6,63, 6,9, 5,23, 5,68, 4,73, 5,44 и 7,11 соответственно, обслуживающих промышленную нагрузку с начальной пиковой мощностью, равной 150 кВА, на 25-м году исследуемого периода при темпе роста нагрузки 2,7%. Масштаб левой оси на рис. 3 соответствует значениям кривой нагрузки K k (выраженной в кВА, т, поскольку удельные значения различаются в зависимости от номинальной мощности каждого трансформатора), показанной в виде гистограммы.Шкала правой оси на Рисунке 3 показывает изменение самой горячей точки обмотки в °C (соответствует восьми номиналам трансформатора на Рисунке 3). Тепловой расчет основан на типовой кривой нагрузки промышленного потребителя с использованием температуры окружающей среды, равной 40 o C. Как видно из рисунка 3, трансформаторы мощностью 160, 190 и 220 кВА преодолевают предел 120 o C. C тем, чтобы они не годились для выполнения нагрузки на 25-м году обучения…

Контекст 2

… На рис. 3 показано изменение температуры самой горячей точки обмотки для восьми распределительных трансформаторов номинальной мощностью 160, 190, 220, 250, 300, 400, 500 и 630 кВА и отношение R потерь нагрузки при номинальной нагрузке к потерям холостого хода, равное 5,61. , 6,63, 6,9, 5,23, 5,68, 4,73, 5,44 и 7,11 соответственно, обслуживающих промышленную нагрузку с начальной пиковой мощностью, равной 150 кВА, на 25-м году исследуемого периода при темпе роста нагрузки 2,7%. Масштаб левой оси на рис. 3 соответствует значениям кривой нагрузки K k (выраженной в кВА, т, поскольку удельные значения различаются в зависимости от номинальной мощности каждого трансформатора), показанной в виде гистограммы.Шкала правой оси на Рисунке 3 показывает изменение самой горячей точки обмотки в °C (соответствует восьми номиналам трансформатора на Рисунке 3). Тепловой расчет основан на типовой кривой нагрузки промышленного потребителя с использованием температуры окружающей среды, равной 40 o C. Как видно из рисунка 3, трансформаторы мощностью 160, 190 и 220 кВА преодолевают предел 120 o C. C тем, чтобы они не подходили для выполнения нагрузки на 25-м году обучения…

Контекст 3

… На рис. 3 показано изменение температуры самой горячей точки обмотки для восьми распределительных трансформаторов номинальной мощностью 160, 190, 220, 250, 300, 400, 500 и 630 кВА и отношение R потерь нагрузки при номинальной нагрузке к потерям холостого хода, равное 5,61. , 6,63, 6,9, 5,23, 5,68, 4,73, 5,44 и 7,11 соответственно, обслуживающих промышленную нагрузку с начальной пиковой мощностью, равной 150 кВА, на 25-м году исследуемого периода при темпе роста нагрузки 2,7%. Масштаб левой оси на рис. 3 соответствует значениям кривой нагрузки K k (выраженной в кВА, т, поскольку удельные значения различаются в зависимости от номинальной мощности каждого трансформатора), показанной в виде гистограммы.Шкала правой оси на Рисунке 3 показывает изменение самой горячей точки обмотки в °C (соответствует восьми номиналам трансформатора на Рисунке 3). Тепловой расчет основан на типовой кривой нагрузки промышленного потребителя с использованием температуры окружающей среды, равной 40 o C. Как видно из рисунка 3, трансформаторы мощностью 160, 190 и 220 кВА преодолевают предел 120 o C. C тем, чтобы они не годились для выполнения нагрузки на 25-м году обучения…

Контекст 4

… На рис. 3 показано изменение температуры самой горячей точки обмотки для восьми распределительных трансформаторов номинальной мощностью 160, 190, 220, 250, 300, 400, 500 и 630 кВА и отношение R потерь нагрузки при номинальной нагрузке к потерям холостого хода, равное 5,61. , 6,63, 6,9, 5,23, 5,68, 4,73, 5,44 и 7,11 соответственно, обслуживающих промышленную нагрузку с начальной пиковой мощностью, равной 150 кВА, на 25-м году исследуемого периода при темпе роста нагрузки 2,7%. Масштаб левой оси на рис. 3 соответствует значениям кривой нагрузки K k (выраженной в кВА, т, поскольку удельные значения различаются в зависимости от номинальной мощности каждого трансформатора), показанной в виде гистограммы.Шкала правой оси на Рисунке 3 показывает изменение самой горячей точки обмотки в °C (соответствует восьми номиналам трансформатора на Рисунке 3). Тепловой расчет основан на типовой кривой нагрузки промышленного потребителя с использованием температуры окружающей среды, равной 40 o C. Как видно из рисунка 3, трансформаторы мощностью 160, 190 и 220 кВА преодолевают предел 120 o C. C тем, чтобы они не годились для выполнения нагрузки на 25-м году обучения…

Контекст 5

… На рис. 3 показано изменение температуры самой горячей точки обмотки для восьми распределительных трансформаторов номинальной мощностью 160, 190, 220, 250, 300, 400, 500 и 630 кВА и отношение R потерь нагрузки при номинальной нагрузке к потерям холостого хода, равное 5,61. , 6,63, 6,9, 5,23, 5,68, 4,73, 5,44 и 7,11 соответственно, обслуживающих промышленную нагрузку с начальной пиковой мощностью, равной 150 кВА, на 25-м году исследуемого периода при темпе роста нагрузки 2,7%. Масштаб левой оси на рис. 3 соответствует значениям кривой нагрузки K k (выраженной в кВА, т, поскольку удельные значения различаются в зависимости от номинальной мощности каждого трансформатора), показанной в виде гистограммы.Шкала правой оси на Рисунке 3 показывает изменение самой горячей точки обмотки в °C (соответствует восьми номиналам трансформатора на Рисунке 3). Тепловой расчет основан на типовой кривой нагрузки промышленного потребителя с использованием температуры окружающей среды, равной 40 o C. Как видно из рисунка 3, трансформаторы мощностью 160, 190 и 220 кВА преодолевают предел 120 o C. C тем, чтобы они не годились для выполнения нагрузки на 25-м году обучения…

Контекст 6

… в узлах рис. 5 встречаются типы потребителей: бытовые, туристические и промышленные, с суточными профилями нагрузки, которые соответствуют коэффициенту загрузки l f, равному 0,55, 0,75 и 0,61 соответственно. Нагрузка каждого узла обслуживается распределительной подстанцией, состоящей из распределительного трансформатора 20/0,4 кВ, как показано на схеме. В случае подстанций типов 1-6 рассматриваются шесть номиналов трансформаторов, а именно 160, 250, 300, 400, 500 и 630 кВА. В случае подстанций типа 7-8 из-за меньшего начального пикового значения и скорости роста рассматриваемой нагрузки в исследование были включены промежуточные мощности (между 160 и 250 кВА), в результате чего был получен диапазон из пяти рейтингов, состоящий из 160, 190, 220, 250 и 300 кВА.Мощности 400, 500 и 630 кВА не вошли в диапазон для данного типа подстанций, так как их мощности значительно превышают обслуживаемую нагрузку. В таблице 1 приведены основные технические характеристики и цена предложения рассматриваемых трансформаторов. Первоначально был проведен тепловой расчет, чтобы найти точные периоды, когда каждый трансформатор может соответствовать ожиданиям по нагрузке для вышеуказанных шести типов подстанций. Расчеты, описанные в разделе 3 и проиллюстрированные на рисунке 3, были повторены для шести трансформаторов и каждого года исследования, в результате чего периоды времени в таблице 1 (указанные как годы термической стойкости, т.е. лет, в течение которых трансформатор способен выдерживать соответствующую тепловую нагрузку). Согласно табл. 1, трансформаторы до 500 кВА пригодны для обслуживания нагрузок подстанций 1-4 типов, так как их термическая стойкость охватывает исследуемый период (поэтому термическая стойкость трансформаторов 630 кВА в этих случаях не исследуется). В случае подстанций типов 5 и 6 нельзя использовать трансформаторы мощностью 160 кВА, поскольку начальная пиковая нагрузка приводит к чрезмерной тепловой перегрузке, и могут рассматриваться только номинальные значения от 250 до 630 кВА.В случае подстанций типов 7-8 все рассматриваемые номиналы подходят для обслуживания нагрузки до последнего года исследования. Периоды, полученные в таблице 1, использовались для определения стадий графика на рисунке 4. Чтобы определить вес каждой дуги на графике на рисунке 4, расчет стоимости потерь энергии каждого трансформатора за исследуемый период был основан на расчет годовой стоимости потерь энергии, описанный в разделе 4. Стоимость потерь энергии C i → j, соответствующая L переходу из узла i (p -й год исследуемого периода) в j (q -й год исследуемого периода), вычисляется…

Удобная для мобильных устройств модель на основе Transformer для классификации изображений

  Модель: «модель»
______________________________________________________________________________________________________________
Слой (тип) Выходная форма Параметр # Подключен к
================================================== ================================================
input_1 (InputLayer) [(Нет, 256, 256, 3) 0
______________________________________________________________________________________________________________
rescaling (Перемасштабирование) (Нет, 256, 256, 3) 0 input_1[0][0]
______________________________________________________________________________________________________________
conv2d (Conv2D) (нет, 128, 128, 16) 448 масштабирование[0][0]
______________________________________________________________________________________________________________
conv2d_1 (Conv2D) (Нет, 128, 128, 32) 512 conv2d[0][0]
______________________________________________________________________________________________________________
batch_normalization (BatchNorma (Нет, 128, 128, 32) 128 conv2d_1[0][0]
______________________________________________________________________________________________________________
тф.nn.silu (TFOpLambda) (Нет, 128, 128, 32) 0 batch_normalization[0][0]
______________________________________________________________________________________________________________
depthwise_conv2d (DepthwiseConv (None, 128, 128, 32) 288 tf.nn.silu[0][0]
______________________________________________________________________________________________________________
batch_normalization_1 (BatchNor (None, 128, 128, 32) 128 depthwise_conv2d[0][0]
______________________________________________________________________________________________________________
тф.nn.silu_1 (TFOpLambda) (Нет, 128, 128, 32) 0 batch_normalization_1[0][0]
______________________________________________________________________________________________________________
conv2d_2 (Conv2D) (Нет, 128, 128, 16) 512 tf.nn.silu_1[0][0]
______________________________________________________________________________________________________________
batch_normalization_2 (BatchNor (Нет, 128, 128, 16) 64 conv2d_2[0][0]
______________________________________________________________________________________________________________
add (Добавить) (Нет, 128, 128, 16) 0 batch_normalization_2[0][0]
                                                                 conv2d[0][0]
______________________________________________________________________________________________________________
conv2d_3 (Conv2D) (Нет, 128, 128, 32) 512 добавить[0][0]
______________________________________________________________________________________________________________
batch_normalization_3 (BatchNor (None, 128, 128, 32) 128 conv2d_3[0][0]
______________________________________________________________________________________________________________
тф.nn.silu_2 (TFOpLambda) (Нет, 128, 128, 32) 0 batch_normalization_3[0][0]
______________________________________________________________________________________________________________
zero_padding2d (ZeroPadding2D) (Нет, 129, 129, 32) 0 tf.nn.silu_2[0][0]
______________________________________________________________________________________________________________
depthwise_conv2d_1 (DepthwiseCo (None, 64, 64, 32) 288 zero_padding2d[0][0]
______________________________________________________________________________________________________________
batch_normalization_4 (BatchNor (None, 64, 64, 32) 128 depthwise_conv2d_1[0][0]
______________________________________________________________________________________________________________
тф.nn.silu_3 (TFOpLambda) (Нет, 64, 64, 32) 0 batch_normalization_4[0][0]
______________________________________________________________________________________________________________
conv2d_4 (Conv2D) (Нет, 64, 64, 24) 768 tf.nn.silu_3[0][0]
______________________________________________________________________________________________________________
batch_normalization_5 (BatchNor (Нет, 64, 64, 24) 96 conv2d_4[0][0]
______________________________________________________________________________________________________________
conv2d_5 (Conv2D) (Нет, 64, 64, 48) 1152 batch_normalization_5[0][0]
______________________________________________________________________________________________________________
batch_normalization_6 (BatchNor (Нет, 64, 64, 48) 192 conv2d_5[0][0]
______________________________________________________________________________________________________________
тф.nn.silu_4 (TFOpLambda) (Нет, 64, 64, 48) 0 batch_normalization_6[0][0]
______________________________________________________________________________________________________________
depthwise_conv2d_2 (DepthwiseCo (Нет, 64, 64, 48) 432 tf.nn.silu_4[0][0]
______________________________________________________________________________________________________________
batch_normalization_7 (BatchNor (None, 64, 64, 48) 192 deepwise_conv2d_2[0][0]
______________________________________________________________________________________________________________
тф.nn.silu_5 (TFOpLambda) (Нет, 64, 64, 48) 0 batch_normalization_7[0][0]
______________________________________________________________________________________________________________
conv2d_6 (Conv2D) (Нет, 64, 64, 24) 1152 tf.nn.silu_5[0][0]
______________________________________________________________________________________________________________
batch_normalization_8 (BatchNor (Нет, 64, 64, 24) 96 conv2d_6[0][0]
______________________________________________________________________________________________________________
add_1 (Добавить) (Нет, 64, 64, 24) 0 batch_normalization_8[0][0]
                                                                 batch_normalization_5[0][0]
______________________________________________________________________________________________________________
conv2d_7 (Conv2D) (Нет, 64, 64, 48) 1152 add_1[0][0]
______________________________________________________________________________________________________________
batch_normalization_9 (BatchNor (Нет, 64, 64, 48) 192 conv2d_7[0][0]
______________________________________________________________________________________________________________
тф.nn.silu_6 (TFOpLambda) (Нет, 64, 64, 48) 0 batch_normalization_9[0][0]
______________________________________________________________________________________________________________
depthwise_conv2d_3 (DepthwiseCo (Нет, 64, 64, 48) 432 tf.nn.silu_6[0][0]
______________________________________________________________________________________________________________
batch_normalization_10 (BatchNo (None, 64, 64, 48) 192 deepwise_conv2d_3[0][0]
______________________________________________________________________________________________________________
тф.nn.silu_7 (TFOpLambda) (Нет, 64, 64, 48) 0 batch_normalization_10[0][0]
______________________________________________________________________________________________________________
conv2d_8 (Conv2D) (Нет, 64, 64, 24) 1152 tf.nn.silu_7[0][0]
______________________________________________________________________________________________________________
batch_normalization_11 (BatchNo (Нет, 64, 64, 24) 96 conv2d_8[0][0]
______________________________________________________________________________________________________________
add_2 (Добавить) (Нет, 64, 64, 24) 0 batch_normalization_11[0][0]
                                                                 add_1[0][0]
______________________________________________________________________________________________________________
conv2d_9 (Conv2D) (Нет, 64, 64, 48) 1152 add_2[0][0]
______________________________________________________________________________________________________________
batch_normalization_12 (BatchNo (None, 64, 64, 48) 192 conv2d_9[0][0]
______________________________________________________________________________________________________________
тф.nn.silu_8 (TFOpLambda) (Нет, 64, 64, 48) 0 batch_normalization_12[0][0]
______________________________________________________________________________________________________________
zero_padding2d_1 (ZeroPadding2D (None, 65, 65, 48) 0 tf.nn.silu_8[0][0]
______________________________________________________________________________________________________________
depthwise_conv2d_4 (DepthwiseCo (None, 32, 32, 48) 432 zero_padding2d_1[0][0]
______________________________________________________________________________________________________________
batch_normalization_13 (BatchNo (None, 32, 32, 48) 192 deepwise_conv2d_4[0][0]
______________________________________________________________________________________________________________
тф.nn.silu_9 (TFOPpLambda) (Нет, 32, 32, 48) 0 batch_normalization_13[0][0]
______________________________________________________________________________________________________________
conv2d_10 (Conv2D) (Нет, 32, 32, 48) 2304 tf.nn.silu_9[0][0]
______________________________________________________________________________________________________________
batch_normalization_14 (BatchNo (None, 32, 32, 48) 192 conv2d_10[0][0]
______________________________________________________________________________________________________________
conv2d_11 (Conv2D) (нет, 32, 32, 64) 27712 batch_normalization_14[0][0]
______________________________________________________________________________________________________________
conv2d_12 (Conv2D) (Нет, 32, 32, 64) 4160 conv2d_11[0][0]
______________________________________________________________________________________________________________
reshape (Изменить форму) (Нет, 4, 256, 64) 0 conv2d_12[0][0]
______________________________________________________________________________________________________________
layer_normalization (LayerNorma (None, 4, 256, 64) 128 изменить форму [0] [0]
______________________________________________________________________________________________________________
multi_head_attention (MultiHead (Нет, 4, 256, 64) 33216 layer_normalization[0][0]
                                                                 layer_normalization[0][0]
______________________________________________________________________________________________________________
add_3 (Добавить) (Нет, 4, 256, 64) 0 multi_head_attention[0][0]
                                                                 изменить форму[0][0]
______________________________________________________________________________________________________________
layer_normalization_1 (LayerNor (Нет, 4, 256, 64) 128 add_3[0][0]
______________________________________________________________________________________________________________
плотный (Плотный) (Нет, 4, 256, 128) 8320 layer_normalization_1[0][0]
______________________________________________________________________________________________________________
выпадение (Dropout) (None, 4, 256, 128) 0 плотно[0][0]
______________________________________________________________________________________________________________
плотности_1 (Плотные) (Нет, 4, 256, 64) 8256 отсева[0][0]
______________________________________________________________________________________________________________
dropout_1 (Выпадение) (Нет, 4, 256, 64) 0 плотно_1[0][0]
______________________________________________________________________________________________________________
add_4 (Добавить) (Нет, 4, 256, 64) 0 dropout_1[0][0]
                                                                 add_3[0][0]
______________________________________________________________________________________________________________
layer_normalization_2 (LayerNor (Нет, 4, 256, 64) 128 add_4[0][0]
______________________________________________________________________________________________________________
multi_head_attention_1 (MultiHe (Нет, 4, 256, 64) 33216 layer_normalization_2[0][0]
                                                                 layer_normalization_2[0][0]
______________________________________________________________________________________________________________
add_5 (Добавить) (Нет, 4, 256, 64) 0 multi_head_attention_1[0][0]
                                                                 add_4[0][0]
______________________________________________________________________________________________________________
layer_normalization_3 (LayerNor (Нет, 4, 256, 64) 128 add_5[0][0]
______________________________________________________________________________________________________________
плотности_2 (Плотность) (Нет, 4, 256, 128) 8320 layer_normalization_3[0][0]
______________________________________________________________________________________________________________
dropout_2 (Выпадение) (Нет, 4, 256, 128) 0 плотно_2[0][0]
______________________________________________________________________________________________________________
плотности_3 (Плотные) (Нет, 4, 256, 64) 8256 dropout_2[0][0]
______________________________________________________________________________________________________________
dropout_3 (Выпадение) (Нет, 4, 256, 64) 0 плотно_3[0][0]
______________________________________________________________________________________________________________
add_6 (Добавить) (Нет, 4, 256, 64) 0 dropout_3[0][0]
                                                                 add_5[0][0]
______________________________________________________________________________________________________________
reshape_1 (Изменить форму) (Нет, 32, 32, 64) 0 add_6[0][0]
______________________________________________________________________________________________________________
conv2d_13 (Conv2D) (нет, 32, 32, 48) 3120 reshape_1[0][0]
______________________________________________________________________________________________________________
concatenate (Объединить) (Нет, 32, 32, 96) 0 batch_normalization_14[0][0]
                                                                 conv2d_13[0][0]
______________________________________________________________________________________________________________
conv2d_14 (Conv2D) (нет, 32, 32, 64) 55360 конкатенация[0][0]
______________________________________________________________________________________________________________
conv2d_15 (Conv2D) (Нет, 32, 32, 128) 8192 conv2d_14[0][0]
______________________________________________________________________________________________________________
batch_normalization_15 (BatchNo (None, 32, 32, 128) 512 conv2d_15[0][0]
______________________________________________________________________________________________________________
тф.nn.silu_10 (TFOPpLambda) (Нет, 32, 32, 128) 0 batch_normalization_15[0][0]
______________________________________________________________________________________________________________
zero_padding2d_2 (ZeroPadding2D (None, 33, 33, 128) 0 tf.nn.silu_10[0][0]
______________________________________________________________________________________________________________
depthwise_conv2d_5 (DepthwiseCo (None, 16, 16, 128) 1152 zero_padding2d_2[0][0]
______________________________________________________________________________________________________________
batch_normalization_16 (BatchNo (None, 16, 16, 128) 512 deepwise_conv2d_5[0][0]
______________________________________________________________________________________________________________
тф.nn.silu_11 (TFOPpLambda) (Нет, 16, 16, 128) 0 batch_normalization_16[0][0]
______________________________________________________________________________________________________________
conv2d_16 (Conv2D) (Нет, 16, 16, 64) 8192 tf.nn.silu_11[0][0]
______________________________________________________________________________________________________________
batch_normalization_17 (BatchNo (Нет, 16, 16, 64) 256 conv2d_16[0][0]
______________________________________________________________________________________________________________
conv2d_17 (Conv2D) (Нет, 16, 16, 80) 46160 batch_normalization_17[0][0]
______________________________________________________________________________________________________________
conv2d_18 (Conv2D) (Нет, 16, 16, 80) 6480 conv2d_17[0][0]
______________________________________________________________________________________________________________
reshape_2 (Изменить форму) (Нет, 4, 64, 80) 0 conv2d_18[0][0]
______________________________________________________________________________________________________________
layer_normalization_4 (LayerNor (None, 4, 64, 80) 160 reshape_2[0][0]
______________________________________________________________________________________________________________
multi_head_attention_2 (MultiHe (Нет, 4, 64, 80) 51760 layer_normalization_4[0][0]
                                                                 layer_normalization_4[0][0]
______________________________________________________________________________________________________________
add_7 (Добавить) (Нет, 4, 64, 80) 0 multi_head_attention_2[0][0]
                                                                 изменить форму_2[0][0]
______________________________________________________________________________________________________________
layer_normalization_5 (LayerNor (Нет, 4, 64, 80) 160 add_7[0][0]
______________________________________________________________________________________________________________
плотности_4 (Плотность) (Нет, 4, 64, 160) 12960 layer_normalization_5[0][0]
______________________________________________________________________________________________________________
dropout_4 (Выпадение) (Нет, 4, 64, 160) 0 плотно_4[0][0]
______________________________________________________________________________________________________________
плотности_5 (Плотные) (Нет, 4, 64, 80) 12880 dropout_4[0][0]
______________________________________________________________________________________________________________
dropout_5 (Выпадение) (Нет, 4, 64, 80) 0 плотно_5[0][0]
______________________________________________________________________________________________________________
add_8 (Добавить) (Нет, 4, 64, 80) 0 dropout_5[0][0]
                                                                 add_7[0][0]
______________________________________________________________________________________________________________
layer_normalization_6 (LayerNor (Нет, 4, 64, 80) 160 add_8[0][0]
______________________________________________________________________________________________________________
multi_head_attention_3 (MultiHe (Нет, 4, 64, 80) 51760 layer_normalization_6[0][0]
                                                                 layer_normalization_6[0][0]
______________________________________________________________________________________________________________
add_9 (Добавить) (Нет, 4, 64, 80) 0 multi_head_attention_3[0][0]
                                                                 add_8[0][0]
______________________________________________________________________________________________________________
layer_normalization_7 (LayerNor (Нет, 4, 64, 80) 160 add_9[0][0]
______________________________________________________________________________________________________________
плотности_6 (Плотность) (Нет, 4, 64, 160) 12960 layer_normalization_7[0][0]
______________________________________________________________________________________________________________
dropout_6 (Выпадение) (Нет, 4, 64, 160) 0 плотно_6[0][0]
______________________________________________________________________________________________________________
плотности_7 (Плотные) (Нет, 4, 64, 80) 12880 dropout_6[0][0]
______________________________________________________________________________________________________________
dropout_7 (Выпадение) (Нет, 4, 64, 80) 0 плотно_7[0][0]
______________________________________________________________________________________________________________
add_10 (Добавить) (Нет, 4, 64, 80) 0 dropout_7[0][0]
                                                                 add_9[0][0]
______________________________________________________________________________________________________________
layer_normalization_8 (LayerNor (Нет, 4, 64, 80) 160 add_10[0][0]
______________________________________________________________________________________________________________
multi_head_attention_4 (MultiHe (Нет, 4, 64, 80) 51760 layer_normalization_8[0][0]
                                                                 layer_normalization_8[0][0]
______________________________________________________________________________________________________________
add_11 (Добавить) (Нет, 4, 64, 80) 0 multi_head_attention_4[0][0]
                                                                 add_10[0][0]
______________________________________________________________________________________________________________
layer_normalization_9 (LayerNor (Нет, 4, 64, 80) 160 add_11[0][0]
______________________________________________________________________________________________________________
плотности_8 (Плотность) (Нет, 4, 64, 160) 12960 layer_normalization_9[0][0]
______________________________________________________________________________________________________________
dropout_8 (Выпадение) (Нет, 4, 64, 160) 0 плотно_8[0][0]
______________________________________________________________________________________________________________
плотности_9 (Плотные) (Нет, 4, 64, 80) 12880 dropout_8[0][0]
______________________________________________________________________________________________________________
dropout_9 (Выпадение) (Нет, 4, 64, 80) 0 плотно_9[0][0]
______________________________________________________________________________________________________________
add_12 (Добавить) (Нет, 4, 64, 80) 0 dropout_9[0][0]
                                                                 add_11[0][0]
______________________________________________________________________________________________________________
layer_normalization_10 (LayerNo (Нет, 4, 64, 80) 160 add_12[0][0]
______________________________________________________________________________________________________________
multi_head_attention_5 (MultiHe (Нет, 4, 64, 80) 51760 layer_normalization_10[0][0]
                                                                 layer_normalization_10[0][0]
______________________________________________________________________________________________________________
add_13 (Добавить) (Нет, 4, 64, 80) 0 multi_head_attention_5[0][0]
                                                                 add_12[0][0]
______________________________________________________________________________________________________________
layer_normalization_11 (LayerNo (Нет, 4, 64, 80) 160 add_13[0][0]
______________________________________________________________________________________________________________
плотности_10 (Плотность) (Нет, 4, 64, 160) 12960 layer_normalization_11[0][0]
______________________________________________________________________________________________________________
dropout_10 (Выпадение) (Нет, 4, 64, 160) 0 плотно_10[0][0]
______________________________________________________________________________________________________________
плотности_11 (Плотные) (Нет, 4, 64, 80) 12880 dropout_10[0][0]
______________________________________________________________________________________________________________
dropout_11 (Выпадение) (Нет, 4, 64, 80) 0 плотно_11[0][0]
______________________________________________________________________________________________________________
add_14 (Добавить) (Нет, 4, 64, 80) 0 dropout_11[0][0]
                                                                 add_13[0][0]
______________________________________________________________________________________________________________
reshape_3 (Изменить форму) (Нет, 16, 16, 80) 0 add_14[0][0]
______________________________________________________________________________________________________________
conv2d_19 (Conv2D) (Нет, 16, 16, 64) 5184 reshape_3[0][0]
______________________________________________________________________________________________________________
concatenate_1 (Объединение) (Нет, 16, 16, 128) 0 batch_normalization_17[0][0]
                                                                 conv2d_19[0][0]
______________________________________________________________________________________________________________
conv2d_20 (Conv2D) (нет, 16, 16, 80)  concatenate_1[0][0]
______________________________________________________________________________________________________________
conv2d_21 (Conv2D) (Нет, 16, 16, 160) 12800 conv2d_20[0][0]
______________________________________________________________________________________________________________
batch_normalization_18 (BatchNo (None, 16, 16, 160) 640 conv2d_21[0][0]
______________________________________________________________________________________________________________
тф.nn.silu_12 (TFOpLambda) (Нет, 16, 16, 160) 0 batch_normalization_18[0][0]
______________________________________________________________________________________________________________
zero_padding2d_3 (ZeroPadding2D (None, 17, 17, 160) 0 tf.nn.silu_12[0][0]
______________________________________________________________________________________________________________
depthwise_conv2d_6 (DepthwiseCo (None, 8, 8, 160) 1440 zero_padding2d_3[0][0]
______________________________________________________________________________________________________________
batch_normalization_19 (BatchNo (None, 8, 8, 160) 640 depthwise_conv2d_6[0][0]
______________________________________________________________________________________________________________
тф.nn.silu_13 (TFOPpLambda) (Нет, 8, 8, 160) 0 batch_normalization_19[0][0]
______________________________________________________________________________________________________________
conv2d_22 (Conv2D) (Нет, 8, 8, 80) 12800 tf.nn.silu_13[0][0]
______________________________________________________________________________________________________________
batch_normalization_20 (BatchNo (None, 8, 8, 80) 320 conv2d_22[0][0]
______________________________________________________________________________________________________________
conv2d_23 (Conv2D) (Нет, 8, 8, 96) 69216 batch_normalization_20[0][0]
______________________________________________________________________________________________________________
conv2d_24 (Conv2D) (Нет, 8, 8, 96) 9312 conv2d_23[0][0]
______________________________________________________________________________________________________________
reshape_4 (Изменить форму) (Нет, 4, 16, 96) 0 conv2d_24[0][0]
______________________________________________________________________________________________________________
layer_normalization_12 (LayerNo (None, 4, 16, 96) 192 reshape_4[0][0]
______________________________________________________________________________________________________________
multi_head_attention_6 (MultiHe (Нет, 4, 16, 96) 74400 layer_normalization_12[0][0]
                                                                 layer_normalization_12[0][0]
______________________________________________________________________________________________________________
add_15 (Добавить) (Нет, 4, 16, 96) 0 multi_head_attention_6[0][0]
                                                                 изменить форму_4[0][0]
______________________________________________________________________________________________________________
layer_normalization_13 (LayerNo (Нет, 4, 16, 96) 192 add_15[0][0]
______________________________________________________________________________________________________________
плотности_12 (Плотность) (Нет, 4, 16, 192) 18624 layer_normalization_13[0][0]
______________________________________________________________________________________________________________
dropout_12 (Выпадение) (Нет, 4, 16, 192) 0 плотно_12[0][0]
______________________________________________________________________________________________________________
плотности_13 (Плотные) (Нет, 4, 16, 96) 18528 dropout_12[0][0]
______________________________________________________________________________________________________________
dropout_13 (Выпадение) (Нет, 4, 16, 96) 0 плотно_13[0][0]
______________________________________________________________________________________________________________
add_16 (Добавить) (Нет, 4, 16, 96) 0 dropout_13[0][0]
                                                                 add_15[0][0]
______________________________________________________________________________________________________________
layer_normalization_14 (LayerNo (Нет, 4, 16, 96) 192 add_16[0][0]
______________________________________________________________________________________________________________
multi_head_attention_7 (MultiHe (Нет, 4, 16, 96) 74400 layer_normalization_14[0][0]
                                                                 layer_normalization_14[0][0]
______________________________________________________________________________________________________________
add_17 (Добавить) (Нет, 4, 16, 96) 0 multi_head_attention_7[0][0]
                                                                 add_16[0][0]
______________________________________________________________________________________________________________
layer_normalization_15 (LayerNo (Нет, 4, 16, 96) 192 add_17[0][0]
______________________________________________________________________________________________________________
плотности_14 (Плотность) (Нет, 4, 16, 192) 18624 layer_normalization_15[0][0]
______________________________________________________________________________________________________________
dropout_14 (Выпадение) (Нет, 4, 16, 192) 0 плотно_14[0][0]
______________________________________________________________________________________________________________
плотности_15 (Плотные) (Нет, 4, 16, 96) 18528 dropout_14[0][0]
______________________________________________________________________________________________________________
dropout_15 (Выпадение) (Нет, 4, 16, 96) 0 плотно_15[0][0]
______________________________________________________________________________________________________________
add_18 (Добавить) (Нет, 4, 16, 96) 0 dropout_15[0][0]
                                                                 add_17[0][0]
______________________________________________________________________________________________________________
layer_normalization_16 (LayerNo (Нет, 4, 16, 96) 192 add_18[0][0]
______________________________________________________________________________________________________________
multi_head_attention_8 (MultiHe (Нет, 4, 16, 96) 74400 layer_normalization_16[0][0]
                                                                 layer_normalization_16[0][0]
______________________________________________________________________________________________________________
add_19 (Добавить) (Нет, 4, 16, 96) 0 multi_head_attention_8[0][0]
                                                                 add_18[0][0]
______________________________________________________________________________________________________________
layer_normalization_17 (LayerNo (Нет, 4, 16, 96) 192 add_19[0][0]
______________________________________________________________________________________________________________
плотности_16 (Плотность) (Нет, 4, 16, 192) 18624 layer_normalization_17[0][0]
______________________________________________________________________________________________________________
dropout_16 (Выпадение) (Нет, 4, 16, 192) 0 плотно_16[0][0]
______________________________________________________________________________________________________________
плотности_17 (Плотные) (Нет, 4, 16, 96) 18528 dropout_16[0][0]
______________________________________________________________________________________________________________
dropout_17 (Выпадение) (Нет, 4, 16, 96) 0 плотно_17[0][0]
______________________________________________________________________________________________________________
add_20 (Добавить) (Нет, 4, 16, 96) 0 dropout_17[0][0]
                                                                 add_19[0][0]
______________________________________________________________________________________________________________
reshape_5 (Изменить форму) (Нет, 8, 8, 96) 0 add_20[0][0]
______________________________________________________________________________________________________________
conv2d_25 (Conv2D) (Нет, 8, 8, 80) 7760 reshape_5[0][0]
______________________________________________________________________________________________________________
concatenate_2 (Объединение) (Нет, 8, 8, 160) 0 batch_normalization_20[0][0]
                                                                 conv2d_25[0][0]
______________________________________________________________________________________________________________
conv2d_26 (Conv2D) (нет, 8, 8, 96) 138336 concatenate_2[0][0]
______________________________________________________________________________________________________________
conv2d_27 (Conv2D) (нет, 8, 8, 320) 31040 conv2d_26[0][0]
______________________________________________________________________________________________________________
global_average_pooling2d (Globa (Нет, 320) 0 conv2d_27[0][0]
______________________________________________________________________________________________________________
плотности_18 (Плотность) (Нет, 5) 1605 global_average_pooling2d[0][0]
================================================== ================================================
Всего параметров: 1 307 621
Обучаемые параметры: 1 305 077
Необучаемые параметры: 2544
______________________________________________________________________________________________________________
  

Блок Управляющий трансформатор, Разделительный трансформатор, Защитный трансформатор

— — — — — — — — L-Piece | M3 винты | Базовая пластина — — — — — 1 — — — — II — — — — — — — — — — — — — — — — 100 | 100 — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — 9616 50 — 60 — 9616

212,35 €

9616 50 — 60 — — — — — — — — — — — — — — 9616 — — 9616 50 — 60 — 9616 — 9616 50 — 60 — — — — — — — — — — — — — 9616 9616 50 — 60 — — — — —

16.77 €

1 4 дня 230 +40 Винт Терминал Open 62 | 62 50 — 60 230 1 x 230 V E E L-Piece | M3 винты | Базовая пластина 1 2 625 2 6 В переменного тока 6 7.5 | 7.50 II Да 625 El 7.5 / 6 EL 7.5 / 6 260,0

16,77 €

1 4 дня 230 +40 Винт Терминал Open 62 | 62 50 — 60 230 1 x 230 V E E L-Piece | M3 винты | Базовая тарелка 1 2 312 2 12 В перем. тока 12 7.5 | 7.50 управления трансформатор II Да 312 EL 7.5 / 12 EL 7.5 / 12 260,0

17,82 €

1 4 дня 230 +40 Винт Терминал Open 67 | 67 50 | 67 50 | 67 50 | 67 50 | 67 50 | 67 50 | — 60 230 1 x 230 V E E L-Piece | M3 винты | Базовая тарелка 1 2 1.08 2 x 6 v AC 6 13 | 13 Control Transformer II Да 1.08 EL 13/6 EL 13/6 360.0

17,82 €

1 4 дня 230 +40 Винт Терминал Open 67 | 67 50 | 67 50 | 67 50 | 67 50 | 67 50 | 67 50 | — 60 230 1 x 230 V E E L-Piece | M3 винты | Базовая тарелка 1 2 722 2 9 v AC 9 13 | 13 Control Transformer II II 722 EL 13 / 9 ЭЛ 13/9 360.0

17,83 €

1 4 дня 230 +40 Винт Терминал Open 67 | 67 50 | 67 50 | 67 50 | 67 50 | 67 50 | 67 50 | — 60 230 1 x 230 V E L-Piece | M3 винты | Базовая пластина 1 2 541 2 12 V AC 12 13 | 13 Control Transformer II Да 541 EL 13 / 12 EL 13/12 360.0

17,83 €

1 4 дня 230 +40 Винт Терминал Open 67 | 67 50 | 67 50 | 67 50 | 67 50 | 67 50 | 67 50 | — 60 230 1 x 230 V E 1 2 433 2 15 В AC 15 Control Transformer II Да 433 EL 13 / 15 EL 13/15 360.0

17,82 €

1 4 дня 230 +40 Винт Терминал Open 67 | 67 50 | 67 50 | 67 50 | 67 50 | 67 50 | 67 50 | — 60 230 1 х 230 V E E L-Piece | M3 винты | Базовая пластина 1 2 361 2 18 В AC 18 13 | 13 Control Transformer II 1 361 EL 13 / 18 EL 13/18 360.0

20,07 €

1 4 дня 230 +40 Винт Терминал Open 72 | 72 50 — 60 230 1 x 230 V E E L-Piece | M3 винты | Базовая тарелка 1 2 1.5 2 x 6 v AC 6 18 | 18 II Да 1.5 EL 18/6 EL 18/6 500.0

21,12 €

1 4 дня 230 +40 Винт Терминал Open 72 | 72 50 — 60 230 1 x 230 v E E L-Piece | M3 винты | Базовая тарелка 1 2 1 2 x 9 В переменного тока 9 Control Transformer II Да EL 18 / 9 EL 18/9 500.0

21,12 €

1 4 дня 230 +40 Винт Терминал Open 72 | 72 50 — 60 230 1 x 230 V E E L-Piece | M3 винты | Базовая пластина 1 2 750 2 x 12 В AC 12 II Да 750 EL 18 / 12 EL 18/12 500.0

20,06 €

1 4 дня 230 +40 Винт Терминал Open 72 | 72 50 — 60 230 1 x 230 V E E L-Piece | M3 винты | Базовая пластина 1 2 600 2 15 В AC 15 II Да 600 EL 18 / 15 EL 18/15 500.0

24,29 €

1 4 дня 230 +40 винтовой терминал Open 77 | 77 50 | 77 50 — 60 230 1 x 230 V E E L-Piece | M3 винты | Базовая пластина 1 2 2.33 2 x 6 V AC 6 28 | 28 Control Transformer II Да 2 33 EL 28/6 EL 28/6 680.0

24,29 €

1 4 дня 230 +40 винтовой терминал Open 77 | 77 50 | 77 50 — 60 230 1 x 230 V E E L-Piece | M3 винты | Базовая тарелка 1 2 1.56 2 x 9 V AC 9 28 | 28 Control Transformer II Да 1.56 EL 28/9 EL 28/9 680.0

24,29 €

1 4 дня 230 +40 винтовой терминал Open 77 | 77 50 | 77 50 — 60 230 1 x 230 V E E L-Piece | M3 винты | Базовая тарелка 1 2 1.17 2 x 12 v AC 12 28 | 28 Control Transformer II Да 1.17 EL 28/12 EL 28/12 680.0

24,30 €

1 4 дня 230 +40 винтовой терминал Open 77 | 77 50 | 77 50 — 60 230 1 x 230 V E E L-Piece | M3 винты | Базовая пластина 1 2 933 2 x 15 v AC 15 II Да 933 EL 28 / 15 EL 28/15 680.0

24,29 €

1 4 дня 230 +40 винтовой терминал Open 77 | 77 50 | 77 50 — 60 230 1 x 230 v E E L-Piece | M3 винты | Базовая пластина 1 2 777 2 x 18 В переменного тока 18 Control Transformer II Да 777 EL 28 / 18 EL 28/18 680.0

32,99 €

1 4 дня 230 +40 винтовой терминал Open 81 | 81 50 — 60 230 1 x 230 V E L-Piece | M4 винты | Базовая пластина 1 2 4.17 2 x 6 V AC 6 50 | 50 Control Transformer II Да 4.17 EL 50/6 EL 50/6 970.0

35,12 €

1 4 дня 230 +40 винтовой терминал Open 81 | 81 50 — 60 230 1 x 230 V E L-Piece | M4 Винты | Базовая пластина 1 2 2.78 2 x 9 v AC 9 50 | 50 Control Transformer II Да 2,78 EL 50/9 EL 50/9 970.0

35,12 €

1 4 дня 230 +40 винтовой терминал Open 81 | 81 50 — 60 230 1 x 230 V E L-Piece | M4 Винты | Базовая пластина 1 2 2.08 2 x 12 V AC 12 50 | 50 Control Transformer II Да 2,08 EL 50/12 EL 50/12 970.0

35,12 €

1 4 дня 230 +40 винтовой терминал Open 81 | 81 50 — 60 230 1 x 230 v E E L-Piece | M4 Винты | Базовая тарелка 1 2 1.67 2 x 15 V AC 15 50 | 50 Управляющий трансфер II Да 1.67 EL 50/15 EL 50/15 970.0

35,12 €

1 4 дня 230 +40 винтовой терминал Open 81 | 81 50 — 60 230 1 x 230 v E E L-Piece | M4 Винты | Базовая тарелка 1 2 1.39 2 x 18 V AC 18 50 | 50 Control Transformer II Да 1.39 EL 50/18 EL 50/18 970.0

47,45 €

1 4 дня 230 +40 Винтовой терминал Open 88 | 88 50 | 88 50 | 88 50 | 88 50 | 88 50 | 88 50 — 60 230 1 x 230 V E E L-Piece | M4 Винты | Базовая тарелка 1 2 5.56 2 x 9 V AC 9 100 | 100 Control Transformer II Да 5.56 EL 100/9 EL 100/9 1960.0

46,36 €

1 4 дня 230 +40 Винтовой терминал Open 88 | 88 50 | 88 50 | 88 50 | 88 50 | 88 50 | 88 50 — 60 230 1 x 230 V E E L-Piece | M4 винты | Базовая тарелка 1 2 3.33 2 x 15 V AC 15 100 | 100 Control Transformer II Да 3.33 EL 100/15 EL 100/15 1960.0

47,45 €

1 4 дня 230 +40 Винтовой терминал Open 88 | 88 50 | 88 50 | 88 50 | 88 50 | 88 50 | 88 50 — 60 230 1 x 230 V E L-Piece | M4 Винты | Базовая пластина 1 2 2.78 2 x 18 v AC 18 Control Transformer II Да 2,78 EL 100/18 EL 100/18 1960.0

48,52 €

1 4 дня 230 +40 Винтовой терминал Open 88 | 88 50 | 88 50 | 88 50 | 88 50 | 88 50 | 88 50 — 60 230 1 x 230 V E L-Piece | M4 Винты | Базовая пластина 1 2 2.08 2 x 24 v AC 240016 — 100 | 100 Control Transformer II Да 2,08 EL 100/24 ​​ EL 100/24 ​​ 1960.0

1 040,04 €

1 5 дней 230 140 300 Стандарты производителя (без сертификата) гнезда W / O PG CEE 7/17 Plug Силовой кабель с контурной вилкой 230 230 1 4.35 230 230 | 1000 Изоляция Transfomer (фиксированное напряжение) ЭТТК 1000 21000.0

36,17 €

1 4 дня 400 +40 Винтовые клеммы Винтовые клеммы.PE 6,3 x 0,8 мм плоский штекер подключение | 81 50 — 60 400 1 x 400 V Vde = b. ul = класс 105 l-piece | m4 винты | Базовая пластина 1 1 87 1 x 230 В AC 230 20 | 20 I Да 87 st 20/4/23 st 20/4/23 900.0

35,12 €

1 4 дня 230 +40 Винтовые клеммы Винтовые клеммы. PE 6.3 x 0,8 мм плоский штекер подключения | 81 50 — 60 230 1 x 230 V ВДЭ = Б.UL = Class 105 L-Piece | М4 винты | Базовая пластина 1 1 1.66 1 x 12 V AC 12 20 | 20 Control Transformer I st 20/23/12 st 20/23/12 900,0

35.12 €

1 4 дня 230 +40 Винтовые клеммы Винтовые клеммы. PE 6.3 x 0,8 мм плоский штекер подключения | 81 50 — 60 230 1 x 230 V ВДЭ = Б.UL = Class 105 L-Piece | M4 винты | Базовая пластина 1 1 87 1 x 230 В AC 230 20 | 20 управления трансформатор I Да 87 st 20/23/23 st 20/23/23 900,0

35.12 €

1 4 дня 230 +40 Винтовые клеммы Винтовые клеммы. PE 6.3 x 0,8 мм плоский штекер подключения | 81 50 — 60 230 1 x 230 V ВДЭ = Б.UL = Class 105 L-Piece | M4 винты | Базовая пластина 1 1 833 1 x 24 В AC 24 20 | 20 Control Transformer I 833 st 20/23/24 st 20/23/24 900,0

44.21 €

1 4 дня 400 +40 Винтовые клеммы Винтовые клеммы. PE 6,3 x 0,8 мм Плоский штекер подключения Open 84 | 84 50 — 60 400 1 x 400 V ВДЭ = Б.Ul = class 105 l-piece | М4 винты | Базовая пластина 1 1 274 230 63 | 63 Control Transformer I Да 274 st 63/4/23 st 63/4/23 1300.0

43.13 €

1 4 дня 400 +40 Винтовые клеммы Винтовые клеммы. PE 6,3 x 0,8 мм Плоский штекер подключения Open 84 | 84 50 — 60 400 1 x 400 V ВДЭ = Б.UL = Class 105 L-Piece | M4 винты | Базовая пластина 1 1 2,62 1 x 24 В AC 24 63 | 63 Управляющий трансформатор I Да st 63/4/24 st 63/4/24 1300,0

45.30 €

1 4 дня 400 +40 Винтовые клеммы Винтовые клеммы. PE 6,3 x 0,8 мм Плоский штекер подключения Open 84 | 84 50 — 60 400 1 x 400 V ВДЭ = Б.Ul = class 105 l-piece | M4 винты | Базовая пластина 1 1 1,5 42 63 | 63 Control Transformer I YES 1.5 st 63/4/42 st 63/4/42 1300.0

43.13 €

1 4 дня 230 +40 Винтовые клеммы Винтовые клеммы. PE 6,3 x 0,8 мм плоский штекер подключение 84 | 84 50 — 60 230 1 x 230 V ВДЭ = Б.Ul = class 105 l-piece | m4 винты | Базовая пластина 1 1 5.25 1 x 12 V AC 12 63 | 63 Control Transformer I st 63/23/12 st 63/23/12 1300,0

43.13 €

1 4 дня 230 +40 Винтовые клеммы Винтовые клеммы. PE 6,3 x 0,8 мм плоский штекер подключение 84 | 84 50 — 60 230 1 x 230 V ВДЭ = Б.Ul = class 105 l-piece | M4 винты | Базовая пластина 1 1 0.27 230 63 | 63 управления трансформатор I Да 274 ST 63/23/23 ST 63/23/23 1300,0

43.13 €

1 4 дня 230 +40 Винтовые клеммы Винтовые клеммы. PE 6,3 x 0,8 мм плоский штекер подключение 84 | 84 50 — 60 230 1 x 230 V ВДЭ = Б.UL = Class 105 L-Piece | M4 винты | Базовая пластина 1 1 2,62 1 x 24 В AC 24 63 | 63 Control Transformer I Да 2.62 st 63/23/24 st 63/23/24 1300,0

42.05 €

1 4 дня 440 +40 Винтовые клеммы Винтовые клеммы. PE 6.3 x 0,8 мм Плоский штекер подключения Open 84 | 84 50 — 60 440 1 x 440 V ВДЭ = Б.Ul = class 105 l-piece | М4 винты | Базовая пластина 1 1 274 230 63 | 63 Control Transformer I Да 274 st 63/44/23 st 63/44/23 1300,0

44.21 €

1 4 дня 89 60 +40 Винтовые клеммы Винтовые клеммы. PE 6.3 x 0,8 мм плоский штекер подключения 690 1 x 690 V B L-Piece | Базовая тарелка 1 1 274 1 x 230 В AC 230 63 70016 63 78 Control Transformer I Да VDE 0570 Часть 2-4.DIN EN 61558-2-4. ЕН 61558-2-4. МЭК 61558-2-4 ST 63/69/23 1100.0

212,35 €

1 4 дня 148 154 +40 Винтовые клеммы Винтовые клеммы.PE 6,3 x 0,8 мм плоский штекер подключения 50 — 60 400 1 x 400 V VDE = B. ul = класс 105 l-piece | Базовая пластина 1 1 4.35 1 x 230 В AC 230 1000 150 Трансформатор управления I Да ENEC10 (VDE).UL 5085-1/-2. CSA22.2 № 66 ST 1000/4/23 13100.0

212,35 €

1 4 дня 230 +40 Винтовые клеммы Винтовые клеммы.PE 6,3 x 0,8 мм плоский штекер подключения 94 | 94 50 — 60 230 1 x 230 V VDE = B. ul = Class 105 L-Piece | M6 винты | Базовая пластина 1 1 4.34 1 x 230 В AC 230 1000|1000 Трансформатор управления I Да 4.34 ST 1000/23/23 ST 1000/23/23 13500.0
1 4 дня 148 154 +40 Винтовые клеммы Винтовые клеммы.PE 6.3 x 0,8 мм плоский штекер подключения 690 1 x 690 V B L-Piece | Базовая плита 1 1 230 1000 1000 150 Control Transformer I Да VDE 0570 Часть 2-4.DIN EN 61558-2-4. ЕН 61558-2-4. МЭК 61558-2-4 ST 1000/69/23 13100.0

50,68 €

1 4 дня 400 +40 Винтовые клеммы Винтовые клеммы.PE 6.3 x 0,8 мм Плоский штекер подключения | 86 86 | 86 50 — 60 400 1 x 400 V VDE = B. ul = Class 105 L-Piece | M4 винты | Базовая пластина 1 1 435 1 x 230 В AC 230 100 | 100 I Да 435 st 100/4/23 st 100/4/23 2200.0

51,76 €

1 4 дня 400 +40 Винтовые клеммы Винтовые клеммы. PE 6.3 x 0,8 мм Плоский штекер подключения | 86 86 | 86 50 — 60 400 1 x 400 V ВДЭ = Б.UL = Class 105 L-Piece | M4 винты | Базовая тарелка 1 1 4.16 24 100 | 100 управления трансформатор I ST 100/4/24 ST 100/4/24 2200,0

51.77 €

1 4 дня 230 +40 Винтовые клеммы Винтовые клеммы. PE 6,3 x 0,8 мм плоский штекер подключения Open 86 | 86 50 — 60 230 1 x 230 V ВДЭ = Б.UL = Class 105 L-Piece | M4 винты | Базовая пластина 1 1 8.33 12 12 100 | 100 Control Transformer I ST 100/23/12 ST 100/23/12 2200,0

50.68 €

1 4 дня 230 +40 Винтовые клеммы Винтовые клеммы. PE 6,3 x 0,8 мм плоский штекер подключения Open 86 | 86 50 — 60 230 1 x 230 V ВДЭ = Б.UL = Class 105 L-Piece | М4 винты | Базовая пластина 1 1 435 230 100 | 100 Control Transformer I 435 st 100/23/23 st 100/23/23 2200,0

50.68 €

1 4 дня 230 +40 Винтовые клеммы Винтовые клеммы. PE 6,3 x 0,8 мм плоский штекер подключения Open 86 | 86 50 — 60 230 1 x 230 V ВДЭ = Б.UL = Class 105 L-Piece | M4 винты | Базовая тарелка 1 1 4.16 24 100 | 100 Control Transformer I st 100/23/24 st 100/23/24 2200,0

50.68 €

1 4 дня 690 +40 Винтовые клеммы Винтовые клеммы. PE 6.3 x 0,8 мм Плоский штекер подключение Open 86 | 86 50 — 60 690 1 x 690 V ВДЭ = Б.UL = Class 105 L-Piece | М4 винты | Базовая пластина 1 1 435 230 100 | 100 Control Transformer I 435 ST 100/69/23 ST 100/69/23 2200,0

58.23 €

1 4 дня 105 78 +40 Винтовые клеммы Винтовые клеммы. PE 6,3 x 0,8 мм плоский штекер подключения 50 — 60 400 1 x 400 V VDE = Б.Ul = class 105 l-piece | Базовая тарелка 1 1 570 1 x 230 В AC 230 130 96 Трансформатор управления I Да ENEC10 (VDE). UL 5085-1/-2. CSA22.2 № 66 ST 130/4/23 2300.0

56.08 €

1 4 дня 230 +40 Винтовые клеммы Винтовые клеммы. PE 6,3 x 0,8 мм плоский штекер подключения Open 86 | 86 50 — 60 230 1 x 230 V ВДЭ = Б.Ul = class 105 l-piece | m5 винты | Базовая пластина 1 1 50016 1 5.41 24 130 | 130 Control Transformer I 1 ST 130/23/24 ST 130/23/24 2400.0

58.23 €

1 4 дня 105 78 +40 Винтовые клеммы Винтовые клеммы. PE 6.3 x 0,8 мм плоский штекер подключения 690 1 x 690 V B L-Piece | Базовая тарелка 1 1 570 1 x 230 V AC 230 130 9616 130 96 Control Transformer I Да VDE 0570 Часть 2-4.DIN EN 61558-2-4. ЕН 61558-2-4. МЭК 61558-2-4 ST 130/69/23 2300.0

336,53 €

1 4 дня 182 146 +40 Винтовые клеммы Винтовые клеммы.PE 6,3 x 0,8 мм плоский штекер подключения 50 — 60 400 1 x 400 V VDE = B. ul = class 130 l-piece | Базовая тарелка 1 1 6.96 230 1600 192 Трансформатор управления I Да ENEC10 (VDE).UL 5085-1/-2. CSA22.2 № 66 ST 1600/4/23 16800.0

332,17 €

1 4 дня 182 146 +40 Винтовые клеммы Винтовые клеммы.PE 6.3 x 0,8 мм плоский штекер подключения 690 1 x 690 V B L-Piece | Базовая тарелка 1 1 230 160019 192 Control Transformer I Да VDE 0570 Часть 2-4.DIN EN 61558-2-4. ЕН 61558-2-4. МЭК 61558-2-4 ST 1600/69/23 16800.0

64,71 €

1 4 дня 400 +40 Винтовые клеммы Винтовые клеммы.PE 6.3 x 0,8 мм Плоский штекер подключения | 86 86 | 86 50 — 60 400 1 x 400 V VDE = B. ul = Class 105 L-Piece | M5 винты | Базовая пластина 1 1 695 1 x 230 В AC 230 160 | 160 I I 695 st 160/4/23 st 160/4/23 2900.0

66,86 €

1 4 дня 400 +40 Винтовые клеммы Винтовые клеммы. PE 6.3 x 0,8 мм Плоский штекер подключения | 86 86 | 86 50 — 60 400 1 x 400 V ВДЭ = Б.UL = Class 105 L-Piece | M5 винты | Базовая пластина 1 1 60016 24 160 | 160 Control Transformer I st 160/4/24 st 160/4/24 2900.0

62.55 €

1 4 дня 230 +40 Винтовые клеммы Винтовые клеммы. PE 6,3 x 0,8 мм плоский штекер подключения Open 86 | 86 50 — 60 230 1 x 230 V ВДЭ = Б.UL = Class 105 L-Piece | M5 винты | Базовая пластина 1 1 695 230 160 | 160 Control Transformer I ДА 695 ST 160/23/23 ST 160/23/23 2900.0

64.71 €

1 4 дня 230 +40 Винтовые клеммы Винтовые клеммы. PE 6,3 x 0,8 мм плоский штекер подключения Open 86 | 86 50 — 60 230 1 x 230 V ВДЭ = Б.UL = Class 105 L-Piece | M5 винты | Базовая пластина 1 1 60016 24 160 | 160 Control Transformer I ST 160/23/24 ST 160/23/24 2900.0

408.39 €

1 4 дня 182 162 +40 Винтовые клеммы Винтовые клеммы. PE 6,3 x 0,8 мм плоский штекер подключения 50 — 60 400 1 x 400 V VDE = Б.Ul = class 130 l-piece | Базовая пластина 1 1 80019 1 x 230 В AC 230 2000 192 Трансформатор управления I Да ENEC10 (VDE). UL 5085-1/-2. CSA22.2 № 66 ST 2000/4/23 21000.0

401.85 €

1 4 дня 182 162 +40 Винтовые клеммы Винтовые клеммы. PE 6.3 x 0,8 мм плоский штекер подключения 690 1 x 690 V B Г-образный элемент|Плита основания 1 1 8.69 1 x 230 В AC 230 2000 I Да VDE 0570 2-4. DIN EN 61558-2-4. ЕН 61558-2-4. МЭК 61558-2-4 ST 2000/69/23 21000.0

478.09 €

1 4 дня 400 +40 Винтовые клеммы Винтовые клеммы. PE 6,3 x 0,8 мм плоский штекер подключения | 96 | 96 50 — 60 400 1 x 400 70019 ВДЭ = Б.UL = Class 105 L-Piece | M8 винты | Базовая пластина 1 1 10.87 230 2500 | 2500 Control Transformer I YES ST 2500/4/23 ST 2500/4/23 24800.0

78.10 €

1 4 дня 400 +40 Винтовые клеммы Винтовые клеммы. PE 6,3 x 0,8 мм плоский штекер подключения 50 — 60 400 1 x 400 70019 ВДЭ = Б.UL = Class 105 L-Piece | M5 винты | Базовая пластина 1 1 1.08 1 x 230 В AC 230 250 | 250 Control Transformer I Да ST 250/4/23 ST 250/4/23 3900.0

PX — Руководство по подключению трансформатора

СТАТИСТИКА КАБЕЛЯ

Системы освещения низкого напряжения обычно устанавливаются с использованием многожильного кабеля UF (подземный фидер).Наиболее часто используемый кабель называется многожильным кабелем 12/2. Размер кабеля, используемого для подключения системы освещения, будет определяться мощностью нагрузки и длиной кабеля от трансформатора до осветительных приборов.

Очень важно отметить, что все низковольтные кабели имеют максимальный безопасный рейтинг. Перегрузка кабеля может создать опасную угрозу безопасности, поэтому обязательно подключайте систему освещения кабелем надлежащего размера.

 
Размер провода Максимальная нагрузка при 12 В
16/2 10.4 ампера — 125 Вт
14/2 12 А — 144 Вт
12/2 16 А — 192 Вт
10/2 24 А — 288 Вт
8/2 25 А — 300 Вт **

** Кабель 8 калибра выдерживает нагрузку до 32 ампер и 384 Вт; однако максимальная мощность автоматического выключателя в трансформаторе составляет 25 ампер или 300 Вт.

КАБЕЛЬ НИЗКОГО НАПРЯЖЕНИЯ

Каждый кабель освещения низкого напряжения состоит из двух частей. Одна часть кабеля предназначена для нагрузки по напряжению и называется «горячим» выводом. «Горячая» секция устанавливается в один из низковольтных «горячих» контактов клеммной колодки. Другая секция называется «общим» выводом и устанавливается в наконечники, помеченные как «общие». Напряжение проходит от трансформатора к светильникам по «горячей» стороне кабеля и возвращается обратно к «общему» отводу трансформатора по другой половине кабеля, замыкая цепь.

НАГРУЗКИ НА КАБЕЛЬ
При необходимости добавьте кабельные трассы

Закрытая зона 0–40 футов
12 Gauge 160 Вт макс. 10 калибр 180 Вт макс. 8 Калибр 220 Вт макс.

Средняя зона 40–80 футов
12 Gauge 120 Вт макс. 10 калибр 140 Вт макс. 8 Калибр 200 Вт макс.

Дальняя зона 80–120 футов
12 Калибр 100 Вт макс.10 калибр 120 Вт макс. 8 Калибр 180 Вт макс.

Удаленная зона 120–160 футов
12 Калибр 60 Вт макс. 10 Калибр 100 Вт макс. 8 Калибр 160 Вт макс.

 

НАГРУЗКИ СВЕТОДИОДОВ НА КАБЕЛИ При необходимости добавьте кабельные трассы.

Для максимальной эффективности входное напряжение светодиода должно составлять от 10 до 15 вольт

Близкая зона 0–40 футов с использованием отвода напряжения 12
14 Манометр 115 Вт макс.12 Калибр 180 Вт макс. 10 калибр 300 Вт макс.

Средняя зона 40–80 футов с отводом напряжения 12
12 Манометр 95 Вт макс. 10 калибр 150 Вт макс.

Дальняя зона 80–120 футов с отводом напряжения 13
12 Манометр 100 Вт макс. 10 калибр 160 Вт макс.

Внешняя зона 120–160 футов с отводом напряжения 14
12 Манометр 110 Вт макс.10 калибр 175 Вт макс.

Краткое описание задач

На этой странице показаны наиболее частые варианты использования библиотеки. Доступные модели позволяют выполнять различные конфигураций и большой универсальности в вариантах использования. Здесь представлены самые простые из них, демонстрирующие использование такие задачи, как ответы на вопросы, классификация последовательностей, распознавание именованных объектов и другие.

В этих примерах используются автомодели, то есть классы, которые будут создавать экземпляры модели в соответствии с заданной контрольной точкой. автоматически выбирая правильную архитектуру модели.Пожалуйста, ознакомьтесь с документацией по AutoModel. за дополнительной информацией. Не стесняйтесь изменять код, чтобы он был более конкретным, и адаптируйте его к вашему конкретному варианту использования.

Чтобы модель хорошо справлялась с задачей, она должна быть загружена из контрольной точки, соответствующей этой задаче. Эти контрольные точки обычно предварительно обучаются на большом массиве данных и точно настраиваются для конкретной задачи. Это означает следующее:

  • Не все модели были настроены на все задачи. Если вы хотите точно настроить модель для конкретной задачи, вы можете использовать один из run_$TASK.py скриптов в каталоге примеров.
  • Точно настроенные модели были настроены для определенного набора данных. Этот набор данных может или не может пересекаться с вашим вариантом использования и домен. Как упоминалось ранее, вы можете использовать примеры скриптов для точной настройки вашей модели, или вы можете создать собственный сценарий обучения.

Чтобы сделать вывод о задаче, библиотека предоставляет несколько механизмов:

  • Конвейеры: очень простые в использовании абстракции, для которых требуется всего две строки кода.
  • Прямое использование модели: меньше абстракций, но больше гибкости и мощности благодаря прямому доступу к токенизатору. (PyTorch/TensorFlow) и полную мощность логического вывода.

Здесь представлены оба подхода.

Все представленные здесь задачи используют предварительно обученные контрольные точки, которые были точно настроены для конкретных задач. Загрузка контрольная точка, которая не была точно настроена на конкретную задачу, загружала только базовые слои преобразователя, а не дополнительная голова, которая используется для задачи, инициализируя вес этой головы случайным образом.

Произойдет случайный вывод.

Классификация последовательности

Классификация последовательностей — это задача классификации последовательностей в соответствии с заданным количеством классов. Пример классификация последовательностей — это набор данных GLUE, полностью основанный на этой задаче. Если вы хотите точно настроить модели в задаче классификации последовательности GLUE, вы можете использовать сценарии run_glue.py, run_tf_glue.py, run_tf_text_classification.py или run_xnli.py.

Вот пример использования конвейеров для анализа тональности: определения, является ли последовательность положительной или отрицательной.Это использует точно настроенную модель на sst2, которая представляет собой задачу GLUE.

Возвращает метку («ПОЗИТИВНО» или «ОТРИЦАТЕЛЬНО») вместе с оценкой следующим образом:

 >>> из трубопровода импорта трансформаторов

>>> classifier = pipe("анализ настроений")

>>> результат = классификатор("Я тебя ненавижу")[0]
>>> print(f"label: {result['label']}, со счетом: {round(result['score'], 4)}")
метка: ОТРИЦАТЕЛЬНО, оценка: 0,9991

>>> результат = классификатор("Я люблю тебя")[0]
>>> print(f"label: {result['label']}, со счетом: {round(result['score'], 4)}")
метка: ПОЛОЖИТЕЛЬНО, оценка: 0.9999 

Вот пример выполнения классификации последовательностей с использованием модели для определения того, являются ли две последовательности парафразами друг с другом. Процесс следующий:

  1. Создайте экземпляр токенизатора и модели из имени контрольной точки. Модель идентифицируется как модель BERT и загружает ее. с весами, хранящимися в контрольно-пропускном пункте.
  2. Создайте последовательность из двух предложений с правильными разделителями для конкретных моделей, идентификаторами типов токенов и вниманием маски (которые будут созданы автоматически токенизатором).
  3. Пропустите эту последовательность через модель, чтобы она была отнесена к одному из двух доступных классов: 0 (не парафраз) и 1 (является парафразом).
  4. Вычислите softmax результата, чтобы получить вероятности по классам.
  5. Распечатать результаты.
 >>> из трансформаторов импортировать AutoTokenizer, AutoModelForSequenceClassification
>>> импортный факел

>>> tokenizer = AutoTokenizer.from_pretrained("bert-base-cased-finetuned-mrpc")
>>> модель = AutoModelForSequenceClassification.from_pretrained("bert-base-cased-finetuned-mrpc")

>>> классы = ["не перефразировать", "является перефразированием"]

>>> sequence_0 = "Компания HuggingFace базируется в Нью-Йорке"
>>> sequence_1 = "Яблоки особенно вредны для здоровья"
>>> sequence_2 = "Штаб-квартира HuggingFace находится на Манхэттене"

>>>
>>>
>>> paraphrase = tokenizer(sequence_0, sequence_2, return_tensors="pt")
>>> not_paraphrase = токенизатор (sequence_0, sequence_1, return_tensors="pt")

>>> paraphrase_classification_logits = модель(**парафраз).логиты
>>> not_paraphrase_classification_logits = model(**not_paraphrase).logits

>>> paraphrase_results = torch.softmax(paraphrase_classification_logits, dim=1).tolist()[0]
>>> not_paraphrase_results = torch.softmax(not_paraphrase_classification_logits, dim=1).tolist()[0]

>>>
>>> для i в диапазоне (len (классы)):
... print(f"{classes[i]}: {int(round(paraphrase_results[i] * 100))}%")
не перефразируя: 10%
это перефразирование: 90%

>>>
>>> для i в диапазоне (len (классы)):
... print(f"{classes[i]}: {int(round(not_paraphrase_results[i] * 100))}%")
не перефразируя: 94%
это перефразирование: 6% 
 >>> из трансформаторов импортировать AutoTokenizer, TFAutoModelForSequenceClassification
>>> импортировать тензорный поток как tf

>>> tokenizer = AutoTokenizer.from_pretrained("bert-base-cased-finetuned-mrpc")
>>> model = TFAutoModelForSequenceClassification.from_pretrained("bert-base-cased-finetuned-mrpc")

>>> классы = ["не перефразировать", "является перефразированием"]

>>> sequence_0 = "Компания HuggingFace базируется в Нью-Йорке"
>>> sequence_1 = "Яблоки особенно вредны для здоровья"
>>> sequence_2 = "Штаб-квартира HuggingFace находится на Манхэттене"

>>>
>>>
>>> paraphrase = tokenizer(sequence_0, sequence_2, return_tensors="tf")
>>> not_paraphrase = tokenizer(sequence_0, sequence_1, return_tensors="tf")

>>> paraphrase_classification_logits = модель(парафраз).логиты
>>> not_paraphrase_classification_logits = model(not_paraphrase).logits

>>> paraphrase_results = tf.nn.softmax(paraphrase_classification_logits, axis=1).numpy()[0]
>>> not_paraphrase_results = tf.nn.softmax(not_paraphrase_classification_logits, axis=1).numpy()[0]

>>>
>>> для i в диапазоне (len (классы)):
... print(f"{classes[i]}: {int(round(paraphrase_results[i] * 100))}%")
не перефразируя: 10%
это перефразирование: 90%

>>>
>>> для i в диапазоне (len (классы)):
... print(f"{classes[i]}: {int(round(not_paraphrase_results[i] * 100))}%")
не перефразируя: 94%
это перефразирование: 6% 

Экстрактивный ответ на вопрос

Извлекающий вопрос Ответ — это задача извлечения ответа из текста на заданный вопрос. Пример Набор данных для ответа на вопрос — это набор данных SQuAD, который полностью основан на этой задаче. Если вы хотите точно настроить модель в задаче SQuAD, вы можете использовать run_qa.py и run_tf_squad.py скрипты.

Вот пример использования конвейеров для ответа на вопрос: извлечение ответа из текста с заданным вопросом. Это использует отлаженную модель SQuAD.

 >>> из трубопровода импорта трансформаторов

>>> question_answerer = конвейер ("вопрос-ответ")

>>> контекст = г"""
... Извлечение ответа на вопрос — это задача извлечения ответа из текста на заданный вопрос. Пример
... набор данных для ответов на вопросы - это набор данных SQuAD, который полностью основан на этой задаче.Если вы хотите тонко настроить
... модель задачи SQuAD, вы можете использовать скрипт examples/pytorch/question-answering/run_squad.py.
... """ 

Возвращает ответ, извлеченный из текста, оценку достоверности вместе со значениями «начало» и «конец», которые являются позиции извлеченного ответа в тексте.

 >>> result = question_answerer(question="Что такое экстрактивный ответ на вопрос?", context=context)
>>> печатать(
... f"Ответ: '{результат['ответ']}', счет: {раунд(результат['счет'], 4)}, начало: {результат['начало']}, конец: {результат[ 'конец']}"
... )
Ответ: «задача извлечения ответа из текста на заданный вопрос», балл: 0,6177, начало: 34, конец: 95

>>> result = question_answerer(question="Какой хороший пример набора данных ответов на вопросы?", context=context)
>>> печатать(
... f"Ответ: '{результат['ответ']}', счет: {раунд(результат['счет'], 4)}, начало: {результат['начало']}, конец: {результат[ 'конец']}"
... )
Ответ: «Набор данных SQuAD», оценка: 0,5152, начало: 147, конец: 160 

Вот пример ответа на вопрос с использованием модели и токенизатора.Процесс следующий:

  1. Создайте экземпляр токенизатора и модели из имени контрольной точки. Модель идентифицируется как модель BERT и загружает ее. с весами, хранящимися в контрольно-пропускном пункте.
  2. Определите текст и несколько вопросов.
  3. Повторите вопросы и создайте последовательность из текста и текущего вопроса с правильным разделители для конкретных моделей, идентификаторы типов токенов и маски внимания.
  4. Пропустите эту последовательность через модель. Это выводит диапазон оценок для всех токенов последовательности (вопрос и текст), как для начальной, так и для конечной позиции.
  5. Вычислите softmax результата, чтобы получить вероятности по токенам.
  6. Извлечь маркеры из определенных начальных и конечных значений, преобразовать эти маркеры в строку.
  7. Распечатать результаты.
 >>> из трансформаторов импортировать AutoTokenizer, AutoModelForQuestionAnswering
>>> импортный факел

>>> tokenizer = AutoTokenizer.from_pretrained("bert-large-uncased-whole-word-masking-finetuned-squad")
>>> модель = AutoModelForQuestionAnswering.from_pretrained("Берт-большой-необложка-целое-слово-маскирование-тонкая настройка-отряд")

>>> текст = г"""
... 🤗 Transformers (ранее известные как pytorch-transformers и pytorch-pretrained-bert) обеспечивают универсальное
... архитектуры (BERT, GPT-2, RoBERTa, XLM, DistilBert, XLNet…) для понимания естественного языка (NLU) и естественного
... Language Generation (NLG) с более чем 32 предварительно обученными моделями на более чем 100 языках и глубокой функциональной совместимостью между
... TensorFlow 2.0 и PyTorch.
... """

>>> вопросы = [
... "Сколько предварительно обученных моделей доступно в 🤗 Трансформеры?",
... «Что дают 🤗 Трансформеры?»,
... "🤗 Transformers обеспечивает взаимодействие между какими фреймворками?",
... ]

>>> на вопрос в вопросах:
... входы = токенизатор (вопрос, текст, add_special_tokens = True, return_tensors = "pt")
... input_ids = inputs["input_ids"].tolist()[0]

... выходы = модель (** входы)
... answer_start_scores = outputs.start_logits
... answer_end_scores = результаты.end_logits

...
... answer_start = torch.argmax(answer_start_scores)
...
... answer_end = torch.argmax(answer_end_scores) + 1

... ответ = tokenizer.convert_tokens_to_string(
... tokenizer.convert_ids_to_tokens(input_ids[answer_start:answer_end])
... )

... print(f"Вопрос: {вопрос}")
... print(f"Ответ: {ответ}")
Вопрос: Сколько предварительно обученных моделей доступно в 🤗 Трансформеры?
Ответ: старше 32+
Вопрос: Что дает 🤗 Трансформеры?
Ответ: архитектуры общего назначения.
Вопрос: 🤗 Transformers обеспечивает взаимодействие между какими фреймворками?
Ответ: тензорный поток 2.0 и питорч 
 >>> из трансформаторов импортировать AutoTokenizer, TFAutoModelForQuestionAnswering
>>> импортировать тензорный поток как tf

>>> tokenizer = AutoTokenizer.from_pretrained("bert-large-uncased-whole-word-masking-finetuned-squad")
>>> model = TFAutoModelForQuestionAnswering.from_pretrained("bert-large-uncased-whole-word-masking-finetuned-squad")

>>> текст = г"""
... 🤗 Transformers (ранее известные как pytorch-transformers и pytorch-pretrained-bert) обеспечивают универсальное
... архитектуры (BERT, GPT-2, RoBERTa, XLM, DistilBert, XLNet…) для понимания естественного языка (NLU) и естественного
... Language Generation (NLG) с более чем 32 предварительно обученными моделями на более чем 100 языках и глубокой функциональной совместимостью между
... TensorFlow 2.0 и PyTorch.
... """

>>> вопросы = [
... "Сколько предварительно обученных моделей доступно в 🤗 Трансформеры?",
... «Что дают 🤗 Трансформеры?»,
... "🤗 Transformers обеспечивает взаимодействие между какими фреймворками?",
... ]

>>> на вопрос в вопросах:
... входы = токенизатор (вопрос, текст, add_special_tokens = True, return_tensors = "tf")
... input_ids = inputs["input_ids"].numpy()[0]

... выходы = модель (входы)
... answer_start_scores = outputs.start_logits
... answer_end_scores = outputs.end_logits

...
... answer_start = tf.argmax(answer_start_scores, axis=1).numpy()[0]
...
... answer_end = tf.argmax(answer_end_scores, axis=1).numpy()[0] + 1

... ответ = tokenizer.convert_tokens_to_string(
... токенизатор.convert_ids_to_tokens(input_ids[answer_start:answer_end])
... )

... print(f"Вопрос: {вопрос}")
... print(f"Ответ: {ответ}")
Вопрос: Сколько предварительно обученных моделей доступно в 🤗 Трансформеры?
Ответ: старше 32+
Вопрос: Что дает 🤗 Трансформеры?
Ответ: архитектуры общего назначения.
Вопрос: 🤗 Transformers обеспечивает взаимодействие между какими фреймворками?
Ответ: тензорный поток 2.0 и pytorch 
.

Языковое моделирование

Моделирование языка — это задача подбора модели к корпусу, который может быть специфичным для предметной области.Все популярные модели на основе преобразователя обучаются с использованием варианта языкового моделирования, например. BERT с моделированием маскированного языка, GPT-2 с каузальным языковым моделированием.

Моделирование языка может быть полезным и за пределами предварительного обучения, например, для смещения распределения модели в специфичный для предметной области: использование языковой модели, обученной на очень большом корпусе, а затем точная настройка ее на набор данных новостей или в научных работах, например. LysandreJik/arxiv-nlp.

Моделирование языка в масках

Моделирование маскированного языка — это задача маскирования токенов в последовательности с помощью маскирующего токена и подсказка модели заполните эту маску соответствующим токеном.Это позволяет модели учитывать как правильный контекст (токены на справа от маски) и левый контекст (токены слева от маски). Такое обучение создает прочную основу для последующие задачи, требующие двунаправленного контекста, такие как SQuAD (ответы на вопросы, см. Lewis, Lui, Goyal et al., часть 4.2). Если вы хотите точно настроить модель на маскированном языковом моделировании вы можете использовать сценарий run_mlm.py.

Вот пример использования конвейеров для замены маски из последовательности:

 >>> из трубопровода импорта трансформаторов

>>> unmasker = pipe("маска заполнения") 

Это выводит последовательности с заполненной маской, оценкой достоверности и идентификатором токена в словаре токенизатора:

 >>> из pprint импортировать pprint

>>> ппринт(
...разоблачитель(
... f"HuggingFace создает {unmasker.tokenizer.mask_token}, который сообщество использует для решения задач НЛП".
... )
... )
[{'оценка': 0,1793,
  'sequence': 'HuggingFace создает инструмент, который сообщество использует для решения'
              'Задачи НЛП.',
  «жетон»: 3944,
  'token_str': 'инструмент'},
 {'оценка': 0,1135,
  'sequence': 'HuggingFace создает структуру, которую сообщество использует для '
              'решать задачи НЛП.',
  «жетон»: 7208,
  'token_str': 'фреймворк'},
 {'оценка': 0.0524,
  'sequence': 'HuggingFace создает библиотеку, которую сообщество использует для '
              'решать задачи НЛП.',
  «жетон»: 5560,
  'token_str': 'библиотека'},
 {'оценка': 0,0349,
  'sequence': 'HuggingFace создает базу данных, которую сообщество использует для '
              'решать задачи НЛП.',
  «жетон»: 8503,
  'token_str': 'база данных'},
 {'оценка': 0,0286,
  'sequence': 'HuggingFace создает прототип, который сообщество использует для '
              'решать задачи НЛП.',
  «жетон»: 17715,
  'token_str': 'прототип'}] 

Вот пример моделирования маскированного языка с использованием модели и токенизатора.Процесс следующий:

  1. Создайте экземпляр токенизатора и модели из имени контрольной точки. Модель идентифицируется как модель DistilBERT и загружает его весами, хранящимися в контрольной точке.
  2. Определите последовательность с замаскированным токеном, поместив tokenizer.mask_token вместо слова.
  3. Закодируйте эту последовательность в список идентификаторов и найдите положение замаскированного токена в этом списке.
  4. Получить прогнозы по индексу маркера маски: этот тензор имеет тот же размер, что и словарь, а значения — это баллы, присвоенные каждому токену.Модель дает более высокую оценку жетонам, которые она считает вероятными в этом контекст.
  5. Получите первые 5 токенов с помощью методов PyTorch topk или TensorFlow top_k .
  6. Замените токен маски на жетоны и распечатайте результаты
 >>> из трансформаторов импортировать AutoModelForMaskedLM, AutoTokenizer
>>> импортный факел

>>> tokenizer = AutoTokenizer.from_pretrained ("дистилберт-базовый корпус")
>>> модель = AutoModelForMaskedLM.from_pretrained («дистилберт-базовый корпус»)

>>> последовательность = (
... "Дистиллированные модели меньше, чем модели, которые они имитируют. Использование их вместо больших"
... f"версии помогли бы {tokenizer.mask_token} уменьшить выбросы углекислого газа".
... )

>>> inputs = tokenizer(sequence, return_tensor="pt")
>>> mask_token_index = torch.where(inputs["input_ids"] == tokenizer.mask_token_id)[1]

>>> token_logits = model(**inputs).logits
>>> mask_token_logits = token_logits[0, mask_token_index, :]

>>> top_5_tokens = факел.topk(mask_token_logits, 5, dim=1).indices[0].tolist()

>>> для токена в top_5_tokens:
... print(sequence.replace(tokenizer.mask_token, tokenizer.decode([token])))
Дистиллированные модели меньше, чем модели, которые они имитируют. Использование их вместо больших версий помогло бы уменьшить наш углеродный след.
Дистиллированные модели меньше, чем модели, которые они имитируют. Использование их вместо больших версий помогло бы увеличить наш углеродный след.
Дистиллированные модели меньше, чем модели, которые они имитируют.Использование их вместо больших версий помогло бы уменьшить наш углеродный след.
Дистиллированные модели меньше, чем модели, которые они имитируют. Использование их вместо больших версий помогло бы компенсировать наш углеродный след.
Дистиллированные модели меньше, чем модели, которые они имитируют. Использование их вместо больших версий помогло бы уменьшить наш углеродный след. 
 >>> из трансформаторов импортировать TFAutoModelForMaskedLM, AutoTokenizer
>>> импортировать тензорный поток как tf

>>> токенизатор = автотокенизатор.from_pretrained («дистилберт-базовый корпус»)
>>> model = TFAutoModelForMaskedLM.from_pretrained("дистилберт-базовый корпус")

>>> последовательность = (
... "Дистиллированные модели меньше, чем модели, которые они имитируют. Использование их вместо больших"
... f"версии помогли бы {tokenizer.mask_token} уменьшить выбросы углекислого газа".
... )

>>> входы = токенизатор (последовательность, return_tensors = "tf")
>>> mask_token_index = tf.where(inputs["input_ids"] == tokenizer.mask_token_id)[0, 1]

>>> token_logits = модель (** входы).логиты
>>> mask_token_logits = token_logits[0, mask_token_index, :]

>>> top_5_tokens = tf.math.top_k(mask_token_logits, 5).indices.numpy()

>>> для токена в top_5_tokens:
... print(sequence.replace(tokenizer.mask_token, tokenizer.decode([token])))
Дистиллированные модели меньше, чем модели, которые они имитируют. Использование их вместо больших версий помогло бы уменьшить наш углеродный след.
Дистиллированные модели меньше, чем модели, которые они имитируют. Использование их вместо больших версий помогло бы увеличить наш углеродный след.Дистиллированные модели меньше, чем модели, которые они имитируют. Использование их вместо больших версий помогло бы уменьшить наш углеродный след.
Дистиллированные модели меньше, чем модели, которые они имитируют. Использование их вместо больших версий помогло бы компенсировать наш углеродный след.
Дистиллированные модели меньше, чем модели, которые они имитируют. Использование их вместо больших версий помогло бы уменьшить наш углеродный след. 

Это печатает пять последовательностей с 5 верхними токенами, предсказанными моделью.

Каузальное языковое моделирование

Моделирование каузального языка — это задача предсказания токена, следующего за последовательностью токенов. В этой ситуации модель обращает внимание только на левый контекст (токены слева от маски). Такое обучение особенно интересно для задач генерации. Если вы хотите точно настроить модель для задачи моделирования каузального языка, вы можете использовать Скрипт run_clm.py.

Обычно следующий токен предсказывается путем выборки из логитов последнего скрытого состояния, которое модель создает из последовательность ввода.

Вот пример использования токенизатора и модели и использования Метод top_k_top_p_filtering() для выборки следующего токена после входной последовательности токенов.

 >>> из трансформаторов импортировать AutoModelForCausalLM, AutoTokenizer, top_k_top_p_filtering
>>> импортный факел
>>> из факела импорта nn

>>> токенизатор = AutoTokenizer.from_pretrained("gpt2")
>>> модель = AutoModelForCausalLM.from_pretrained("gpt2")

>>> sequence = f"Hugging Face базируется в ДАМБО, Нью-Йорк, и"

>>> inputs = tokenizer(sequence, return_tensor="pt")
>>> input_ids = inputs["input_ids"]

>>>
>>> next_token_logits = модель (** входы).логиты[:, -1, :]

>>>
>>> filtered_next_token_logits = top_k_top_p_filtering(next_token_logits, top_k=50, top_p=1.0)

>>>
>>> probs = nn.functional.softmax(filtered_next_token_logits, dim=-1)
>>> next_token = torch.multinomial(probs, num_samples=1)

>>> сгенерировано = torch.cat([input_ids, next_token], dim=-1)

>>> result_string = tokenizer.decode(generated.tolist()[0])
>>> печать (результирующая_строка)
Hugging Face базируется в Дамбо, Нью-Йорк, и ... 

Вот пример использования токенизатора и модели и использования Метод tf_top_k_top_p_filtering() для выборки следующего токена после входной последовательности токенов.

 >>> из трансформаторов импортировать TFAutoModelForCausalLM, AutoTokenizer, tf_top_k_top_p_filtering
>>> импортировать тензорный поток как tf

>>> токенизатор = AutoTokenizer.from_pretrained("gpt2")
>>> модель = TFAutoModelForCausalLM.from_pretrained("gpt2")

>>> sequence = f"Hugging Face базируется в ДАМБО, Нью-Йорк, и"

>>> входы = токенизатор (последовательность, return_tensors = "tf")
>>> input_ids = inputs["input_ids"]

>>>
>>> next_token_logits = модель (** входы).логиты[:, -1, :]

>>>
>>> filtered_next_token_logits = tf_top_k_top_p_filtering(next_token_logits, top_k=50, top_p=1.0)

>>>
>>> next_token = tf.random.categorical(filtered_next_token_logits, dtype=tf.int32, num_samples=1)

>>> сгенерировано = tf.concat([input_ids, next_token], axis=1)

>>> result_string = tokenizer.decode(generated.numpy().tolist()[0])
>>> печать (результирующая_строка)
Hugging Face базируется в Дамбо, Нью-Йорк, и ... 

Это выводит (надеюсь) связный следующий токен, следующий за исходной последовательностью, которая в нашем случае представляет собой слово или или имеет .

В следующем разделе мы покажем, как можно использовать generate_utils.GenerationMixin.generate() для генерировать несколько токенов до указанной длины вместо одного токена за раз.

Генерация текста

При генерации текста ( a.k.a открытая генерация текста ) цель состоит в том, чтобы создать связную часть текста, которая является продолжение из заданного контекста.В следующем примере показано, как GPT-2 можно использовать в конвейерах для создания текста. По умолчанию все модели применяют выборку Top-K при использовании в конвейерах, как настроено в их соответствующих конфигурациях. (см., например, конфигурацию gpt-2).

 >>> из трубопровода импорта трансформаторов

>>> text_generator = конвейер ("генерация текста")
>>> print(text_generator("Что касается меня, то я сделаю", max_length=50, do_sample=False))
[{'generated_text': 'Что касается меня, то я первым признаю, что не являюсь поклонником идеи
"свободный рынок." Я думаю, что идея свободного рынка немного натянута. Я думаю, что идея'}] 

Здесь модель генерирует случайный текст общей максимальной длиной 50 токенов из контекста «Насколько я касается, я буду» . За кулисами объект конвейера вызывает метод PreTrainedModel.generate() для генерации текста. Аргументы по умолчанию для этого метода могут быть переопределяется в конвейере, как показано выше для аргументов max_length и do_sample .

Ниже приведен пример генерации текста с использованием XLNet и его токенизатора, который включает прямой вызов generate() :

 >>> из трансформаторов импортировать AutoModelForCausalLM, AutoTokenizer

>>> model = AutoModelForCausalLM.from_pretrained("xlnet-base-cased")
>>> tokenizer = AutoTokenizer.from_pretrained("xlnet-base-cased")

>>>
>>> PADDING_TEXT = """В 1991 году останки русского царя Николая II и его семьи
... (кроме Алексея и Марии) обнаружены.
...Голос малолетнего сына Николая, царевича Алексея Николаевича, повествует
... остаток истории. 1883 г. Западная Сибирь,
... отец и группа мужчин просят молодого Григория Распутина сотворить магию.
... Распутину приходит видение, и он объявляет одного из мужчин конокрадом. Хотя его
... отец сначала дает ему пощечину за такое обвинение, Распутин наблюдает, как
... мужчину выгоняют на улицу и избивают. Двадцать лет спустя Распутину приходит видение.
... Девы Марии, что побудило его стать священником. Распутин быстро прославится,
... с людьми, даже епископом, просящими его благословения.   """

>>> prompt = "Сегодня очень хорошая погода, и я планирую"
>>> inputs = tokenizer(PADDING_TEXT + приглашение, add_special_tokens=False, return_tensors="pt")["input_ids"]

>>> prompt_length = len(tokenizer.decode(inputs[0]))
>>> outputs = model.generate(inputs, max_length=250, do_sample=True, top_p=0.95, топ_к=60)
>>> сгенерировано = приглашение + tokenizer.decode (выходы [0]) [длина_запроса + 1:]

>>> распечатать (сгенерировано)
Сегодня очень хорошая погода, и я планирую ... 
 >>> из трансформаторов импортировать TFAutoModelForCausalLM, AutoTokenizer

>>> model = TFAutoModelForCausalLM.from_pretrained("xlnet-base-cased")
>>> tokenizer = AutoTokenizer.from_pretrained("xlnet-base-cased")

>>>
>>> PADDING_TEXT = """В 1991 году останки русского царя Николая II и его семьи
... (кроме Алексея и Марии) обнаружены.
...Голос малолетнего сына Николая, царевича Алексея Николаевича, повествует
... остаток истории. 1883 г. Западная Сибирь,
... отец и группа мужчин просят молодого Григория Распутина сотворить магию.
... Распутину приходит видение, и он объявляет одного из мужчин конокрадом. Хотя его
... отец сначала дает ему пощечину за такое обвинение, Распутин наблюдает, как
... мужчину выгоняют на улицу и избивают. Двадцать лет спустя Распутину приходит видение.
... Девы Марии, что побудило его стать священником. Распутин быстро прославится,
... с людьми, даже епископом, просящими его благословения.   """

>>> prompt = "Сегодня очень хорошая погода, и я планирую"
>>> inputs = tokenizer(PADDING_TEXT + приглашение, add_special_tokens=False, return_tensors="tf")["input_ids"]

>>> prompt_length = len(tokenizer.decode(inputs[0]))
>>> outputs = model.generate(inputs, max_length=250, do_sample=True, top_p=0.95, топ_к=60)
>>> сгенерировано = приглашение + tokenizer.decode (выходы [0]) [длина_запроса + 1:]

>>> распечатать (сгенерировано)
Сегодня очень хорошая погода, и я планирую ... 

Генерация текста в настоящее время возможна с GPT-2 , OpenAi-GPT , CTRL , XLNet , Transfo-XL и Reformer в PyTorch и для большинства моделей в Tensorflow. Как видно из приведенного выше примера XLNet и Transfo-XL часто должны быть дополнены, чтобы работать хорошо.GPT-2 обычно является хорошим выбором для генерации открытого текста , потому что он был обучен на миллионах веб-страниц с целью моделирования каузального языка.

Для получения дополнительной информации о том, как применять различные стратегии декодирования для генерации текста, см. также наш текст сообщение в блоге поколения здесь.

Распознавание именованных объектов

Named Entity Recognition (NER) — задача классификации токенов по классу, например, идентификация токена как человек, организация или место.Примером набора данных для распознавания именованных объектов является набор данных CoNLL-2003, который полностью основан на этой задаче. Если вы хотите точно настроить модель для задачи NER, вы можете использовать Скрипт run_ner.py.

Вот пример использования конвейеров для распознавания именованных объектов, в частности, попытки идентифицировать токены как принадлежность к одному из 9 классов:

  • O, Вне названной организации
  • B-MIS, начало смешанной сущности сразу после другой смешанной сущности
  • И-ИСУ, Разное
  • B-PER, Начало имени человека сразу после имени другого человека
  • I-PER, ФИО
  • B-ORG, Начало организации сразу после другой организации
  • И-ОРГ, Организация
  • B-LOC, начало локации сразу после другой локации
  • I-LOC, местоположение

Он использует доработанную модель на CoNLL-2003, доработанную @stefan-it из dbmdz.

 >>> из трубопровода импорта трансформаторов

>>> ner_pipe = конвейер("ner")

>>> sequence = """Hugging Face Inc. — компания, базирующаяся в Нью-Йорке. Ее штаб-квартира находится в Дамбо,
... поэтому очень близко к Манхэттенскому мосту, который виден из окна.""" 

Это выводит список всех слов, которые были идентифицированы как один из объектов из 9 классов, определенных выше. Вот ожидаемые результаты:

 >>> для объекта в ner_pipe (последовательность):
... печать (сущность)
{'сущность': 'I-ORG', 'оценка': 0,9996, 'индекс': 1, 'слово': 'Ху', 'начало': 0, 'конец': 2}
{'entity': 'I-ORG', 'score': 0,9910, 'index': 2, 'word': '##gging', 'start': 2, 'end': 7}
{'сущность': 'I-ORG', 'оценка': 0,9982, 'индекс': 3, 'слово': 'лицо', 'начало': 8, 'конец': 12}
{'entity': 'I-ORG', 'score': 0,9995, 'index': 4, 'word': 'Inc', 'start': 13, 'end': 16}
{'entity': 'I-LOC', 'score': 0,9994, 'index': 11, 'word': 'New', 'start': 40, 'end': 43}
{'сущность': 'I-LOC', 'оценка': 0,9993, 'индекс': 12, 'слово': 'Йорк', 'начало': 44, 'конец': 48}
{'сущность': 'I-LOC', 'оценка': 0.9994, 'индекс': 13, 'слово': 'Город', 'начало': 49, 'конец': 53}
{'сущность': 'I-LOC', 'оценка': 0,9863, 'индекс': 19, 'слово': 'D', 'начало': 79, 'конец': 80}
{'сущность': 'I-LOC', 'оценка': 0,9514, 'индекс': 20, 'слово': '##UM', 'начало': 80, 'конец': 82}
{'entity': 'I-LOC', 'score': 0,9337, 'index': 21, 'word': '##BO', 'start': 82, 'end': 84}
{'сущность': 'I-LOC', 'оценка': 0,9762, 'индекс': 28, 'слово': 'Манхэттен', 'начало': 114, 'конец': 123}
{'entity': 'I-LOC', 'score': 0,9915, 'index': 29, 'word': 'Bridge', 'start': 124, 'end': 130} 

Обратите внимание, как жетоны последовательности «Обнимающее лицо» были идентифицированы как организация, а «Нью-Йорк», В качестве локаций были определены «ДАМБО» и «Манхэттенский мост».

Вот пример распознавания именованных объектов с использованием модели и токенизатора. Процесс следующий:

  1. Создайте экземпляр токенизатора и модели из имени контрольной точки. Модель идентифицируется как модель BERT и загружает ее. с весами, хранящимися в контрольно-пропускном пункте.
  2. Определите последовательность с известными объектами, такими как «Обнимающее лицо» в качестве организации и «Нью-Йорк» в качестве местоположения.
  3. Разделите слова на токены, чтобы их можно было сопоставить с предсказаниями.Используем небольшой хак, сначала полностью кодирование и декодирование последовательности, чтобы у нас осталась строка, содержащая специальные токены.
  4. Закодируйте эту последовательность в идентификаторы (специальные токены добавляются автоматически).
  5. Получите прогнозы, передав входные данные модели и получив первые выходные данные. Это приводит к распределение по 9 возможным классам для каждого токена. Мы берем argmax для получения наиболее вероятного класса для каждый токен.
  6. Заархивируйте каждый токен вместе с его предсказанием и распечатайте его.
 >>> из трансформаторов импортировать AutoModelForTokenClassification, AutoTokenizer
>>> импортный факел

>>> model = AutoModelForTokenClassification.from_pretrained("dbmdz/bert-large-cased-finetuned-conll03-english")
>>> tokenizer = AutoTokenizer.from_pretrained("bert-base-cased")

>>> последовательность = (
... «Hugging Face Inc. — компания, базирующаяся в Нью-Йорке. Ее штаб-квартира находится в ДАМБО»,
... "поэтому очень близко к Манхэттенскому мосту."
... )

>>> inputs = tokenizer(sequence, return_tensor="pt")
>>> токены = inputs.tokens()

>>> выходы = модель (** входы). логиты
>>> прогнозы = torch.argmax(outputs, dim=2) 
 >>> из трансформаторов импортировать TFAutoModelForTokenClassification, AutoTokenizer
>>> импортировать тензорный поток как tf

>>> model = TFAutoModelForTokenClassification.from_pretrained("dbmdz/bert-large-cased-finetuned-conll03-english")
>>> токенизатор = автотокенизатор.from_pretrained("оболочка для берта")

>>> последовательность = (
... «Hugging Face Inc. — компания, базирующаяся в Нью-Йорке. Ее штаб-квартира находится в ДАМБО»,
... «поэтому очень близко к Манхэттенскому мосту».
... )

>>> входы = токенизатор (последовательность, return_tensors = "tf")
>>> токены = inputs.tokens()

>>> выходы = модель (** входы) [0]
>>> прогнозы = tf.argmax (выходные данные, ось = 2) 

Это выводит список каждой лексемы, сопоставленной с соответствующим прогнозом.В отличие от конвейера, здесь каждый токен имеет предсказание, так как мы не удалили «0»-й класс, что означает, что в этом не было найдено никакой конкретной сущности. токен.

В приведенном выше примере предсказания — это целое число, соответствующее предсказанному классу. Мы можем использовать свойство model.config.id2label для восстановления имени класса, соответствующего номеру класса, который показано ниже:

 >>> для токена, предсказание в zip (токены, предсказания[0].число()):
... print((токен, model.config.id2label[прогноз]))
('[CLS]', 'О')
(«Ху», «Я-ОРГ»)
('##gging', 'I-ORG')
(«Лицо», «Я-ОРГ»)
(«Инк», «И-ОРГ»)
('.', 'О')
(«есть», «о»)
(«а», «о»)
(«компания», «О»)
(«основанный», «О»)
('я не')
(«Новый», «I-LOC»)
(«Йорк», «I-LOC»)
(«Город», «I-LOC»)
('.', 'О')
(«Это», «О»)
(«штаб», «О»)
(«есть», «О»)
('я не')
(«D», «I-LOC»)
('##UM', 'I-LOC')
('##BO', 'I-LOC')
(',', 'О')
(«следовательно», «О»)
(«очень», «О»)
(«закрыть», «О»)
('слишком')
(«то», «о»)
(«Манхэттен», «I-LOC»)
(«Мост», «I-LOC»)
('.', 'О')
('[СЭП]', 'О') 

Подведение итогов

Резюме — это задача по резюмированию документа или статьи в более короткий текст. Если вы хотите точно настроить модели задачи суммирования, вы можете использовать run_summarization.py сценарий.

Примером сводного набора данных является набор данных CNN/Daily Mail, который состоит из длинных новостных статей и был создан для задачи обобщения. Если вы хотите точно настроить модель для задачи суммирования, различные подходы описаны в этом документе.

Вот пример использования конвейеров для суммирования. Он использует модель Барта, которая была точно настроена на CNN. / Набор данных Daily Mail.

 >>> из трубопровода импорта трансформаторов

>>> summarer = конвейер ("обобщение")

>>> СТАТЬЯ = """ Нью-Йорк (CNN) Когда Лиане Баррьентос было 23 года, она вышла замуж в округе Вестчестер, штат Нью-Йорк.
... Через год она снова вышла замуж в округе Вестчестер, но уже за другого мужчину и не разводясь с первым мужем.... Всего через 18 дней после свадьбы она снова вышла замуж. Затем Баррьентос заявил «Да» еще пять раз, иногда с интервалом в две недели.
... В 2010 году она снова вышла замуж, на этот раз в Бронксе. В заявлении на получение разрешения на брак она заявила, что это был ее «первый и единственный» брак.
... Барриентос, которой сейчас 39 лет, обвиняется в двух уголовных обвинениях в «предложении фальшивого документа для подачи первой степени», ссылаясь на ее ложные заявления о
... Заявление о регистрации брака в 2010 году, согласно судебным документам.... Прокуратура заявила, что браки были частью иммиграционной аферы.
... В пятницу она не признала себя виновной в Верховном суде штата в Бронксе, по словам ее адвоката Кристофера Райта, который отказался от дальнейших комментариев.
...После выхода из суда Баррьентос был арестован и обвинен в краже услуг и преступном вторжении за то, что якобы пробрался в нью-йоркское метро через запасной выход, сказал детектив.
... Аннет Марковски, пресс-секретарь полиции. В общей сложности Баррьентос была замужем 10 раз, причем девять из ее браков произошли в период с 1999 по 2002 год.... Все произошло либо в округе Вестчестер, либо на Лонг-Айленде, либо в Нью-Джерси, либо в Бронксе. Считается, что она до сих пор замужем за четырьмя мужчинами, а когда-то она была замужем сразу за восемью мужчинами, говорят прокуроры.
... Прокуроры заявили, что в иммиграционной афере участвовали некоторые из ее мужей, которые подали документы на получение статуса постоянного жителя вскоре после свадьбы.
...Любые разводы происходили только после того, как такие документы были одобрены. Пока неясно, будет ли кто-либо из мужчин привлечен к уголовной ответственности.
... Дело было передано в окружную прокуратуру Бронкса иммиграционной и таможенной службой и Департаментом внутренней безопасности.
... Следственный отдел. Семь мужчин из так называемых стран с «красным флагом», включая Египет, Турцию, Грузию, Пакистан и Мали.
... Ее восьмой муж, Рашид Раджпут, был депортирован в 2006 году в свой родной Пакистан после расследования Объединенной оперативной группы по борьбе с терроризмом.
... В случае признания виновным Барриентосу грозит до четырех лет тюрьмы. Следующее ее появление в суде назначено на 18 мая.
... """ 

Поскольку конвейер суммирования зависит от метода PreTrainedModel.generate() , мы можем переопределить значение по умолчанию аргументы PreTrainedModel.generate() непосредственно в конвейере для max_length и min_length , как показано ниже. Это выводит следующую сводку:

 >>> print(summarizer(ARTICLE, max_length=130, min_length=30, do_sample=False))
[{'summary_text': ' 39-летней Лиане Барриентос предъявлено обвинение по двум пунктам: «предложение фальшивого документа для подачи
первой степени». Всего она была замужем 10 раз, причем девять из ее браков были заключены между 1999 и
2002 . В свое время она была замужем сразу за восемью мужчинами, утверждают прокуроры.'}] 

Вот пример суммирования с использованием модели и токенизатора. Процесс следующий:

  1. Создайте экземпляр токенизатора и модели из имени контрольной точки. Обобщение обычно выполняется с помощью кодировщика-декодера. модель, например Bart или T5 .
  2. Укажите статью, по которой следует сделать сводку.
  3. Добавьте специальный префикс T5 «summarize:».
  4. Используйте метод PreTrainedModel.generate() для создания сводки.

В этом примере мы используем модель Google T5. Несмотря на то, что он был предварительно обучен только на многозадачном смешанном наборе данных (включая CNN/Daily Mail) дает очень хорошие результаты.

 >>> из трансформаторов импортировать AutoModelForSeq2SeqLM, AutoTokenizer

>>> model = AutoModelForSeq2SeqLM.from_pretrained("t5-base")
>>> tokenizer = AutoTokenizer.from_pretrained("t5-base")

>>>
>>> inputs = tokenizer("summarize: " + ARTICLE, return_tensors="pt", max_length=512, truncation=True)
>>> выходы = модель.генерировать(
... inputs["input_ids"], max_length=150, min_length=40, length_penalty=2.0, num_beams=4, Early_stopping=True
... )

>>> print(tokenizer.decode(outputs[0]))
 прокуроры говорят, что браки были частью иммиграционной аферы. в случае осуждения Барриентосу грозит два уголовных преступления
по пунктам «предложения фальшивого документа для подачи первой степени» она была замужем 10 раз, девять из них
с 1999 по 2002 год. 
 >>> из трансформаторов импортировать TFAutoModelForSeq2SeqLM, AutoTokenizer

>>> модель = TFAutoModelForSeq2SeqLM.from_pretrained("база t5")
>>> tokenizer = AutoTokenizer.from_pretrained("t5-base")

>>>
>>> inputs = tokenizer("summarize: " + СТАТЬЯ, return_tensors="tf", max_length=512)
>>> выходы = model.generate(
... inputs["input_ids"], max_length=150, min_length=40, length_penalty=2.0, num_beams=4, Early_stopping=True
... )

>>> print(tokenizer.decode(outputs[0]))
 прокуроры говорят, что браки были частью иммиграционной аферы. в случае осуждения Барриентосу грозит два уголовных преступления
по пунктам «предложения фальшивого документа для подачи первой степени» она была замужем 10 раз, девять из них
в период с 1999 по 2002 год.

Перевод

Перевод — это задача по переводу текста с одного языка на другой. Если вы хотите настроить модель на задача перевода, вы можете использовать скрипт run_translation.py.

Примером набора данных перевода является набор данных WMT с английского на немецкий, который содержит предложения на английском языке в качестве входных данных. данные и соответствующие предложения на немецком языке в качестве целевых данных. Если вы хотите настроить модель на задача перевода, в этом документе описаны различные подходы.

Вот пример использования конвейеров для перевода. Он использует модель T5, которая была предварительно обучена только на многозадачный смешанный набор данных (включая WMT), тем не менее, дающий впечатляющие результаты перевода.

 >>> из трубопровода импорта трансформаторов

>>> переводчик = конвейер("translation_en_to_de")
>>> print(translator("Hugging Face — технологическая компания, базирующаяся в Нью-Йорке и Париже", max_length=40))
[{'translation_text': 'Hugging Face ist ein Technologieunternehmen mit Sitz в Нью-Йорке и Париже.'}] 

Поскольку конвейер перевода зависит от метода PreTrainedModel.generate() , мы можем переопределить значение по умолчанию аргументы PreTrainedModel.generate() непосредственно в конвейере, как показано выше для max_length .

Вот пример выполнения перевода с использованием модели и токенизатора. Процесс следующий:

  1. Создайте экземпляр токенизатора и модели из имени контрольной точки. Обобщение обычно выполняется с помощью кодировщика-декодера. модель, например Bart или T5 .
  2. Укажите статью, по которой следует сделать сводку.
  3. Добавьте специальный префикс T5 «перевести с английского на немецкий: »
  4. Используйте метод PreTrainedModel.generate() для выполнения перевода.
 >>> из трансформаторов импортировать AutoModelForSeq2SeqLM, AutoTokenizer

>>> model = AutoModelForSeq2SeqLM.from_pretrained("t5-base")
>>> tokenizer = AutoTokenizer.from_pretrained("t5-base")

>>> входы = токенизатор(
... «перевести с английского на немецкий: Hugging Face — технологическая компания, базирующаяся в Нью-Йорке и Париже»,
... return_tensors="pt",
... )
>>> outputs = model.generate(inputs["input_ids"], max_length=40, num_beams=4, Early_stopping=True)

>>> print(tokenizer.decode(outputs[0]))
 Hugging Face ist ein Technologieunternehmen mit Sitz в Нью-Йорке и Париже. 
 >>> из трансформаторов импортировать TFAutoModelForSeq2SeqLM, AutoTokenizer

>>> модель = TFAutoModelForSeq2SeqLM.from_pretrained("база t5")
>>> tokenizer = AutoTokenizer.from_pretrained("t5-base")

>>> входы = токенизатор(
... «перевести с английского на немецкий: Hugging Face — технологическая компания, базирующаяся в Нью-Йорке и Париже»,
... return_tensors="tf",
... )
>>> outputs = model.generate(inputs["input_ids"], max_length=40, num_beams=4, Early_stopping=True)

>>> print(tokenizer.decode(outputs[0]))
 Hugging Face находится в Технологическом антураже города Ситц в Нью-Йорке и Париже.

Мы получаем тот же перевод, что и в примере с конвейером.

Аудио классификация

Классификация аудио присваивает класс аудиосигналу. Набор данных Keyword Spotting из теста SUPERB является примером набора данных, который можно использовать для тонкой настройки классификации звука. Этот набор данных содержит десять классов ключевых слов для классификации. Если вы хотите точно настроить модель для классификации аудио, взгляните на сценарий run_audio_classification.py или это практическое руководство.

В следующих примерах показано, как использовать конвейер(), модель и токенизатор для вывода классификации звука:

 >>> из трубопровода импорта трансформаторов

>>> audio_classifier = конвейер(
... task="аудио-классификация", model="ehcalabres/wav2vec2-lg-xlsr-en-speech-emotion-recognition"
... )
>>> audio_classifier("jfk_moon_speech.wav")
[{'метка': 'спокойствие', 'оценка': 0,13856211304664612},
 {'метка': 'отвращение', 'оценка': 0,13148026168346405},
 {'метка': 'счастливый', 'оценка': 0.126351631034},
 {'метка': 'злой', 'оценка': 0,124395578201},
 {'метка': 'страшный', 'оценка': 0,124043851617}] 

Общий процесс использования экстрактора модели и признаков для классификации аудио:

  1. Создайте экстрактор признаков и модель из имени контрольной точки.
  2. Обработайте аудиосигнал, который нужно классифицировать, с помощью экстрактора признаков.
  3. Пропустите входные данные через модель и возьмите argmax , чтобы получить наиболее вероятный класс.
  4. Преобразуйте идентификатор класса в имя класса с помощью id2label , чтобы вернуть интерпретируемый результат.
 >>> из трансформаторов импортировать AutoFeatureExtractor, AutoModelForAudioClassification
>>> из наборов данных импортировать load_dataset
>>> импортный факел

>>> dataset = load_dataset("hf-internal-testing/librispeech_asr_demo", "clean", split="validation")
>>> набор данных = набор данных.sort ("идентификатор")
>>> Sample_rate = dataset.features["аудио"].частота выборки

>>> feature_extractor = AutoFeatureExtractor.from_pretrained("superb/wav2vec2-base-superb-ks")
>>> model = AutoModelForAudioClassification.from_pretrained("superb/wav2vec2-base-superb-ks")

>>> inputs = feature_extractor(набор данных[0]["аудио"]["массив"], частота_выборки=скорость_выборки, return_tensors="pt")

>>> с torch.no_grad():
... логиты = модель (** входы). логиты

>>> predicted_class_ids = torch.argmax(logits, dim=-1).item()
>>> предсказанная_метка = модель.config.id2label[прогнозируемые_классы_идентификаторы]
>>> предсказанная_метка 

Автоматическое распознавание речи

Автоматическое распознавание речи преобразует звуковой сигнал в текст. Набор данных Common Voice — пример набора данных, который можно использовать для точной настройки автоматического распознавания речи. Он содержит аудиофайл спикера и соответствующее предложение. Если вы хотите настроить модель для автоматического распознавания речи, взгляните на run_speech_recognition_ctc.py или run_speech_recognition_seq2seq.py-скрипты или это практическое руководство.

В следующих примерах показано, как использовать конвейер(), модель и токенизатор для автоматического вывода распознавания речи:

 >>> из трубопровода импорта трансформаторов

>>> speech_recognizer = конвейер (задача = «автоматическое распознавание речи», модель = «facebook/wav2vec2-base-960h»)
>>> speech_recognizer("jfk_moon_speech.wav")
{'text': "ПРЕДСТАВЛЯЕМ ГОСПОДА ВИЦЕ-ПРЕЗИДЕНТА ГУБЕРНАТОРА КОНГРЕССМЕНА ТОМАС САН О ТЕ ВИЛАН КОНГРЕССМЕН МИЛЛА ГОСПОДА УЭББ МСТБЕЛЛ НАУЧНЫЙ УВАЖАЕМЫЙ ДОГОВОР У ДАМ И ДЖЕНТЛЬМЕНОВ Я БЛАГОДАРЕН ВАШЕМУ ПРЕЗИДЕНТУ, ЧТО СДЕЛАЛ МЕНЯ ПОЧЕТНЫМ ПРИГЛАШАЕМЫМ ПРОФЕССОРОМ, И Я УВЕРЯЮ ВАС, ЧТО БУДЕТ ОЧЕНЬ КРАТКИМ Я РАДА БЫТЬ ЗДЕСЬ, И Я ОСОБЕННО РАДА БЫТЬ ЗДЕСЬ В ЭТОМ СЛУЧАЕ МЫ ВСТРЕЧАЕМСЯ В КОЛЛЕДЖЕ, ОТМЕЧЕННОМ ЗНАНИЯМИ В ГОРОДЕ, ОТМЕЧЕННОМ ПРОГРЕССОМ В ГОСУДАРСТВЕ, ОТМЕЧЕННОМ НАПРЯЖЕНИЕМ, МЫ НУЖДАЕМСЯ ВО ВСЕХ ТРИ"} 

Общий процесс использования модели и процессора для автоматического распознавания речи:

  1. Создайте экземпляр процессора (который перегруппирует экстрактор признаков для обработки ввода и токенизатор для декодирования) и модель из имени контрольной точки.
  2. Обработка аудиосигнала и текста с помощью процессора.
  3. Пропустите входные данные через модель и возьмите argmax для получения предсказанного текста.
  4. Декодируйте текст с помощью токенизатора, чтобы получить транскрипцию.
 >>> из трансформаторов импортировать AutoProcessor, AutoModelForCTC
>>> из наборов данных импортировать load_dataset
>>> импортный факел

>>> dataset = load_dataset("hf-internal-testing/librispeech_asr_demo", "clean", split="validation")
>>> набор данных = набор данных.сортировать ("идентификатор")
>>> частота_выборки = набор данных.функции["аудио"].частота_выборки

>>> процессор = AutoProcessor.from_pretrained("facebook/wav2vec2-base-960h")
>>> модель = AutoModelForCTC.from_pretrained("facebook/wav2vec2-base-960h")

>>> входы = процессор (набор данных [0] ["аудио"] ["массив"], частота дискретизации = частота дискретизации, return_tensors = "pt")
>>> с torch.no_grad():
... логиты = модель (** входы). логиты
>>> predicted_ids = torch.argmax(logits, dim=-1)

>>> транскрипция = процессор.batch_decode (прогнозируемые_идентификаторы)
>>> транскрипция[0] 

Классификация изображений

Подобно классификации текста и аудио, классификация изображений присваивает изображению класс. Набор данных CIFAR-100 является примером набора данных, который можно использовать для тонкой настройки классификации изображений. Он содержит изображение и соответствующий класс. Если вы хотите точно настроить модель для классификации изображений, взгляните на скрипт run_image_classification.py или это практическое руководство.

В следующих примерах показано, как использовать конвейер(), модель и токенизатор для вывода классификации изображений:

 >>> из трубопровода импорта трансформаторов

>>> vision_classifier = конвейер (задача = «классификация изображений»)
>>>vision_classifier(
... images="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/pipeline-cat-chonk.jpeg"
... )
[{'метка': 'рысь, катамаунт', 'оценка': 0,44030278732},
 {'метка': 'пума, пума, катамаунт, горный лев, художник, пантера, Felis concolor',
  'счет': 0,03433405

7796}, {'label': 'снежный барс, унция, Panthera uncia', 'счет': 0,032148055732250214}, {'метка': 'Египетская кошка', 'оценка': 0,023536760025}, {'метка': 'тигровый кот', 'оценка': 0,0230341707916}]

Общий процесс использования экстрактора модели и признаков для классификации изображений:

  1. Создайте экстрактор признаков и модель из имени контрольной точки.
  2. Обработайте изображение, которое нужно классифицировать, с помощью экстрактора признаков.
  3. Пропустите входные данные через модель и возьмите argmax для получения предсказанного класса.
  4. Преобразуйте идентификатор класса в имя класса с помощью id2label , чтобы вернуть интерпретируемый результат.
 >>> из трансформаторов импортировать AutoFeatureExtractor, AutoModelForImageClassification
>>> импортный факел
>>> из наборов данных импортировать load_dataset

>>> dataset = load_dataset("обнимающее лицо/кошки-изображение")
>>> изображение = набор данных["тест"]["изображение"][0]

>>> feature_extractor = AutoFeatureExtractor.
					
				

0 comments on “Трансформатор тс 160: характеристики, схема подключения, данные обмоток

Добавить комментарий

Ваш адрес email не будет опубликован.