Трансформаторы расшифровка обозначений: ТРАНСФОРМАТОРЫ. РАСШИФРОВКА НАИМЕНОВАНИЙ

ТРАНСФОРМАТОРЫ. РАСШИФРОВКА НАИМЕНОВАНИЙ

 

Наименование (а точнее, номенклатура) трансформатора, говорит о его конструктивных особенностях и параметрах. При умении читать наименование оборудования можно только по нему узнать количество обмоток и фаз силового трансформатора, тип охлаждения, номинальную мощность и напряжение высшей обмотки. 

ОБЩИЕ РЕКОМЕНДАЦИИ

Номенклатура трансформаторов (расшифровка буквенных и цифровых обозначений наименования) не регламентируется какими-либо нормативными документами, а всецело определяется производителем оборудования. Поэтому, если название Вашего трансформатора не поддаётся расшифровке, то обратитесь к его производителю или посмотрите паспорт изделия. Приведенные ниже расшифровки букв и цифр названия трансформаторов актуальны для отечественных изделий. 

Наименование трансформатора состоит из букв и цифр, каждая из которых имеет своё значение. При расшифровке наименования следует учитывать то что некоторые из них могут отсутствовать в нём вообще (например буква «А» в наименовании обычного трансформатора), а другие являются взаимоисключающими (например, буквы «О» и «Т»).

 

РАСШИФРОВКА НАИМЕНОВАНИЙ СИЛОВЫХ ТРАНСФОРМАТОРОВ

Для силовых трансформаторов приняты следующие буквенные обозначения:

Таблица 1 — Расшифровка буквенных и цифровых обозначений наименования силового трансформатора

Примечание: принудительная циркуляция воздуха называется дутьем, то есть «с принудительной циркуляцией воздуха» и «с дутьем» равнозначные выражения. 

ПРИМЕРЫ РАСШИФРОВКИ НАИМЕНОВАНИЙ СИЛОВЫХ ТРАНСФОРМАТОРОВ

 

     ТМ — 100/35 — трансформатор трёхфазный масляный с естественной циркуляцией воздуха и масла, номинальной мощностью 0,1 МВА, классом напряжения 35 кВ;

     ТДНС — 10000/35 — трансформатор трёхфазный с дутьем масла, регулируемый под нагрузкой для собственных нужд электростанции, номинальной мощностью 10 МВА, классом напряжения 35 кВ;

     ТРДНФ — 25000/110 — трансформатор трёхфазный, с расщеплённой обмоткой, масляный с принудительной циркуляцией воздуха, регулируемый под нагрузкой, с расширителем, номинальной мощностью 25 МВА, классом напряжения 110 кВ;

     АТДЦТН — 63000/220/110 — автотрансформатор трёхфазный, масляный с дутьём и принудительной циркуляцией масла, трёхобмоточный, регулируемый под нагрузкой, номинальной мощностью 63 МВА, класс ВН — 220 кВ, класс СН — 110 кВ;

     АОДЦТН — 333000/750/330 — автотрансформатор однофазный, масляный с дутьём и принудительной циркуляцией масла, трёхобмоточный, регулируемый под нагрузкой, номинальной мощностью 333 МВА, класс ВН — 750 кВ, класс СН — 500 кВ.  

РАСШИФРОВКА НАИМЕНОВАНИЙ РЕГУЛИРОВОЧНЫХ (ВОЛЬТОДОБАВОЧНЫХ) ТРАНСФОРМАТОРОВ

Для регулировочных трансформаторов приняты следующие сокращения: 

Таблица 2 — Расшифровка буквенных и цифровых обозначений наименования регулировочного трансформатора

ПРИМЕРЫ РАСШИФРОВКИ НАИМЕНОВАНИЙ РЕГУЛИРОВОЧНЫХ ТРАНСФОРМАТОРОВ

     ВРТДНУ — 180000/35/35 — трансформатор вольтодобавочный, регулировочный, трёхфазный, с масляным охлаждением типа Д, регулируемый под нагрузкой, с усиленным вводом, проходной мощностью 180 МВА, номинальное напряжение обмотки возбуждения 35 кВ, номинальное напряжения регулировочной обмотки 35 кВ;

     ЛТМН — 160000/10 — трансформатор линейный, трёхфазный, с естественной циркуляцией масла и воздуха, регулируемый под нагрузкой, проходной мощностью 160 МВА, номинальным линейным напряжением 10 кВ.

 

РАСШИФРОВКА НАИМЕНОВАНИЙ ТРАНСФОРМАТОРОВ НАПРЯЖЕНИЯ

Для трансформаторов напряжения приняты следующие сокращения: 

Таблица 3 — Расшифровка буквенных и цифровых обозначений наименования трансформатора напряжения

 

Примечание:

Комплектующий для серии НОСК;

С компенсационной обмоткой для серии НТМК;

Кроме серии НОЛ и ЗНОЛ, в которых:

     — 06 — для встраивания в закрытые токопроводы, ЗРУ и КРУ внутренней установки;

     — 08 — для ЗРУ и КРУ внутренней и наружной установки;

     — 11 — для взрывоопасных КРУ.

 

ПРИМЕРЫ РАСШИФРОВКИ НАИМЕНОВАНИЙ ТРАНСФОРМАТОРОВ НАПРЯЖЕНИЯ

     НОСК-3-У5 — трансформатор напряжения однофазный с сухой изоляцией, комплектующий, номинальное напряжение обмотки ВН 3 кВ, климатическое исполнение — У5;

     НОМ-15-77У1 — трансформатор напряжения однофазный с масляной изоляцией, номинальное напряжение обмотки ВН 15 кВ, 1977 года разработки, климатическое исполнение — У1;

     ЗНОМ-15-63У2 — трансформатор напряжения с заземляемым концом обмотки ВН, однофазный с масляной изоляцией, номинальное напряжение обмотки ВН 15 кВ, 1963 года разработки, климатическое исполнение — У2;

     ЗНОЛ-06-6У3 — трансформатор напряжения с заземляемым концом обмотки ВН, однофазный с литой эпоксидной изоляцией, для встраивания в закрытые токопроводы, ЗРУ и КРУ внутренней установки, климатическое исполнение — У3;

     НТС-05-УХЛ4 — трансформатор напряжения трёхфазный с сухой изоляцией, номинальное напряжение обмотки ВН 0,5 кВ, климатическое исполнение — УХЛ4;

     НТМК-10-71У3 — трансформатор напряжения трёхфазный с масляной изоляцией и компенсационной обмоткой, номинальное напряжение обмотки ВН 10 кВ, 1971 года разработки, климатическое исполнение — У3;

     НТМИ-10-66У3 — трансформатор напряжения трёхфазный с масляной изоляцией и обмоткой для контроля изоляции сети, номинальное напряжение обмотки ВН 10 кВ, 1966 года разработки, климатическое исполнение — У3;

     НКФ-110-58У1 — трансформатор напряжения каскадный в фарфоровой покрышке, номинальное напряжение обмотки ВН 110 кВ, 1958 года разработки, климатическое исполнение — У1;

     НДЕ-500-72У1 — трансформатор напряжения с ёмкостным делителем, номинальное напряжение обмотки ВН 500 кВ, 1972 года разработки, климатическое исполнение — У1;

 

РАСШИФРОВКА НАИМЕНОВАНИЙ ТРАНСФОРМАТОРОВ ТОКА

Для трансформаторов тока приняты следующие сокращения:

 

Таблица 4 — Расшифровка буквенных и цифровых обозначений наименования трансформатора тока

 

Примечание:

Для серии ТВ, ТВТ, ТВС, ТВУ;

Для серии ТНП, ТНПШ — с подмагничиванием переменным током;

Для серии ТШВ, ТВГ;

Для ТВВГ — 24 — водяное охлаждение;

Для серии ТНП, ТНПШ;

Для серии ТВ, ТВТ, ТВС, ТВУ — номинальное напряжения оборудования;

Для серии ТНП, ТНПШ — число обхватываемых жил кабеля;

Для серии ТНП, ТНПШ — номинальное напряжение.

 

ПРИМЕРЫ РАСШИФРОВКИ НАИМЕНОВАНИЙ ТРАНСФОРМАТОРОВ ТОКА

     ТФЗМ — 35А — У1 — трансформатор тока в фарфоровой покрышке, с обмоткой звеньевого исполнения, с масляной изоляцией, номинальным напряжением обмотки ВН 35 кВ, категории А, климатическим исполнением У1;

     ТФРМ — 750М — У1 — трансформатор тока в фарфоровой покрышке, с обмоткой рымочного исполнения, с масляной изоляцией, номинальным напряжением обмотки ВН 750 кВ, климатическим исполнением У1;

     ТШЛ — 10К — трансформатор тока шинный с литой изоляцией, номинальное напряжением обмотки ВН 10 кВ;

     ТЛП — 10К — У3 — трансформатор тока с литой изоляцией, проходной, номинальным напряжением обмотки ВН 10 кВ, климатическое исполнение — У3;

     ТПОЛ — 10 — трансформатор тока проходной, одновитковый, с литой изоляцией, номинальным напряжением обмотки ВН 10 кВ;

     ТШВ — 15 — трансформатор тока шинный, с воздушным охлаждением, номинальным напряжением обмотки ВН 15 кВ;

     ТВГ — 20 — I — трансформатор тока с воздушным охлаждением, генераторный, номинальным напряжением обмотки ВН 20 кВ;

     ТШЛО — 20 — трансформатор тока шинный, с литой изоляцией, одновитковый, номинальным напряжением обмотки ВН 20 кВ;

     ТВ — 35 — 40У2 — трансформатор тока встроенный, номинальным напряжением обмотки ВН 35 кВ, током термической стойкости 40 кА, климатическое исполнение — У2;

     ТНП — 12 — трансформатор тока нулевой последовательности, с подмагничиванием переменным током, охватывающий 12 жил кабеля;

     ТНПШ — 2 — 15 — трансформатор тока нулевой последовательности, с подмагничиванием переменным током, шинный, охватывающий 2 жилы кабеля, номинальным напряжением обмотки ВН 15 кВ.

 


 

Трансформаторы — Буквенные обозначения трансформатора

БУКВЕННОЕ ОБОЗНАЧЕНИЕ СИЛОВОГО ТРАНСФОРМАТОРА

ОБЩЕГО И СПЕЦИАЛЬНОГО НАЗНАЧЕНИЯ

Схема буквенного обозначения типов трансформаторов:

Расшифровка буквенного обозначения силового трансформатора:

1 А – автотрансформатор (может отсутствовать)

2 Число фаз:

Т – трёхфазный

О – однофазный

3         Р – с расщеплённой обмоткой (может отсутствовать)

4 Условное обозначения вида охлаждения:

Масляные трансформаторы

М – естественная циркуляция воздуха и масла

Д — принудительная циркуляция воздуха и естественная циркуляция масла

          МВ – с принудительной циркуляцией воды и естественной циркуляцией масла

МЦ — естественная циркуляция воздуха и принудительная циркуляция масла с ненаправленным потоком масла

НМЦ — Естественная циркуляция воздуха и принудительная циркуляция масла с направленным потоком масла

ДЦ – Принудительная циркуляция воздуха и масла с ненаправленным потоком масла

НДЦ — Принудительная циркуляция воздуха и масла с направленным потоком масла

Ц — Принудительная циркуляция воды и масла с ненаправленным потоком масла (в охладителях вода движется по трубам, а масло – в межтрубном пространстве, разделённом перегородками)

НЦ — Принудительная циркуляция воды и масла с направленным потоком масла

Трансформаторы с негорючим жидким диэлектриком

        Н — Естественное охлаждение негорючим жидким диэлектриком

        НД — Охлаждение негорючим жидким диэлектриком с принудительной циркуляцией воздуха

        ННД — Охлаждение негорючим жидким диэлектриком с принудительной циркуляцией воздуха и с направленным потоком жидкого диэлектрика

Сухие трансформаторы

        С — Естественное воздушное при открытом исполнении

        СЗ — Естественное воздушное при защищенном исполнении

        СГ — Естественное воздушное при герметичном исполнении

        СД — Воздушное с принудительной циркуляцией воздуха

5      Т – трёхобмоточный трансформатор

6      Н – трансформатор с РПН (с регулированием напряжения под нагрузкой)

7 Особенность исполнения (в обозначении может отсутствовать):

        В – с принудительной циркуляцией воды

        Г – грозозащитное исполнение

        Г – трансформатор в гофрированном баке без расширителя — «герметичное исполнение»

        З – трансформатор с естественным масляным охлаждением или с охлаждением негорючим жидким диэлектриком с защитой при помощи азотной подушки, без расширителя и выводами,

                 смонтированными во фланцах на стенках бака

        Л — исполнение трансформатора с литой изоляцией

        П — подвесного исполнения на опоре ВЛ

        У – усовершенствованное (может быть с автоматическим РПН)

        У – трансформатор с симметрирующим устройством

        Ф – трансформатор с расширителем и выводами, смонтированными во фланцах на стенках бака

        э – трансформатор с пониженными потерями холостого хода (энергосберегающий)

8 Назначение (в обозначении может отсутствовать)

        Б – для прогрева бетона или грунта в холодное время года (бетоногрейный), с такой же литерой может обозначаться трансформатор для буровых станков

        Б – трансформатор для буровых станков

        Ж – для электрификации железных дорог

        М – для металлургического производства

        П – для линий передачи постоянного тока

        ПН – исполнение для питания погружных электронасосов

        С – для собственных нужд электростанций (в конце буквенного обозначения)

        ТО – для термической обработки бетона и грунта, питания ручного инструмента, временного освещения

        Ш – шахтные трансформаторы (предназначены для электроснабжения угольных шахт стационарной установки)

        Э – для питания электрооборудования экскаваторов (экскаваторный)

Примеры серий силовых трансформаторов общего назначения: TМ, ТМГ, ТМЭ, ТМЭГ, ТМБ, ТМПН, ТМВГ, ТМВЭГ, ТМВБГ, ТМЖ, ТМВЭ, ТМВБ, ТМЗ, ТМФ, ТМЭБ, ТМВМЗ, ТМС, ТСЗ, ТСЗС,  ТРДНС, ТМН,

ТДНС, ТДН, ТМН, ТРДН, ТРДЦН

Примеры:

ТМ – Т – трансформатор трехфазный, М – с естественной циркуляцией воздуха и масла

ТМВГ – Т — трансформатор трехфазный, МВ — с естественной циркуляцией масла и принудительной циркуляцией воды, Г — в герметичном исполнении

ТНЗ – Т — трехфазный, Н — с регулированием под нагрузкой (РПН), З — с естественным масляным

ТМВМ – Т- трехфазный, МВ — с естественной циркуляцией масла и принудительной циркуляцией воды, М – для металлургического производства

ТМГ – Т — трехфазный, М — масляный, Г — в герметичном исполнении

ТМВГ – Т — трехфазный, МВ — с естественной циркуляцией масла и принудительной циркуляцией воды, Г — в герметичном исполнении

ТСЗ – Т — трехфазный, С — естественное воздушное охлаждение, З — в защищенном исполнении;

ТСЗС – Т — трехфазный, С — сухой, З — защищенное исполнение, С — для собственных нужд электростанций

Трехобмоточные: ТМТН, ТДТН, ТДЦТН

Т – стоящая после обозначения системы охлаждения обозначает – трехобмоточный.

Автотрансформаторы: АТДТНГ, АТДЦТНГ, АТДЦТН, АОДЦТН

А – автотрансформатор;

О – однофазный,

Г – грозоупорный.

ТМ 1000/10 74 У1 – Т- трехфазный двух обмоточный трансформатор, М – охлаждение естественная циркуляция воздуха и масла, номинальная мощность — 1000 кВА, класс высшего напряжения — 10 кВ, конструкция — 1974 г., У1 — для района с умеренным климатом, для установки на открытом воздухе;

ТРДНС 25000/35 74 Т1 трехфазный двух обмоточный трансформатор, с расщепленной обмоткой НН, с принудительной циркуляцией воздуха в системе охлаждения, с РПН, для собственных нужд электростанций, номинальная мощность 25 МВА, класс высшего напряжения 35 кВ, конструкция 1974 г., тропического исполнения, для установки на открытом воздухе;

ТЦ 1000000/500 83ХЛ1 трехфазный двух обмоточный трансформатор с принудительной циркуляцией масла и воды в системе охлаждения, номинальная мощность 1000 МВА, класс напряжения 500 кВ, конструкция 1983 г. , для районов с холодным климатом, для наружной установки.

Для автотрансформаторов при классах напряжения стороны СН (среднее напряжение) или НН (низкое напряжение) 110 кВ и выше после класса напряжения стороны ВН (высокое напряжение) через черту дроби указывают класс напряжения стороны СН или НН.

Примечание. Для трансформаторов, разработанных до 01.07.87, допускается указывать последние две цифры — год выпуска рабочих чертежей.

Автотрансформаторы отличаются добавлением к обозначению трансформаторов буквы А, она может быть первой в буквенном обозначении или последней.

 В автотрансформаторах, изготовленных по основному стандарту трансформаторов ГОСТ 1167765, ГОСТ 1167775, ГОСТ 1167785, буква А стоит впереди всех символов

Например: АОДЦТН 417000/750/500 73У1 однофазный трехобмоточный автотрансформатор номинальной (проходной) мощностью 417 МВА, класс напряжения ВН 750 кВ, СН 500 кВ, остальные символы расшифровываются так же, как и в предыдущих примерах.

В конце 50х годов, когда в СССР впервые появились мощные силовые автотрансформаторы 220/110, 400/220, 400/110, 500/220, 500110 кВ, и в начале 60х годов производили автотрансформаторы двух модификаций повышающей и понижающей. В обозначении повышающей модификации буква А стояла в конце буквенной части; в этих автотрансформаторах обмотку НН выполняли на повышенную мощность и располагали между обмотками СН и ВН, по точной терминологии между общей и последовательной обмотками.

Автотрансформаторы второй модификации понижающей, с буквой А впереди всех символов (как и в новых автотрансформаторах) служат для понижения напряжения, например, с 220 до 110 кВ, или для связи сетей ВН и СН. Обмотка НН в них, как и в новых автотрансформаторах, расположена у стержня, имеет пониженную мощность и несет вспомогательные функции.

Пример обозначения повышающей модификации:

ТДШТА 120000/220, понижающей АТДШТ 120000/220. (Буква Г обозначала грозоупорный, но отменена по мере внедрения ГОСТ 1167765, так как все трансформаторы и автотрансформаторы 110 кВ и выше имеют гарантированную стойкость при грозовых перенапряжениях). В эксплуатации до сих пор встречаются автотрансформаторы обеих модификаций.

 

ОСНОВНЫЕ ХАРАКТЕРИСТИКИ ТРАНСФОРМАТОРА (АВТОТРАНСФОРМАТОРА), УКАЗАННЫЕ НА ЗАВОДСКОМ ЩИТКЕ (ТАБЛИЧКЕ)

Щиток крепится к баку трансформатора, и указаны следующие параметры:

– тип трансформатора

– число фаз

– частота, Гц

– род установки (наружная или внутренняя)

– номинальная мощность, кВА, для трехобмоточных трансформаторов указывают мощность каждой обмотки

– схема и группа соединения обмоток

– напряжения на номинальной ступени и напряжения ответвлений обмоток, кВ

– номинальный ток, А

– напряжение короткого замыкания в процентах (фактически измеренное, для каждого изделия индивидуальное)

– способ охлаждения трансформатора

– полная масса трансформатора, масла и активной части трансформатора.

Маркировка трансформаторов: буквенно-цифровые обозначения

Трансформаторы уже давно нашли широкое применение в электронных и электронно-технических системах. Они зарекомендовали себя надежными устройствами в области преобразования тока и напряжения. Однако далеко не все знают, что означает та или иная маркировка трансформаторов, нанесенная на прибор. Знание условных обозначений, позволяет определить не только тип устройства, но и его основные технические характеристики.

Расшифровка буквенных символов

Основные марки трансформаторов представлены в виде буквенных обозначений и выглядят таким образом: ТМ, ТМЗ, ТСЗ, ТСЗС, ТРДНС, ТМН, ТДНС, ТДН, ТРДН, ТРДЦН.

Данные символы соответствуют следующим техническим характеристикам:

  • Т – трехфазная конструкция устройства;
  • Р – разделение обмотки низкого напряжения на две части;
  • С – сухой тип трансформатора;
  • М – наличие масляного охлаждения трансформатора, циркуляция воздуха и масло происходит естественным путем;
  • Ц – в трансформаторах этого типа циркуляция воды и масла осуществляется принудительно. Движение воды происходит по трубам, а масло течет между ними в виде ненаправленного потока.
  • МЦ – означает естественную циркуляцию воздуха в трансформаторе и принудительную циркуляцию масла с ненаправленным потоком;
  • Д – соответствует масляному трансформатору с принудительной циркуляцией масла и естественной циркуляцией воздуха;
  • ДЦ – относится к конструкции трансформатора с принудительной циркуляцией воздуха и масла в системе охлаждения;
  • Н – регулировка напряжения устройства осуществляется под нагрузкой;
  • С – если данная буква проставлена в конце маркировки, это указывает на использование трансформатора в самой электростанции.
  • З – означает герметичную модель трансформатора, в котором имеется азотная подушка и отсутствует расширитель.

Прочие символы и обозначения

В маркировке трансформаторов присутствуют и другие символы, раскрывающие дополнительные технические характеристики того или иного устройства. Например, у трансформаторов с тремя обмотками в обозначении имеется еще одна буква Т, поэтому общая маркировка выглядит как ТМТН, ТДТН или ТДЦТН. Наличие буквы А указывает на автоматический тип устройства, а символ Г означает защиту от грозы, буква О – однофазную конструкцию.

Характерными особенностями силовых трансформаторов являются их номинальная мощность, класс напряжения, применяемый в работе, конструктивные особенности, условия и режим функционирования. Для более подробной расшифровки технических характеристик конкретного устройства существуют специальные таблицы.

В настоящее время выпускаются трансформаторы, которые могут работать в различных климатических условиях. Они могут быть установлены не только в специально оборудованных помещениях, но и на открытом воздухе. Поэтому, в соответствии со своим предназначением, все устройства делятся на специальные и общего назначения. Различия в системах охлаждения позволяют классифицировать их как сухие, масляные или с использованием жидкого негорючего диэлектрика.

Номинальная мощность и класс напряжения указываются после буквенных символов через дефис. Такая маркировка трансформаторов представляет собой обыкновенную дробь, где в числителе отображается значение номинальной мощности в киловаттах, а в знаменателе – класс напряжения в киловольтах.

Например, обозначение ТМ1000/1074 У1 указывает на три фазы, две обмотки и естественное масляное охлаждение. Значение номинальной мощности составляет 1000 кВА, класс напряжения – 10 кВ. Цифровое обозначение 74 соответствует году изготовления 1974. Агрегат может использоваться в умеренном климате с возможностью установки на открытом воздухе.

Трансформаторы. Расшифровка наименований. Примеры — Всё об энергетике

Трансформаторы. Расшифровка наименований. Примеры

Наименование (а точнее, номенклатура) трансформатора, говорит о его конструктивных особенностях и параметрах. При умении читать наименование оборудования можно только по нему узнать количество обмоток и фаз силового трансформатора, тип охлаждения, номинальную мощность и напряжение высшей обмотки.

Общие рекомендации

Номенклатура трансформаторов (расшифровка буквенных и цифровых обозначений наименования) не регламентируется какими-либо нормативными документами, а всецело определяется производителем оборудования. Поэтому, если название Вашего трансформатора не поддаётся расшифровке, то обратитесь к его производителю или посмотрите паспорт изделия. Приведенные ниже расшифровки букв и цифр названия трансформаторов актуальны для отечественных изделий.

Наименование трансформатора состоит из букв и цифр, каждая из которых имеет своё значение. При расшифровке наименования следует учитывать то что некоторые из них могут отсутствовать в нём вообще (например буква «А» в наименовании обычного трансформатора), а другие являются взаимоисключающими (например, буквы «О» и «Т»).

Расшифровка наименований силовых трансформаторов

Для силовых трансформаторов приняты следующие буквенные обозначения [1, c. 238]:

Таблица 1 — Расшифровка буквенных и цифровых обозначений наименования силового трансформатора
1. АвтотрансформаторА
2. Число фаз
   ОднофазныйО
   ТрёхфазныйТ
3. С расщепленной обмоткойР
4. Охлаждение
   Сухие трансформаторы:
      естественное воздушное при открытом исполненииС
      естественное воздушное при защищенном исполненииСЗ
      естественное воздушное при герметичном исполненииСГ
      воздушное с принудительной циркуляцией воздухаСД
   Масляные трансформаторы:
      естественная циркуляция воздуха и маслаМ
      принудительная циркуляция воздуха и естественная циркуляция маслаД
      естественная циркуляция воздуха и принудительная циркуляция масла с ненаправленным потоком маслаМЦ
      естественная циркуляция воздуха и принудительная циркуляция масла с направленным потоком маслаНМЦ
      принудительная циркуляция воздуха и масла с ненаправленным потоком маслаДЦ
      принудительная циркуляция воздуха и масла с направленным потоком маслаНДЦ
      принудительная циркуляция воды и масла с ненаправленным потоком маслаЦ
      принудительная циркуляция воды и масла с направленным потоком маслаНЦ
5. ТрёхобмоточныйТ
6. Переключение ответвлений
   регулирование под нагрузкой (РПН)Н
   автоматическое регулирование под нагрузкой (АРПН)АН
7. С литой изоляциейЛ
8. Исполнение расширителя
   с расширителемФ
   без расширителя, с защитой при помощи азотной подушкиЗ
   без расширителя в гофробаке (герметичная упаковка)Г
9. С симметрирующим устройствомУ
10. Подвесного исполнения (на опоре ВЛ)П
11. Назначение
   для собственных нужд электростанцийС
   для линий постоянного токаП
   для металлургического производстваМ
   для питания погружных электронасосовПН
   для прогрева бетона или грунта (бетоногрейный), для буровых станковБ
   для питания электрооборудования экскаваторовЭ
   для термической обработки бетона и грунта, питания ручного инструмента, временного освещенияТО
   шахтные трансформаторыШ
Номинальная мощность, кВА[число]
Класс напряжения обмотки ВН, кВ[число]
Класс напряжения обмотки СН (для авто- и трёхобмоточных тр-ов), кВ[число]

Примечание: принудительная циркуляция вохдуха называется дутьем, то есть «с принудительной циркуляцией воздуха» и «с дутьем» равнозначные выражения.

Примеры расшифровки наименований силовых трансформаторов

ТМ — 100/35 — трансформатор трёхфазный масляный с естественной циркуляцией воздуха и масла, номинальной мощностью 0,1 МВА, классом напряжения 35 кВ;
ТДНС — 10000/35 — трансформатор трёхфазный с дутьем масла, регулируемый под нагрузкой для собственных нужд электростанции, номинальной мощностью 10 МВА, классом напряжения 35 кВ;
ТРДНФ — 25000/110 — трансформатор трёхфазный, с расщеплённой обмоткой, масляный с принудительной циркуляцией воздуха, регулируемый под нагрузкой, с расширителем, номинальной мощностью 25 МВА, классом напряжения 110 кВ;
АТДЦТН — 63000/220/110 — автотрансформатор трёхфазный, масляный с дутьём и принудительной циркуляцией масла, трёхобмоточный, регулируемый под нагрузкой, номинальной мощностью 63 МВА, класс ВН — 220 кВ, класс СН — 110 кВ;
АОДЦТН — 333000/750/330 — автотрансформатор однофазный, масляный с дутьём и принудительной циркуляцией масла, трёхобмоточный, регулируемый под нагрузкой, номинальной мощностью 333 МВА, класс ВН — 750 кВ, класс СН — 500 кВ.

Расшифровка наименований регулировочных (вольтодобавочных) трансформаторов

Для регулировочных трансформаторов приняты следующие сокращения [1, c.238][2, c.150]:

Таблица 2 — Расшифровка буквенных и цифровых обозначений наименования регулировочного трансформатора
1. Вольтодобавочный трансформаторВ
2. Регулировочный трансформаторР
3. Линейный регулировочныйЛ
4. ТрёхфазныйТ
5. Тип охлаждения:
   принудительная циркуляция воздуха и естественная циркуляция маслаД
   естественная циркуляция воздуха и маслаМ
6. Регулирование под нагрузкой (РПН)Н
7. Поперечное регулированиеП
8. Грозоупорное исполнениеГ
9. С усиленным вводомУ
Проходная мощность, кВА[число]
Класс напряжения обомотки возбуждения, кВ[число]
Класс напряжения регулировочной обомотки, кВ[число]
Примеры расшифровки наименований регулировочных трансформаторов

ВРТДНУ — 180000/35/35 — трансформатор вольтодобавочный, регулировочный, трёхфазный, с масляным охлаждением типа Д, регулируемый под нагрузкой, с усиленным вводом, проходной мощностью 180 МВА, номинальное напряжение обмотки возбуждения 35 кВ, номинальное напряжения регулировочной обмотки 35 кВ;
ЛТМН — 160000/10 — трансформатор линейный, трёхфазный, с естественной циркуляцией масла и воздуха, регулируемый под нагрузкой, проходной мощностью 160 МВА, номинальным линейным напряжением 10 кВ.

Расшифровка наименований трансформаторов напряжения

Для трансформаторов напряжения приняты следующие сокращения [2, c.200]:

Таблица 3 — Расшифровка буквенных и цифровых обозначений наименования трансформатора напряжения
1. Конец обмотки ВН заземляетсяЗ
2. Трансформатор напряженияН
3. Число фаз:
   ОднофазныйО
   ТрёхфазныйТ
4. Тип изоляции:
   СухаяС
   МаслянаяМ
   Литая эпоксиднаяЛ
5. Каскадный (для серии НКФ)(1,2)К
6. В фарфоровой покрышкеФ
7. С обмоткой для контроля изоляции сетиИ
8. С ёмкостным делителем (серия НДЕ)ДЕ
Номинальное напряжение(3), кВ[число]
Климатическое исполнение[число]
    Примечание:
  1. Комплектующий для серии НОСК;
  2. С компенсационной обмоткой для серии НТМК;
  3. Кроме серии НОЛ и ЗНОЛ, в которых:
    • 06 — для встраивания в закрытые токопроводы, ЗРУ и КРУ внутренней установки;
    • 08 — для ЗРУ и КРУ внутренней и наружной установки;
    • 11 — для взрывоопасных КРУ.
Примеры расшифровки наименований трансформаторов напряжения

НОСК-3-У5 — трансформатор напряжения однофазный с сухой изоляцией, комплектующий, номинальное напряжение обмотки ВН 3 кВ, климатическое исполнение — У5;
НОМ-15-77У1 — трансформатор напряжения однофазный с масляной изоляцией, номинальное напряжение обмотки ВН 15 кВ, 1977 года разработки, климатическое исполнение — У1;
ЗНОМ-15-63У2 — трансформатор напряжения с заземляемым концом обмотки ВН, однофазный с масляной изоляцией, номинальное напряжение обмотки ВН 15 кВ, 1963 года разработки, климатическое исполнение — У2;
ЗНОЛ-06-6У3 — трансформатор напряжения с заземляемым концом обмотки ВН, однофазный с литой эпоксидной изоляцией, для встраивания в закрытые токопроводы, ЗРУ и КРУ внутренней установки, климатическое исполнение — У3;
НТС-05-УХЛ4 — трансформатор напряжения трёхфазный с сухой изоляцией, номинальное напряжение обмотки ВН 0,5 кВ, климатическое исполнение — УХЛ4;
НТМК-10-71У3 — трансформатор напряжения трёхфазный с масляной изоляцией и компенсационной обмоткой, номинальное напряжение обмотки ВН 10 кВ, 1971 года разработки, климатическое исполнение — У3;
НТМИ-10-66У3 — трансформатор напряжения трёхфазный с масляной изоляцией и обмоткой для контроля изоляции сети, номинальное напряжение обмотки ВН 10 кВ, 1966 года разработки, климатическое исполнение — У3;
НКФ-110-58У1 — трансформатор напряжения каскадный в фарфоровой покрышке, номинальное напряжение обмотки ВН 110 кВ, 1958 года разработки, климатическое исполнение — У1;
НДЕ-500-72У1 — трансформатор напряжения с ёмкостным делителем, номинальное напряжение обмотки ВН 500 кВ, 1972 года разработки, климатическое исполнение — У1;

Расшифровка наименований трансформаторов тока

Для трансформаторов тока приняты следующие сокращения [2, c. 201,206-207,213]:

Таблица 4 — Расшифровка буквенных и цифровых обозначений наименования трансформатора тока
1. Трансформатор токаТ
2. В фарфоровой покрышкеФ
3. Тип:
   Встроенный(1)В
   ГенераторныйГ
   Нулевой последовательностиН
   ОдновитковыйО
   Проходной(2)П
   УсиленныйУ
   ШинныйШ
4. Исполнение обмотки:
   Звеньевого типаЗ
   U-образного типаУ
   Рымочного типаР
5. Исполнение изоляции:
   ЛитаяЛ
   МаслянаяМ
6. Воздушное охлаждение(3,4)В
7. Защита от замыкания на землю отдельных жил кабеля(5)З
8. Категория исполненияА,Б
Номинальное напряжение(6,7)[число]
Ток термической стойкости(8)[число]
Климатическое исполнение[число]
    Примечание:
  1. Для серии ТВ, ТВТ, ТВС, ТВУ;
  2. Для серии ТНП, ТНПШ — с подмагничиванием переменным током;
  3. Для серии ТШВ, ТВГ;
  4. Для ТВВГ — 24 — водяное охлаждение;
  5. Для серии ТНП, ТНПШ;
  6. Для серии ТВ, ТВТ, ТВС, ТВУ — номинальное напряжения оборудования;
  7. Для серии ТНП, ТНПШ — число обхватываемых жил кабеля;
  8. Для серии ТНП, ТНПШ — номинальное напряжение.
Примеры расшифровки наименований трансформаторов тока

ТФЗМ — 35А — У1 — трансформатор тока в фарфоровой покрышке, с обмоткой звеньевого исполнения, с масляной изоляцией, номинальным напряжением обмотки ВН 35 кВ, категории А, климатическим исполнением У1;
ТФРМ — 750М — У1 — трансформатор тока в фарфоровой покрышке, с обмоткой рымочного исполнения, с масляной изоляцией, номинальным напряжением обмотки ВН 750 кВ, климатическим исполнением У1;
ТШЛ — 10К — трансформатор тока шинный с литой изоляцией, номинальное напряжением обмотки ВН 10 кВ;
ТЛП — 10К — У3 — трансформатор тока с литой изоляцией, проходной, номинальным напряжением обмотки ВН 10 кВ, климатическое исполнение — У3;
ТПОЛ — 10 — трансформатор тока проходной, одновитковый, с литой изоляцией, номинальным напряжением обмотки ВН 10 кВ;
ТШВ — 15 — трансформатор тока шинный, с воздушным охлаждением, номинальным напряжением обмотки ВН 15 кВ;
ТВГ — 20 — I — трансформатор тока с воздушным охлаждением, генераторный, номинальным напряжением обмотки ВН 20 кВ;
ТШЛО — 20 — трансформатор тока шинный, с литой изоляцией, одновитковый, номинальным напряжением обмотки ВН 20 кВ;
ТВ — 35 — 40У2 — трансформатор тока встроенный, номинальным напряжением обмотки ВН 35 кВ, током термической стойкости 40 кА, климатическое исполнение — У2;
ТНП — 12 — трансформатор тока нулевой последовательности, с подмагничиванием переменным током, охватывающий 12 жил кабеля;
ТНПШ — 2 — 15 — трансформатор тока нулевой последовательности, с подмагничиванием переменным током, шинный, охватывающий 2 жилы кабеля, номинальным напряжением обмотки ВН 15 кВ.

Список использованных источников

  1. Справочник по проектированию электрических сетей / под ред. Д.Л. Файбисовича. — 3-е изд., перераб. и доп. — Москва: ЭНАС, 2009. — 392 с.: ил.
  2. Справочник по электрическим установкам высокого напряжения / под ред. И.А. Баумштейна, С.А. Баженова. — 3-е изд., перераб. и доп. — Москва: Энергоатомиздат, 1989. — 768 с.: ил.

Трансформатор маркировка — Провоток

Содержание статьи

Для того, чтоб иметь какое-то понятие того, для каких условий использования подойдет конкретная разновидность трансформаторов, которая распределяет ток или напряжение, или какие-либо другие виды приборов, существует определенная маркировка трансформаторов. Обозначение у оборудования отечественного производства и зарубежного отличается. На территории нашей страны наиболее востребованными являются предметы техники, при изготовлении которых использовался стандарт качества ГОСТ.

Расположена так называемая маркировка трансформаторов на щитке на корпусе, который произведен из прочного металла. Далее в статье мы более детально ознакомимся с определенным количеством наиболее распространенных разновидностей оборудования.

Знакомство с информацией

На видимой стороне представленного оборудования имеются данные, нанесение которых осуществляется одним из трех нижеперечисленных способов, таких как теснение, травление или гравировка. Каждый из представленных методов гарантирует долговечность сохранения информации. Также надпись сохраняет свою четкость на протяжении длительного периода, независимо от факторов окружающей среды и каких-либо дополнительных особенностей хранения оборудования. Информация о заводе, где было произведено оборудование, указывается на щитке, который выполнен из металла. Также там расположен год производства и заводской номер, который был присвоен оборудованию в процессе производства.

Кроме информации, которая предоставляется об производителе, в любом случае будет присутствовать информация относительно самого агрегата. Поэтому на всем оборудовании представлена номер стандарта, к которому относится само оборудование. Также обязательной для нанесения является информация о показателе номинальной мощности. Важным является наличие данных о напряжении ответвлений витков катушек.

Для каждого типа обмотки имеется определенный показатель номинального тока. Важно точно привести данные о количестве фаз для установки и частоты тока. Обязательной к предоставлению является информация о конфигурации и групп соединения катушек.

Исходя из данных, которые были приведены вашему вниманию немного выше, следует перейти к информации о трансформатор маркировка с параметрами напряжения. К установке имеются определенные требования, соблюдение которых является необходимым. Различают два типа установки трансформатора маркировка – наружную и внутреннюю.

Благодаря указанию в маркировке трансформаторов технических характеристик имеется возможность точно определиться с предполагаемым методом охлаждения оборудования, вес масла, который размещается в бачке, массу начинки, которая является активной. Возле привода переключателя имеется информация относительно его расположения. В том случае, когда в установке используется способ охлаждения сухого типа, представляются на оборудовании данные относительно мощности аппаратуры в случае отключенного вентилятора. Возле щитка в обязательном порядке выбивается заводской номер конструкции. Также эта информация имеется и на баке и возле сердечника.

Особенности трансформатор маркировка

В маркировке, которая представлена на оборудовании, данные имеется возможность разбить на несколько подгрупп. Для того, чтоб не возникало путаницы в данных, следует предварительно ознакомиться с последовательностью их указания. Для написания маркировки какого-либо прибора следует принять во внимание некоторые группы:

  • 1 группа А позволяет указывать тип, к которому относится прибор. То есть оборудование относится к силовому типу или является автотрансформатором.
  • 2 группа Т обозначает тип сети, для которой используется рассматриваемый прибор. Наиболее распространенными являются однофазная и трехфазная.
  • 3 группа ДЦ представляет собой систему охлаждения с обязательной циркуляцией масла и воздуха.
  • В 4 группе Т демонстрируется численность обмоток, которая использовалась при производстве оборудования.
  • 5 группа Н предназначена для демонстрации данных напряжения, регулировка которого осуществляется под нагрузкой.
  • 6 группа включает в себя указание всех цифр и данных, которыми характеризуется оборудование – мощность, напряжение обмоток, особенности установки и многое другое.

Если ознакомиться с информацией о каждой из вышеуказанных категорий более детально, можно существенно проще выбрать подходящее оборудование для конкретных целей.

Существующие виды трансформатор маркировка

Независимо от каких-либо особенностей оборудования маркировка трансформаторов осуществляется в обязательном порядке с разновидности аппаратуры. В том случае, когда маркировка начинается с буквы А, это обозначает, что речь идет про автотрансформатор. Если же данная буква отсутствует, то перед вами устройство, которое относится к силовому типу.

В обязательном порядке приводится численность фаз. Благодаря этому имеется возможность отдать предпочтение оборудованию, которое работает от сети бытового или промышленного типа. В том случае, если осуществляется подключение оборудования к сети трехфазного типа, в маркировке трансформаторов вы обязательно увидите букву Т. Если же речь идет про однофазные модели, они обозначаются буквой О. Преимущественно трансформатор маркировка используется в сетях бытового предназначения.

Если принимать во внимание категорию установки, возможно использование на практике каких-либо особых обозначений. У трансформаторов напряжения или тока они могут совершенно различаться. Также различие заключается в том, что оборудование бывает защитного типа и для осуществления измерения тока. Первые используются для того, чтоб замерять значения переменного тока. Трансформаторы напряжения не применяют для осуществления передачи электрического тока, который имеет большую мощность. Главную роль в маркировке трансформаторов играют их конструкционные особенности. Конструкции, которые относятся к переходному типу, например, имеют в аббревиатуре букву П. В случае ее отсутствия перед вами оборудование опорного типа.

Купить трансформатор выгодно

Если вам требуется купить электротехническое оборудование, советуем вам посмотреть продукцию, представленную в нашем интернет-магазине. У нас имеется большой ассортиментный ряд продукции, которая в полной мере соответствуют качественным стандартам ГОСТ. Оборудование, которое представлено на сайте нашей компании, прошло тщательную проверку. Оборудование полностью соответствует заявленным характеристикам, которые указаны в пособии по эксплуатации.

На продукцию, реализацией которой мы занимаемся, предоставляется гарантия от производителя. Это дает возможность владельцу обращаться в специализированные сервисные центры нашей компании для проведения технического обслуживания или ремонта. За дополнительными консультациями обращайтесь на горячую линию нашей компании.

Измерительные трансформаторы тока: назначение, устройство, схемы

Мощные электротехнические установки могут работать с напряжением несколько сот киловольт, при этом величина тока в них может достигать более десятка килоампер. Естественно, что для измерения величин такого порядка не представляется возможным использовать обычные приборы. Даже если бы таковые удалось создать, они получились бы довольно громоздкими и дорогими.

Помимо этого, при непосредственном подключении к высоковольтной сети переменного тока повышается риск поражения электротоком при обслуживании приборов. Избавиться от перечисленных проблем позволило применение измерительных трансформаторов тока (далее ИТТ), благодаря которым удалось расширить возможности измерительных устройств и обеспечить гальваническую развязку.

Назначение и устройство ИТТ

Функции данного типа трансформаторов заключаются в снижении первичного тока до приемлемого уровня, что делает возможным подключение унифицированных измерительных устройств (например, амперметров или электронных электросчетчиков), защитных систем и т.д. Помимо этого, трансформатор тока обеспечивают гальваническую развязку между высоким и низким напряжением, обеспечивая тем самым безопасность обслуживающего персонала. Это краткое описание позволяет понять, зачем нужны данные устройства. Упрощенная конструкция ИТТ представлена ниже.

Конструкция измерительного трансформатора тока

Обозначения:

  1. Первичная обмотка с определенным количеством витков (W1).
  2. Замкнутый сердечник, для изготовления которого используется электротехническая сталь.
  3. Вторичная обмотка (W2 — число витков).

Как видно из рисунка, катушка 1 с выводами L1 и L2 подключена последовательно в цепь, где производится измерение тока I1. К катушке 2 подключается приборы, позволяющие установить значение тока I2, релейная защита, система автоматики и т.д.

Основная область применения ТТ — учет расхода электроэнергии и организация систем защиты для различных электроустановок.

В измерительном трансформаторе тока обязательно наличие изоляции как между катушками, витками провода в них и магнитопроводом. Помимо этого по нормам ПУЭ и требованиям техники безопасности, необходимо заземлять вторичные цепи, что обеспечивает защиту в случае КЗ между катушками.

Получить более подробную информацию о принципе действия ТТ и их классификации, можно на нашем сайте.

Перечень основных параметров

Технические характеристики трансформатора тока описываются следующими параметрами:

  • Номинальным напряжением, как правило, в паспорте к прибору оно указано в киловольтах. Эта величина может быть от 0,66 до 1150 кВ. получит полную информацию о шкале напряжений можно в справочной литературе.
  • Номинальным током первичной катушки (I1), также указывается в паспорте. В зависимости от исполнения, данный параметр может быть в диапазоне от 1,0 до 40000,0 А.
  • Током на вторичной катушке (I2), его значение может быть 1,0 А (для ИТТ с I1 не более 4000,0 А) или 5,0 А. Под заказ могут изготавливаться устройства с I2 равным 2,0 А или 2,50 А.
  • Коэффициентом трансформации (КТ), он показывает отношение тока между первичной и вторичной катушками, что можно представить в виде формулы: КТ = I1/I2. Коэффициент, определяемый по данной формуле, принято называть действительным. Но для расчетов еще используется номинальный КТ, в этом случае формула будет иметь вид: IНОМ1/IНОМ2, то есть в данном случае оперируем не действительными, а номинальными значениями тока на первой и второй катушке.

Ниже, в качестве примера, приведена паспортная таблица модели ТТ-В.

Перечень основных параметров измерительного трансформатора тока ТТ-В

Виды конструкций измерительных трансформаторов

В зависимости от исполнения, данные устройства делятся на следующие виды:

  1. Катушечные, пример такого ТТ представлен ниже. Катушечный ИТТ

Обозначения:

  • A – Клеммная колодка вторичной обмотки.
  • В – Защитный корпус.
  • С – Контакты первичной обмотки.
  • D – Обмотка (петлевая или восьмерочная) .
  1. Стержневые, их также называют одновитковыми. В зависимости от исполнения они могут быть:
  • Встроенными, они устанавливаются на изоляторы вводы силовых трансформаторов, как показано на рисунке 4. Рисунок 4. Пример установки встроенного ТТ

Обозначения:

  • А – встроенный ТТ.
  • В – изолятор силового ввода трансформатора подстанции.
  • С – место установки ТТ (представлен в разрезе) на изоляторе. То есть, в данном случае высоковольтный ввод играет роль первичной обмотки.
  1. Шинными, это наиболее распространенная конструкция. Ее принцип строения напоминает предыдущий тип, стой лишь разницей, что в данном исполнении в качестве первичной обмотки используется токопроводящая шина или жила, которая заводится в окно ИТТ. Шинные ТТ производства Schneider Electric
  1. Разъемными. Особенность данной конструкции заключается в том, что магнитопровод ТТ может разделяться на две части, которые стягиваются между собой специальными шпильками.

Такой вариант конструкции существенно упрощает монтаж/демонтаж.

Расшифровка маркировки

Обозначение отечественных моделей интерпретируется следующим образом:

  • Первая литера в названии модели указывает на вид трансформатора, в нашем случае это будет буква «Т», указывая на принадлежность к ТТ.
  • Вторая литера указывает на особенность конструктивного исполнения, например, буква «Ш», говорит о том, что данное устройство шинное. Если указана литера «О», то это опорный ТТ.
  • Третьей литерой шифруется исполнение изоляции.
  • Цифрами указывается класс напряжения (в кВ).
  • Литера, для обозначения климатического исполнения согласно ГОСТ 15150 69
  • КТ, с указанием номинального тока первичной и вторичной обмотки.

Приведем пример расшифровки маркировки трансформатора тока.

Шильдик на ТТ с указанием его марки

Как видим, на рисунке изображена маркировка ТЛШ 10УЗ 5000/5А, это указывает на то, что перед нами трансформатор тока (первая литера Т) с литой изоляцией (Л) и шинной конструкцией (Ш). Данное устройство может использоваться в сети с напряжением до 10 кВ. Что касается исполнения, то литера «У», говорит о том, что аппарат создан для эксплуатации в умеренной климатической зоне. КТ 1000/5 А, указывает на величину номинального тока на первой и второй обмотке.

Схемы подключения

Обмотки трехфазных ТТ могут быть подключены «треугольником» или «звездой» (см. рис. 8). Первый вариант применяется в тех случаях, когда необходимо получить большую силу тока в цепи второй обмотки или требуется сдвинуть по фазе ток во вторичной катушке, относительно первичной. Второй способ подключения применяется, если необходимо отслеживать силу тока в каждой фазе.

Рисунок 8. Схема подключения трехобмоточного ТТ «звездой» и «треугольником»

При наличии изолированной нейтрали, может использоваться схема для измерения разности токов между двумя фазами (см. А на рис. 9) или подключение «неполной звездой» (B).

Рисунок 9. Схема подключения ТТ на разность двух фаз (А) и неполной звездой (В)

Когда необходимо запитать защиту от КЗ на землю, применяется схема, позволяющая суммировать токи всех фаз (см. А на рис 10.). Если к выходу такой цепи подключить реле тока, то оно не будет реагировать на КЗ между фазами, но обязательно сработает, если происходит пробой на землю.

Рис 10. Подключения: А – для суммы токов всех фаз, В и С — последовательное и параллельное включение двухобмоточных ТТ

В завершении приведем еще два примера соединения вторичных обмоток ТТ для снятия показаний с одной фазы:

Вторичные катушки включаются последовательно (В на рис. 10), благодаря этому возникает возможность измерения суммарной мощности.

Вторичные обмотки соединяются параллельно, что дает возможность понизить КТ, поскольку происходит суммирование тока в этих катушках, в то время как в линии этот показатель остается без изменений.

Выбор

При выборе трансформатора тока в первую очередь необходимо учитывать номинальное напряжение прибора было не ниже, чем в сети, где он будет установлен. Например, для трехфазной сети с напряжением 380 В можно использовать ТТ с классом напряжения 0,66 кВ, соответственно для установок более 1000 В, устанавливать такие устройства нельзя.

Помимо этого IНОМ ТТ должен быть равен или превышать максимальный ток установки, где будет эксплуатироваться прибор.

Кратко изложим и другие правила, позволяющие не ошибиться с выбором ТТ:

  • Сечение кабеля, которым будет подключаться ТТ к цепи вторичной нагрузки, не должно приводить к потерям сверх допустимой нормы (например, для класса точности 0,5 потери не должны превышать 0,25%).
  • Для систем коммерческого учета должны использоваться устройства с высоким классом точности и низким порогом погрешности.
  • Допускается установка токовых трансформаторов с завышенным КТ, при условии, что при максимальной нагрузке ток будет до 40% от номинального.

Посмотреть нормы и правила, по которым рассчитываются измерительные трансформаторы тока (в том числе и высоковольтные) можно в ПУЭ ( п.1.5.1.). Пример расчета показан на картинке ниже.

Пример расчета трансформатора тока

Что касается выбора производителя, то мы рекомендуем использовать брендовую продукцию, достоинства которой подтверждены временем, например ABB, Schneider Electric b и т.д. В этом случае можно быть уверенным, что указанные в паспорте технические данные, а методика испытаний соответствовала нормам.

Обслуживание

Необходимо обратить внимание, что при соблюдении режима и условий эксплуатации, правильно подобранных номиналах и регулярном обслуживании ТТ будет служить 30 лет и более. Для этого необходимо:

  • Обращать внимание на различные виды неисправностей, заметим, что большинство из них можно обнаружить при визуальном осмотре.
  • Производить контроль нагрузки в первичных цепях и не допускать перегрузку выше установленной нормы.
  • Необходимо отслеживать состояние контактов первичной цепи (если таковые имеются), на них должны отсутствовать внешние признаки повреждений.
  • Не менее важен контроль состояния внешней изоляции, почти в половине случаев ее стойкость нарушается из-за скопления грязи или влаги, которые закорачивают контакты на землю.
  • У масляных ТТ осуществляют проверку уровня масла, его чистоту, наличие подтеков и т.д. Обслуживание таких установок практически не сильно отличается от других силовых установок, например, емкостных трансформаторов НДЕ, разница заключается в небольших технических деталях.
  • Поверка ТТ должна проводиться согласно действующих нормативов (ГОСТ 8.217 2003).
  • При обнаружении неисправности производится замена прибора. Поврежденный ТТ отправляют в ремонт, который производится специализированными службами.

Использованная литература

  • В.В. Афанасьев «Трансформаторы тока»  1989
  • И С. Таев  «Основы теории электрических аппаратов»  1987
  • Вавин В. Н. «Трансформаторы тока» 1966
  • Кацман М. М. «Электрические машины и трансформаторы»  1971

   Трансформатор тока Т 0-66 ТШ 0-66

Предназначены для пропорционального изменения  уровня измеряемого тока и передаче сигнала измеряющему оборудовании в сетях переменного тока частотой 50 Гц и номинальным напряжением до  0,66 кВт. Измерительные трансформатор ы Т-0-66 широко используются совместно с трехфазными  счетчиками электроэнергии и щитовыми амперметрами. Поключение трансформаторов к счетчикам идет через испытательную колодку ИКК проводом ПВ 3 *2,5

Основные характеристики трансформаторов Т-0-66.

1. Максимальный уровень измеряемого тока в первичной обмотке.
2. Коэффициент трансформации– соотношения первоначального уровня измеряемого тока и уровень тока во вторичной обмотке.
3. Класс точности трансформатора- максимальная относительная погрешность при трансформации уровня измеряемого сигнала.
4. Способ подключения к проводнику 
А) путем подключения к шине или кабелю с помощью винтов —  катушечный трансформатор
Б) Трансформатор одевает на шину –шинный.
       5. Климатическое исполнение У3 – в зонах умеренного климата, в помещениях защищенных с искусственно регулируемой температурой.

     Особенности трансформатор Т-0-66

Имеют защитную пломбу в местах вывода вторичной обмотки с печатью поверяющей организации. Корпус трансформаторов выполняется из электротехнической пластмассы, по спец заказу возможно изготовление из само затухающей пластмассы.
 Катушечные трансформаторы Т-0-66 устанавливаются на заземленную поверхность  с помощью фланцевых соединений или винтов. Шинные трансформаторы ТШ-0-66 устанавливается на шине
Конструкция трансформаторов представляет собой на тороидальном магнитопроводе из электротехнической стали намотана медная эмалированная проволока и алюминиевая проволока первичной  обмотки. Сердечник обмоток пропитан электроизоляционным лаком, класс нагревостойкости  E


Расшифровка обозначений серии Т-0 66, ТШ 0-66

трансформатор Т-0,66, ТШ-0,66 ХХ/Х Х ХХ
Т трансформатор тока опроный
ТШ трансформатор тока шинный
0,66 номинальное напряжения 0,66кВ
ХХ напряжение первичной обмотки
Х напряжение вторичной обмотки
ХХ номинальная мощность
ХХ класс точности

  без буквы производство Самарского завода «Электрощит»

  М производство «ЭЛТИ», Кострома 


Вопросы и ответы по серии Т-0 66, ТШ 0-66

Сергей спрашивает:

К какому типу трансформаторов «шинному» или «опорному» относятся представленные у Вас на сайте трансформаторы Т 0,66?

Ответ технического специалиста:

Трансформаторы Т 0,66 производства Элти до номинала 200А относятся к опроным трансформаторам (шина жестко встроена в корпус), выше 200А Т 0,66 имеют универсальную конструкцию. Шина вставлена в корпус трансформатора и закреплена с помощью болта. При необходимости шина легко удаляется.

Сергей Анатольевич спрашивает:

Можно ли использовать трансфоматор тока Т 0,66 200/5,  а амперметр с Ктр=300/5, это как-то влияет на показания измерения?

Ответ технического специалиста:

Использовать то конечно можно, только амперметр будет нпоказывать неверные показания с КТР 1,5.))

Иллюстрированное руководство по трансформаторам — пошаговое объяснение | Майкл Фи

Трансформаторы штурмом захватывают мир обработки естественного языка. Эти невероятные модели бьют множество рекордов НЛП и продвигают новейшие разработки. Они используются во многих приложениях, таких как машинный перевод, разговорные чат-боты и даже для улучшения поисковых систем. Трансформаторы сейчас в моде в области глубокого обучения, но как они работают? Почему они превзошли предыдущего короля проблем последовательности, такого как рекуррентные нейронные сети, GRU и LSTM? Вы, наверное, слышали о различных известных моделях трансформеров, таких как BERT, GPT и GPT2. В этом посте мы сосредоточимся на одной статье, с которой все началось: «Внимание — это все, что вам нужно».

Перейдите по ссылке ниже, если вы хотите вместо этого посмотреть видеоверсию.

Чтобы понять трансформаторов, мы сначала должны понять механизм внимания. Механизм внимания позволяет трансформаторам иметь чрезвычайно долгую память. Модель-трансформер может «присутствовать» или «фокусироваться» на всех ранее сгенерированных токенах.

Давайте рассмотрим пример. Допустим, мы хотим написать небольшой научно-фантастический роман с генеративным преобразователем.Мы можем сделать это с помощью приложения Write With Transformer от Hugging Face. Мы заполним модель нашими входными данными, а модель сгенерирует все остальное.

Наш вклад: «Когда пришельцы вошли на нашу планету».

Выход трансформатора: «и начала колонизацию Земли, определенная группа инопланетян начала манипулировать нашим обществом через свое влияние определенного числа элиты, чтобы удерживать и железной хваткой над населением».

Хорошо, история немного мрачная, но интересно то, как модель ее сгенерировала.По мере того как модель генерирует текст слово за словом, она может «следить» или «фокусироваться» на словах, которые имеют отношение к сгенерированному слову. Способность знать, какие слова следует посещать, тоже приобретается во время обучения посредством обратного распространения ошибки.

Механизм внимания, фокусирующийся на разных токенах при генерации слов 1 на 1

Рекуррентные нейронные сети (RNN) также могут просматривать предыдущие входные данные. Но сила механизма внимания в том, что он не страдает от кратковременной памяти. У RNN более короткое окно для ссылки, поэтому, когда история становится длиннее, RNN не может получить доступ к словам, сгенерированным ранее в последовательности.Это по-прежнему верно для сетей Gated Recurrent Units (GRU) и Long-Short Term Memory (LSTM), хотя они обладают большей емкостью для достижения более долгосрочной памяти, следовательно, имеют более длительное окно для ссылки. Механизм внимания теоретически и при наличии достаточных вычислительных ресурсов имеет бесконечное окно, из которого можно ссылаться, поэтому он может использовать весь контекст истории при создании текста.

Гипотетическое справочное окно Attention, RNN, GRU и LSTM

Сила механизма внимания была продемонстрирована в статье «Внимание — это все, что вам нужно», где авторы представили новую новую нейронную сеть под названием Transformers, которая является кодировщиком на основе внимания. архитектура типа декодера.Модель преобразователя

На высоком уровне кодер преобразует входную последовательность в абстрактное непрерывное представление, которое содержит всю изученную информацию этого входа. Затем декодер принимает это непрерывное представление и шаг за шагом генерирует один вывод, одновременно получая предыдущий вывод.

Давайте рассмотрим пример. В статье модель Transformer применялась к задаче нейронного машинного перевода. В этом посте мы продемонстрируем, как это работает для разговорного чат-бота.

Наш ввод: «Привет, как дела»

Вывод трансформатора: «Я в порядке»

Первым шагом является подача ввода в слой встраивания слов. Слой встраивания слов можно рассматривать как таблицу поиска, чтобы получить изученное векторное представление каждого слова. Нейронные сети обучаются с помощью чисел, поэтому каждое слово отображается в вектор с непрерывными значениями для представления этого слова.

преобразование слов во входные вложения

Следующим шагом является введение позиционной информации во вложения.Поскольку кодировщик-преобразователь не имеет повторения, как рекуррентные нейронные сети, мы должны добавить некоторую информацию о позициях во входные вложения. Это делается с помощью позиционного кодирования. Авторы придумали хитрый трюк, используя функции sin и косинус.

Мы не будем вдаваться в математические подробности позиционного кодирования, но вот основы. Для каждого нечетного индекса входного вектора создайте вектор с помощью функции cos. Для каждого четного индекса создайте вектор с помощью функции sin.Затем добавьте эти векторы к их соответствующим входным вложениям. Это успешно дает сети информацию о положении каждого вектора. Функции sin и косинус были выбраны в тандеме, потому что они обладают линейными свойствами, которым модель может легко научиться уделять внимание.

Теперь у нас есть слой кодировщика. Задача слоев Encoders состоит в том, чтобы отобразить все входные последовательности в абстрактное непрерывное представление, которое содержит изученную информацию для всей этой последовательности. Он содержит 2 подмодуля, многоголовое внимание, за которым следует полностью подключенная сеть.Также существуют остаточные связи вокруг каждого из двух подслоев, за которыми следует нормализация уровня.

Субмодули уровня кодировщика

Чтобы разобраться в этом, давайте сначала рассмотрим модуль многоголового внимания.

Многоголовое внимание в кодировщике применяет особый механизм внимания, называемый самовниманием. Самовнимание позволяет моделям связывать каждое слово во входных данных с другими словами. Итак, в нашем примере наша модель может научиться ассоциировать слово «вы» с «как» и «есть».Также возможно, что модель узнает, что слова, структурированные по этому шаблону, обычно являются вопросом, поэтому отвечайте соответствующим образом.

Encoder Self-Attention Operations. Ссылка на это при просмотре иллюстраций ниже.

Векторы запросов, ключей и значений

Чтобы добиться самовнимания, мы передаем входные данные в 3 отдельных полностью связанных слоя для создания векторов запроса, ключа и значения.

Что именно это за векторы? Я нашел хорошее объяснение по обмену стеками, в котором говорится….

«Концепция ключа и значения запроса исходит из поисковых систем. Например, когда вы вводите запрос для поиска некоторого видео на Youtube, поисковая система сопоставляет ваш запрос с набором ключей (заголовок видео, описание и т. Д.), Связанных с видео кандидатов в базе данных, затем представим вам наиболее подходящие видео ( значения ).

Точечное произведение запроса и ключа

После подачи вектора запроса, ключа и значения через линейный слой запросы и ключи подвергаются умножению матрицы скалярного произведения для создания матрицы оценок.

Умножение скалярного произведения запроса и ключа

Матрица оценок определяет, насколько большое внимание следует уделять слову другие слова. Таким образом, каждое слово будет иметь оценку, соответствующую другим словам на временном шаге. Чем выше оценка, тем больше внимания. Вот как запросы сопоставляются с ключами.

Оценка внимания от скалярного произведения.

Уменьшение оценок внимания

Затем оценки уменьшаются путем деления на квадратный корень из измерения запроса и ключа.Это сделано для обеспечения более стабильных градиентов, так как умножение значений может иметь взрывной эффект.

Уменьшение оценок внимания

Softmax масштабированных оценок

Затем вы берете softmax масштабированной оценки, чтобы получить веса внимания, что дает вам значения вероятности от 0 до 1. Выполняя softmax, повышаются более высокие оценки, и более низкие баллы подавлены. Это позволяет модели быть более уверенной в выборе слов.

Взятие softmax масштабированных оценок для получения значений вероятности

Умножение выходных данных Softmax на вектор значений

Затем вы берете веса внимания и умножаете их на свой вектор значений, чтобы получить вектор выходных данных.Более высокие баллы softmax сохранят ценность слов, которые модель выучила более важными. Более низкие баллы заглушают неуместные слова. Затем вы передаете результат в линейный слой для обработки.

Чтобы сделать это вычисление многоголового внимания, вам необходимо разделить запрос, ключ и значение на N векторов, прежде чем применять самовнимание. Затем расщепленные векторы индивидуально проходят процесс самовнимания. Каждый процесс самовнимания называется головой. Каждая голова создает выходной вектор, который объединяется в один вектор перед прохождением последнего линейного слоя.Теоретически каждая голова будет изучать что-то свое, что дает модели кодировщика больше возможностей представления.

Разделение Q, K, V, N раз перед применением самовнимания

Подводя итог, многоголовое внимание — это модуль в трансформаторной сети, который вычисляет веса внимания для входа и создает выходной вектор с закодированной информацией о том, как каждое слово должно соответствовать всем другим словам в последовательности.

Выходной вектор многоголового внимания добавляется к исходному позиционному входному встраиванию.Это называется остаточной связью. Вывод остаточного соединения проходит через нормализацию слоя.

Остаточное соединение позиционного встраивания ввода и вывода многоголового внимания

Нормализованный остаточный вывод проецируется через точечную сеть с прямой связью для дальнейшей обработки. Точечная сеть с прямой связью представляет собой пару линейных слоев с активацией ReLU между ними. Выходной сигнал затем снова добавляется к входу точечной сети с прямой связью и далее нормализуется.

Остаточное соединение входа и выхода точечного прямого слоя.

Остаточные соединения помогают обучению сети, позволяя градиентам проходить через сети напрямую. Нормализация слоев используется для стабилизации сети, что приводит к существенному сокращению необходимого времени обучения. Слой точечной упреждающей связи используется для проецирования выходных данных внимания, потенциально давая им более богатое представление.

Это завершает слой кодировщика. Все эти операции предназначены для кодирования входных данных в непрерывное представление с информацией о внимании.Это поможет декодеру сосредоточиться на соответствующих словах во вводе во время процесса декодирования. Вы можете складывать кодер N раз для дальнейшего кодирования информации, при этом каждый уровень имеет возможность изучать различные представления внимания, что потенциально увеличивает предсказательную мощность трансформаторной сети.

Задача декодера — генерировать текстовые последовательности. Декодер имеет такой же подуровень, что и кодер. он имеет два многоголовых уровня внимания, слой с точечной прямой связью и остаточные связи, а также нормализацию уровня после каждого подуровня.Эти подуровни ведут себя аналогично уровням в кодировщике, но каждый многоглавый уровень внимания выполняет свою работу. Декодер завершается линейным слоем, который действует как классификатор, и softmax для получения вероятностей слов.

Слой декодера. Ссылка на эту диаграмму при чтении.

Декодер является авторегрессионным, он начинается со стартового токена и принимает список предыдущих выходов в качестве входов, а также выходы кодировщика, которые содержат информацию о внимании из входа.Декодер прекращает декодирование, когда генерирует токен в качестве вывода.

Декодер является авторегрессионным, так как он генерирует маркер 1 за раз, подавая его на предыдущие выходы.

Давайте пройдемся по этапам декодирования.

Начало декодера почти такое же, как и у кодировщика. Входные данные проходят через слой внедрения и слой позиционного кодирования, чтобы получить позиционные вложения. Позиционные вложения вводятся в первый слой внимания с несколькими головами, который вычисляет оценки внимания для входных данных декодера.

Этот многоглавый слой внимания работает несколько иначе. Поскольку декодер является авторегрессионным и генерирует последовательность слово за словом, вам необходимо предотвратить его преобразование в будущие токены. Например, при вычислении оценки внимания к слову «я» у вас не должно быть доступа к слову «отлично», потому что это слово является будущим словом, которое было сгенерировано после. Слово «am» должно иметь доступ только к самому себе и к словам перед ним. Это верно для всех других слов, где они могут относиться только к предыдущим словам.

Изображение первого многоголового внимания декодера по шкале оценки внимания. Слово «am» не должно иметь никакого значения для слова «штраф». Это верно для всех остальных слов.

Нам нужен метод, предотвращающий вычисление оценок внимания для будущих слов. Этот метод называется маскировкой. Чтобы декодер не смотрел на будущие токены, вы применяете маску просмотра вперед. Маска добавляется перед вычислением softmax и после масштабирования оценок. Давайте посмотрим, как это работает.

Маска упреждения

Маска — это матрица того же размера, что и оценки внимания, заполненная значениями 0 и отрицательной бесконечностью.Когда вы добавляете маску к шкале оценок внимания, вы получаете матрицу оценок, в которой верхний правый треугольник заполнен бесконечностями негатива.

Добавление маски упреждающего просмотра к масштабированным оценкам

Причина использования маски в том, что как только вы берете softmax замаскированных оценок, отрицательные бесконечности обнуляются, оставляя нулевые оценки внимания для будущих токенов. Как вы можете видеть на рисунке ниже, оценка внимания для «am» имеет значения для себя и всех слов перед ним, но равна нулю для слова «хорошо». По сути, это говорит модели не акцентировать внимание на этих словах.

Это маскирование — единственное отличие в том, как рассчитываются оценки внимания в первом многоглавом слое внимания. Этот слой по-прежнему имеет несколько головок, к которым применяется маска, прежде чем они будут объединены и пропущены через линейный слой для дальнейшей обработки. Результатом первого многоголового внимания является замаскированный выходной вектор с информацией о том, как модель должна присутствовать на входе декодера.

Многоголовое внимание с маскированием

Второй слой многоголового внимания.Для этого уровня выходными данными кодировщика являются запросы и ключи, а выходными данными первого многоголового уровня внимания являются значения. Этот процесс сопоставляет вход кодера со входом декодера, позволяя декодеру решить, на какой вход кодера следует обратить внимание. Выход второго многоголового внимания проходит через точечный слой прямой связи для дальнейшей обработки.

Выходные данные последнего поточечного слоя с прямой связью проходят через последний линейный слой, который действует как классификатор. Классификатор такой же большой, как и количество имеющихся у вас классов. Например, если у вас есть 10 000 классов для 10 000 слов, вывод этого классификатора будет иметь размер 10 000. Выходные данные классификатора затем передаются в слой softmax, который дает оценки вероятности от 0 до 1. Мы берем индекс наивысшей оценки вероятности, который равен нашему предсказанному слову.

Линейный классификатор с Softmax для получения вероятностей вывода

Затем декодер берет вывод, добавляет его в список входов декодера и снова продолжает декодирование, пока не будет предсказан токен.В нашем случае предсказание с наивысшей вероятностью — это последний класс, который назначается конечному токену.

Декодер также может быть наложен на N уровней, каждый из которых принимает входные данные от кодера и предшествующих ему слоев. Сложив слои, модель может научиться извлекать и сосредотачиваться на различных комбинациях внимания из своих головок внимания, потенциально повышая ее способность к прогнозированию.

Кодировщик и декодер с накоплением

И все! Такова механика трансформаторов.Трансформаторы используют силу механизма внимания, чтобы делать более точные прогнозы. Рекуррентные нейронные сети пытаются добиться аналогичных результатов, но потому, что страдают от кратковременной памяти. Трансформаторы могут быть лучше, особенно если вы хотите кодировать или генерировать длинные последовательности. Благодаря архитектуре преобразователя индустрия обработки естественного языка может достичь беспрецедентных результатов.

Посетите michaelphi.com, чтобы найти больше подобного контента.

Трансформеры в НЛП: объяснение для новичков

Или, как я люблю называть это «Внимание на стероидах».💉💊

Фото Арсения Тогулева на Unsplash

Нет, эта статья не про американский научно-фантастический боевик — здесь нет Оптимуса Прайма. Речь также не идет об электрическом устройстве, которое используется для передачи энергии от одной электрической цепи к другой. Вы спросите, о чем это?

Это одна из самых научно-фантастических областей всех времен, в частности, искусственный интеллект — обработка естественного языка, и она довольно оптимальна для передачи информации и широко используется. (Посмотрите, что я там сделал.: P)

Этот пост основан на статье: «Внимание — это все, что вам нужно». P.S. авторы не шутили, когда выбрали это название, потому что для этого вам понадобится все внимание, которое есть в вашем распоряжении. Но пусть это вас не пугает, оно ТАК того стоит !!

Преобразователь в NLP — это новая архитектура , которая нацелена на решение задач от последовательности к последовательности с легкостью обработки дальнодействующих зависимостей. Он полностью полагается на собственное внимание при вычислении представлений своего ввода и вывода БЕЗ с использованием выровненных по последовательности RNN или свертки.🤯

Если вы помните мой предыдущий пост «Понимание внимания в глубоком обучении», мы обсуждали, как и почему многие модели терпят неудачу, когда дело доходит до обработки дальнодействующих зависимостей. Концепция внимания в некоторой степени позволила нам преодолеть эту проблему, и теперь в Transformers мы будем опираться на внимание и раскрывать весь его потенциал.

Самовнимание

Давайте начнем с повторного рассмотрения того, какое внимание уделяется вселенной НЛП? Понимание внимания в глубоком обучении. ( Прошу прощения за эту вопиющую саморекламу, но внимательно прочтите ее.Это поможет вам намного лучше под Трансформеры. Я обещаю. )

Внимание позволило нам сосредоточиться на частях нашей входной последовательности, пока мы предсказывали нашу выходную последовательность . Если наша модель предсказала слово « rouge » [французский перевод красного цвета], мы, скорее всего, найдем высокий возраст веса для слова « red » во входной последовательности. Таким образом, внимание, в некотором смысле, позволило нам отобразить некоторую связь / корреляцию между входным словом « rouge » и выходным словом « red ».

Собственное внимание , иногда называемое внутренним вниманием, — это механизм внимания, связывающий различные позиции одной последовательности для вычисления представления последовательности.

Проще говоря, самовнимание помогает нам создавать похожие связи, но в рамках одного предложения. Посмотрите на следующий пример:

 «Я налил воду из бутылки   в чашку     до  она  была   полная  
it => чашка« Я наливал воду из бутылки в чашку, пока она не стала пустой ».
it => bottle

При изменении одного слова « full » -> « empty » объект ссылки на « it » изменился. Если мы переводим такое предложение, нам нужно знать, к чему относится слово « это ».

В модели возможны три вида внимания:

  1. Кодер-декодер Внимание : Внимание между входной и выходной последовательностями.
  2. Собственное внимание во входной последовательности : Обращает внимание на все слова во входной последовательности.
  3. Собственное внимание в выходной последовательности: Одна вещь, о которой нам следует опасаться, — это то, что сфера самовнимания ограничена словами, которые встречаются перед данным словом. Это предотвращает любые утечки информации во время обучения модели. Это делается путем маскировки слов, следующих после него, для каждого шага. Таким образом, на шаге 1 НЕ маскируется только первое слово выходной последовательности, на шаге 2 первые два слова НЕ маскируются и так далее.

Ключи, значения и запросы:

Три случайных слова, которые я только что сказал вам в этом заголовке, — это векторы, созданные как абстракции, полезные для расчета самовнимания, подробнее о каждом ниже. Они вычисляются путем умножения вашего входного вектора ( X ) на весовые матрицы, которые изучаются во время тренировки.

  • Вектор запроса : q = X * Wq. Считайте это текущим словом.
  • Вектор ключа : k = X * Wk. Думайте об этом как о механизме индексации вектора значений. Подобно тому, как у нас есть пары ключ-значение в хэш-картах, где ключи используются для однозначной индексации значений.
  • Вектор значений: v = X * Wv. Думайте об этом как об информации во входном слове.

Мы хотим взять запрос q и найти наиболее похожий ключ k , выполнив скалярное произведение для q и k . Ближайший продукт с ключом запроса будет иметь наивысшее значение, за которым следует softmax, который будет управлять q.k с меньшими значениями, близкими к 0 и q.k с большими значениями к 1. Это распределение softmax умножается на v. Векторы значений, умноженные на ~ 1, получат больше внимания, а векторы ~ 0 будут меньше. Размеры этих векторов q, k и v в различных реализациях упоминаются как « скрытый размер ».

Значения представляют собой индекс для q, k и i.

Все эти матрицы Wq, Wk и Wv изучаются во время совместного обучения во время обучения модели.

Расчет самовнимания по q, k и v:

Формула самовнимания. Источник: статья.

Если мы вычисляем собственное внимание для входного слова #i ,

  • Шаг 1: Умножьте qᵢ на ключевой вектор слова kⱼ.
  • Шаг 2: Затем разделите это произведение на квадратный корень из размерности ключевого вектора.
    Этот этап выполняется для лучшего градиентного потока , что особенно важно в случаях, когда значение скалярного произведения на предыдущем этапе слишком велико.Поскольку их использование напрямую может подтолкнуть softmax к областям с очень небольшим градиентным потоком.
  • Шаг 3: Когда у нас есть оценки для всех j s, мы пропускаем их через softmax. Получаем нормированное значение для каждого j .
  • Шаг 4: Умножьте оценки softmax для каждого j на вектор v .
    Идея / цель здесь, очень похожее внимание, сохранить только значения v входного слова (слов), на которых мы хотим сосредоточиться, умножив их на оценки высокой вероятности из softmax ~ 1, а остальные удалить на ведя их к 0, т.е.е. делая их очень маленькими, умножая их на оценки низкой вероятности ~ 0 от softmax.
Расчет результата самовнимания для i-го входного слова. Если вы ищете аналогию между самовниманием и вниманием, подумайте о z, служащем целям контекстных векторов, а не глобальных весов выравнивания.

⚠️ Предупреждение : содержимое этого изображения может показаться экспоненциально более сложным, чем оно есть на самом деле. Мы разобьем этого страшного зверя на маленьких зверюшек, и все будет иметь смысл.(Обещаю # 2)

Генерация текста на уровне символов с помощью модели кодировщика-декодера | Мурат Каракая | Учебники по глубокому обучению с Keras

При создании текста выборка означает случайный выбор следующего токена в соответствии с сгенерированным условным распределением вероятностей .

То есть, после генерации условного распределения вероятностей по набору токенов ( словарь ) для данной входной последовательности, нам нужно тщательно решить, как выбрать следующий токен ( образец ) из ​​этого распределения. .

Существует несколько методов выборки в текстовой генерации (см. Здесь и здесь):

  • Жадный поиск (максимизация)
  • Выборка температуры
  • Выборка Top-K
  • Top-P Выборка (выборка ядра)
  • Поиск по лучу

В этом руководстве мы будем кодировать жадный поиск, выборку по температуре и выборку Top-K.

Для получения дополнительной информации о сэмплировании, пожалуйста, просмотрите Part D: Sampling in Text Generation на Youtube (АНГЛИЙСКИЙ / ТУРЕЦКИЙ) или Medium.

 def softmax (z): 
return np.exp (z) / sum (np.exp (z)) def greedy_search (conditional_probability):
return (np.argmax (conditional_probability)) def temperature_sampling (conditional_probability, temperature = 1.0 ):
conditional_probability = np.asarray (conditional_probability) .astype ("float64")
conditional_probability = np.log (conditional_probability) / temperature
reweighted_conditional_probability = softmax (conditional_probability)
probas = np.webom.andom )
возврат нп.argmax (probas) def top_k_sampling (conditional_probability, k):
top_k_probabilities, top_k_indices = tf.math.top_k (conditional_probability, k = k, sorted = True)
top_k_probabilities = np.asarray (top_k_probabilities) (top_k_probabilities) (top_k_probabilities) (top_k_probabilities). top_k_probabilities = np.squeeze (top_k_probabilities)
top_k_indices = np.asarray (top_k_indices) .astype ("int32")
top_k_redistributed_probability = softmax (top_k_probabilities)
(top_k_redistributed_probabilities) (top_k_probabilities).astype ("float32")
sampled_token = np.random.choice (np.squeeze (top_k_indices), p = top_k_redistributed_probability)
return sampled_token

В этом руководстве мы будем использовать модель кодировщика-декодера для создания языковой модели персонажа. -уровневая генерация текста.

Вы можете получить доступ к деталям модели кодировщика-декодера и внимания стиля Bahdanau / Luong из моей серии руководств на YouTube (на английском или турецком языках) или Medium.

3.1 Определите модель

Поскольку мы уже подготовили обучающий набор данных, нам необходимо соответствующим образом определить входные спецификации.

Помните, что в наборе поездов

  • длина входной (X) последовательности ( sequence_length ) составляет 20 токенов (символов)
  • длина выходной (y) последовательности составляет 1 токен (char)

Уровень внимания к дизайну

Поскольку мы стремимся использовать модель кодировщика-декодера с механизмом внимания Bahdanau (аддитивный), нам нужно сначала определить этот уровень, как показано ниже.

Вы также можете использовать слой Keras AdditiveAttention, однако я предпочитаю использовать этот код.

Для получения подробной информации о модели кодировщика-декодера и обращении в стиле Bahdanau / Luong, вы можете получить доступ к серии руководств на YouTube (на английском или турецком языках) или на Medium.

 LSTMoutputDimension = 64 
class BahdanauAttention (tf.keras.layers.Layer):
def __init __ (self, units, verbose = 0):
super (BahdanauAttention, self) .__ init __ ()
self.W1 = tf.keras.layers.Dense (единицы)
self.W2 = tf.keras.layers.Dense (единицы)
self.V = tf.keras.layers.Dense (1)
self.verbose = verbose

def call (self, query, values):
if self.verbose:
print ('\ n ******* Bahdanau Attention STARTS ******')
print ('query (скрытое состояние декодера): (batch_size, скрытый размер) ', query.shape)
print (' values ​​(кодировать все скрытое состояние): (batch_size, max_len, hidden size) ', values.shape)

# запрос скрытого состояния shape == (batch_size, скрытый размер)
# query_with_time_axis shape == (batch_size, 1, hidden size)
# values ​​shape == (batch_size, max_len, hidden size)
# мы делаем это, чтобы транслировать добавление по оси времени для вычисления оценки
query_with_time_axis = tf.expand_dims (query, 1)

if self.verbose:
print ('query_with_time_axis: (batch_size, 1, hidden size)', query_with_time_axis.shape)

# score shape == (batch_size, max_length, 1)
# we получаем 1 на последней оси, потому что мы применяем score к self.V
# форма тензора перед применением self.V равна (batch_size, max_length, units)
score = self.V (tf.nn.tanh (
self .W1 (query_with_time_axis) + self.W2 (values)))
если self.verbose:
print ('score: (batch_size, max_length, 1)', score.shape)
# Внимание_weights shape == (batch_size, max_length, 1)
Внимание_weights = tf.nn.softmax (score, axis = 1)
if self.verbose:
print ('Внимание_weights: (batch_size, max_length, 1)' . )
context_vector = tf.reduce_sum (context_vector, axis = 1)
if self.verbose:
print ('context_vector after reduce_sum: (batch_size, hidden_size)', context_vector.shape)
print ('\ n ******* Bahdanau Внимание КОНЕЦ * ***** ')
return context_vector, Внимание_weights

Определение кодировщика-декодера

Теперь мы можем спроектировать модель:

  • Сначала мы предоставим параметры конвейера данных, которые мы установили до сих пор
  • Использование Keras Встраивая слой, входные токены будут преобразованы в представление более высокой размерности.
  • Используя слой Keras LSTM в качестве кодировщика, мы закодируем входную последовательность в компактное представление.
  • После инициализации уровней «Внимание» и «Декодер» декодер запускается в цикле для генерации выходных данных для заданной входной последовательности.

Для получения дополнительных сведений см. Серию руководств «Модель кодировщика-декодера » и «Внимание в стиле Bahdanau / Luong» на YouTube (на английском или турецком языках) или на Medium.

 verbose = 0 
# Просмотреть все сообщения отладки

# batch_size = 1
если подробный:
print ('***** Гиперпараметры модели *******')
print ('latentSpaceDimension:', LSTMoutputDimension )
print ('batch_size:', batch_size)
print ('Длина последовательности (n_timesteps_in):', max_features)
print ('n_features:', embedding_dim)

print ('\ n ***** РАЗМЕРЫ ТЕНСОРА * ****** ')

# Первая часть - это кодировщик
# Целочисленный ввод для индексов словаря.
encoder_inputs = tf.keras.Input (shape = (sequence_length,), dtype = "int64", name = 'encoder_inputs')
#encoder_inputs = Input (shape = (n_timesteps_in, n_features), name = 'encoder_inputs')

# Затем мы добавляем слой для отображения этих индексов словаря в пространство размерности
# 'embedding_dim'.
embedding = sizes.Embedding (max_features, embedding_dim)
embedded = embedding (encoder_inputs)

encoder_lstm = Layers.LSTM (LSTMoutputDimension, return_sequences = True, return_state = True, name = 'encoder_lstm') (встроенный)

, если подробный:
print ('Форма вывода кодировщика: (размер пакета, длина последовательности, latentSpaceDimension) {}'.format (encoder_outputs.shape))
print ('Форма скрытого состояния кодировщика: (размер пакета, latentSpaceDimension) {}'. format (encoder_state_h.shape))
print ('Форма состояния ячейки кодировщика: (размер пакета, latentSpaceDimension) {} '.format (encoder_state_c.shape))
# вектор начального контекста - это состояния кодировщика
encoder_states = [encoder_state_h, encoder_state_c]
if verbose:
print (encoder_states)
# Настроить уровень внимания
внимание = Bahdanau , verbose = verbose)

# Настроить уровни декодера
decoder_inputs = sizes.Вход (shape = (1, (embedding_dim + LSTMoutputDimension)), name = 'decoder_inputs')
decoder_lstm = Layers.LSTM (LSTMoutputDimension, return_state = True, name = 'decoder_lstm')
decoder_dense = sizes.Dense (max_features) 'softmax', name = 'decoder_dense')

all_outputs = []

# 1 исходные входные данные декодера
# Подготовить исходные входные данные декодера, которые содержат только начальный символ
# Обратите внимание, что мы сделали его постоянным одним горячим- кодируется в модели
#, то есть [1 0 0 0 0 0 0 0 0 0] является первым входом для каждого цикла
# один-горячий кодированный ноль (0) является начальным символом
входов = np.нули ((batch_size, 1, max_features))
input [:, 0, 0] = 1
# 2 начальное состояние декодера
# последнее скрытое состояние кодировщика + состояние последней ячейки
decoder_outputs = encoder_state_h
состояния = encoder_states
если подробный:
print ('initial decoder inputs:', inputs.shape)

# декодер будет обрабатывать только один временной шаг за раз.
for _ in range (1):

# 3 Обратите внимание
# создайте вектор контекста, обратив внимание на
# decoder_outputs (последнее скрытое состояние) + encoder_outputs (все скрытые состояния)
context_vector, Внимание_weights = внимание (decoder_outputs, encoder_outputs )
if verbose:
print ("Attention context_vector: (размер пакета, единицы) {}".format (context_vector.shape))
print ("Веса внимания: (размер_пакета, длина_последовательности, 1) {}". format (Внимание_weights.shape))
print ('decoder_outputs: (batch_size, latentSpaceDimension)', decoder_outputs.shape)

context_vector = tf.expand_dims (context_vector, 1)
if verbose:
print ('Reshapped context_vector:', context_vector.shape)

# 4. объединить входной + контекстный вектор, чтобы найти вход следующего декодера
inputs = tf. concat ([context_vector, tf.dtypes.cast (inputs, tf.float32)], axis = -1)

если подробный:
print ('После concat входов: (batch_size, 1, n_features + hidden_size):', inputs.shape)

# 5 . передача объединенного вектора в LSTM
# Запуск декодера на одном временном шаге с обслуживаемым вводом и предыдущими состояниями
decoder_outputs, state_h, state_c = decoder_lstm (inputs,
initial_state = states)
#decoder_outputs = tf.reshape (decoder_outputs, (- 1, decoder_outputs.shape [2]))

выходов = decoder_dense (decoder_outputs)
# 6.Использовать последнее скрытое состояние для прогнозирования вывода
# сохранить текущий прогноз
# мы объединим все прогнозы позже
output = tf.expand_dims (output, 1)
all_outputs.append (output)
# 7. Повторно ввести вывод (прогноз) ) в качестве входных данных для следующей итерации цикла
#, а также для обновления состояний
входов = выходов
состояний = [state_h, state_c]

# 8. После запуска декодера на максимальное время шагов
# мы создали список прогнозов для output sequence
# преобразовать список в выходной массив путем объединения всех прогнозов
# таких как [batch_size, timesteps, features]
decoder_outputs = sizes.Лямбда (лямбда x: K.concatenate (x, axis = 1)) (all_outputs)

# 9. Определите и скомпилируйте модель
model_encoder_decoder_Bahdanau_Attention = Model (encoder_inputs,
decoder_outputs, name = 'model_encoder 902' 956 Compiler_decoder 902 модель

Поскольку мы используем целые числа для представления выходных данных (Y), то есть; мы не используем горячее кодирование , нам нужно использовать функцию потерь sparse_categorical_crossentropy .

 model_encoder_decoder_Bahdanau_Attention.compile (optimizer = tf.keras.optimizers.RMSprop (learning_rate = 0.001), 
loss = 'sparse_categorical_crossentropy', metrics = ['precision'])

Вот краткое изложение модели. Обратите внимание, что вывод модели - (64, 1, 96) . То есть для каждого входа в пакете ( 64 ) у нас есть 1 выход , представленный 96 логитами . 96 - это размер словаря. Таким образом, модель будет предсказывать следующий токен (y) , предоставляя условные вероятности каждого токена (char) в словаре.

 model_encoder_decoder_Bahdanau_Attention.summary () Модель: "model_encoder_decoder" 
__________________________________________________________________________________________________
Слой (тип) Параметр формы вывода # Подключен к
========================== ================================================== ========================
encoder_inputs (InputLayer) [(None, 20)] 0
__________________________________________________________________________________________________
embedding (Embedding) (None, 20, 16 ) 1536 encoder_inputs [0] [0]
__________________________________________________________________________________________________
encoder_lstm (LSTM) [(Нет, 20, 64), (Нет 20736 встраивания [0] [0]
____________________________________________________________ ______________________________________
bahdanau_attention (BahdanauAtt ((Нет, 64), (Нет, 8385 encoder_lstm [0] [1]
encoder_lstm [0] [0]
__________________________________________________________________________________________________
tf.expand_dims (TFOpLambda) (Нет, 1, 64) 0 bahdanau_attention [0] [0]
__________________________________________________________________________________________________
tf.concat (TFOpLambda) (64, 1, 160) 0 tf.expand_dims [0] [0] [0]
_ ________________l___dims (0] [0]
_ ________________l________________m decoder LSTM) [(64, 64), (Нет, 64 57600 tf.concat [0] [0]
encoder_lstm [0] [1]
encoder_lstm [0] [2]
__________________________________________________________________________________________________
decoder_dense (Dense) (64, 96) ) 6240 decoder_lstm [0] [0]
__________________________________________________________________________________________________
tf.expand_dims_1 (TFOpLambda) (64, 1, 96) 0 decoder_dense [0] [0]
__________________________________________________________________________________________________
лямбда (Lambda) (64, 1, 96) 0 tf.expand_dims_1 [0] [0]
====== ================================================== ==========================================
Всего параметров: 94 497
обучаемых параметров : 94,497
Параметры без обучения: 0
__________________________________________________________________________________________________

3.3 Обучаем модель

Обучаем языковую модель для 3 эпох.

 model_encoder_decoder_Bahdanau_Attention.fit (train_ds, epochs = 3) Эпоха 1/3 
3077/3077 [=============================== =] - 114 с 26 мс / шаг - потеря: 2,7572 - точность: 0,2109
Эпоха 2/3
3077/3077 [========================= =====] - 41 с 13 мс / шаг - потеря: 2,2220 - точность: 0,3369
Эпоха 3/3
3077/3077 [===================== =========] - 41 с 13 мс / шаг - потеря: 2,0508 - точность: 0,3893

3.4 Создание модели вывода

Обученная модель кодировщика-декодера предназначена для обработки пакетов входных данных. Однако для вывода (генерации текста) нам нужно использовать эту модель только для одного образца (ввода). Поэтому ниже мы создаем модель вывода, используя слои предыдущей модели.

 # Первая часть - кодировщик 
# Целочисленный ввод для индексов словаря.
encoder_inputs = tf.keras.Input (shape = (sequence_length,), dtype = "int64", name = 'encoder_inputs')

embedded = embedding (encoder_inputs)
encoder_outputs, encoder_state_h, encoder_state_c = encoder_lstmates (встроенный кодер_lstmates)

[encoder_state_h, encoder_state_c]

all_outputs = []

входов = np.нули ((1, 1, max_features))
входов [:, 0, 0] = 1

decoder_outputs = encoder_state_h
состояния = encoder_states

context_vector, Внимание_weights = внимание (decoder_outputs, encoder_outputs)
context_outputs , 1)
входов = tf.concat ([context_vector, tf.dtypes.cast (inputs, tf.float32)], axis = -1)
decoder_outputs, state_h, state_c = decoder_lstm (inputs, initial_state = состояния)
output = decoder_dense (decoder_outputs)
выходы = tf.expand_dims (output, 1)

# 9. Определите и скомпилируйте модель
model_encoder_decoder_Bahdanau_Attention_PREDICTION = Model (encoder_inputs,
output, name = 'model_encoder_decoder')

3.5 Требуется кодирование символов в вспомогательный индекс 957Ken для преобразования символов 957 в кодировку. от заданного индекса

токена до соответствующего символа для каждого токена в сгенерированном тексте. Поэтому я готовлю функцию decode_sequence () , как показано ниже:

 def decode_sequence (encoded_sequence): 
deceoded_sequence = []
для токена в encoded_sequence:
deceoded_sequence.append (vectorize_layer.get_vocabulary () [token])
sequence = '' .join (deceoded_sequence)
print ("\ t", sequence)
return sequence

3.6 Другая вспомогательная функция для создания текста

Для создания текста с помощью различные методы выборки , я готовлю следующую функцию. Функция generate_text (model, prompt, step) принимает обученную языковую модель , подсказку и длину текста , которые должны быть сгенерированы в качестве параметров.Затем он генерирует текст с тремя различными методами выборки.

 def generate_text (model, seed_original, step): 
seed = vectorize_text (seed_original)
print («Подсказка»)
decode_sequence (seed.numpy (). Squeeze ())

seed = vectorize_text (seed_original) .numpy () .reshape (1, -1)
# Текст, созданный с помощью выборки жадного поиска
generated_greedy_search = (seed)
for i in range (step):
predictions = model.predict (seed)
next_index = greedy_search (predictions.squeeze ())
generated_greedy_search = np.append (generated_greedy_search, next_index)
seed = generated_greedy_search [-sequence_length:]. reshape (1, sequence_length)
print («Текст, сгенерированный с помощью Greedy Search Sampling, сгенерирован выборочный_выбор 911_search 902:

# Текст, созданный с помощью выборки температуры
print («Текст, созданный с помощью выборки температуры:»)
для температуры в [0,2, 0,5, 1,0, 1,2]:
print («\ ttemperature:», температура)
seed = vectorize_text (seed_original ).numpy (). reshape (1, -1)
generated_tempera = (seed)
for i in range (step):
predictions = model.predict (seed)
next_index = temperature_sampling (predictions.squeeze (), temperature)
generated_temperature = np.append (сгенерированная_температура, следующий_индекс)
seed = сгенерированная_температура [-sequence_length:]. reshape (1, sequence_length)
decode_sequence (сгенерированная_температура)

#Text Generated by Top-K Sampling
print («Текст, сгенерированный Top-K Выборка: ")
для k в [2, 3, 4, 5]:
print (" \ tTop-k: ", k)
seed = vectorize_text (seed_original).numpy (). reshape (1, -1)
generated_top_k = (seed)
for i in range (step):
predictions = model.predict (seed)
next_index = top_k_sampling (predictions.squeeze (), k)
generated_top_k = np.append (created_top_k, next_index)
seed = generated_top_k [-sequence_length:]. reshape (1, sequence_length)
decode_sequence (generated_top_k)

3.7 Сгенерировать текст

Мы можем вызвать функцию 9 generate_text () обеспечение обученного LM , подсказки и длины последовательности текста, который будет сгенерирован, как показано ниже.

Этот метод можно запускать несколько раз, чтобы просмотреть сгенерированный текст с помощью различных методов выборки.

 generate_text (model_encoder_decoder_Bahdanau_Attention_PREDICTION, 
«Кто на самом деле задает вопросы?»,
100) Приглашение:
, кто это на самом деле
Текст, созданный с помощью жадной выборки поиска:
кто это на самом деле песок и песок к песку и песок к песку и песок к песку и песку t
Текст, созданный с помощью выборки температуры:
температура: 0.2
, кто на самом деле видит песок, песок, как песок, и песок, и песок, и песок, и песок, и песок
температура: 0,5
, кто это на самом деле, что его все смотрят в кантование манд человека с температурой
и температурой
: 1,0
, кто это действительно тот, что soghe beley, andeency, в его mander tos swignction bection, и нырнул Saaunishitiojulew of arl, температура
: 1,2
, кто это на самом деле andixhatileoqhelyibredesvacabpo radfertion badil theirevon rawains
Текст, сгенерированный Top-K Выборка:
Top-k: 2
кто это на самом деле, чем некоторые и всасывать и чем души, которые нужно связывать с тем, чем видеть, что contions offrower
Top-k : 3
кто это на самом деле, чем тарагизедициарность, одиноких тонких, слабых, одних из своих кантонов и стратегов, сдержанных
Top-k: 4
, кто это действительно так, как это ценится так, как алтаи дорожат Выполнение противовоспалительной томатической индикации
Top-k: 5
Кто на самом деле является тем, кто носил один лечебный курс? Фолиант isnigaciotyincues ifmussinede whremsomic hust of thancled watis

Информация о корпусе

  • различных символов (количество словаря) : 34
  • Количество сгенерированных последовательностей: 196980
  • Максимальная длина последовательностей: 20

Обратите внимание, что этого корпуса на самом деле недостаточно для создания высококачественных текстов.Однако из-за ограничений платформы Colab (RAM и GPU) я использовал этот корпус для демонстрационных целей .

Поэтому, пожалуйста, помните об этих ограничениях при рассмотрении сгенерированных текстов.

О языковой модели

  • Мы реализуем модель кодировщика-декодера с механизмом внимания Bahdanau. В частях кодера и декодера мы используем одинарные однонаправленные слои LSTM. Таким образом, мы не ожидаем, что эта простая модель позволит создавать качественные тексты.
  • С другой стороны, вы можете попытаться улучшить эту модель, увеличивая количество слоев LSTM в частях кодера и декодера, выходное измерение уровней внедрения и LSTM и т. Д.

Greedy Search

  • Метод просто выбирает токен с наибольшей вероятностью в качестве следующего токена ( слово или символ ).
  • Однако, если мы всегда выбираем наиболее вероятное слово, цель обучения стандартной языковой модели заставляет нас застрять в циклах , как указано выше.

Выборка температуры

  • Если температура установлена ​​на очень низкие значения или 0 , то выборка температуры становится эквивалентной жадному поиску и приводит к чрезвычайно повторяющимся и предсказуемому тексту .
  • При более высоких температурах сгенерированный текст становится более случайным , интересным , удивительным , даже творческим; он может иногда изобретать совершенно новые слова ( слов с ошибками ), которые звучат как правдоподобно .

Выборка Top-k

  • В исследованиях сообщается, что выборка top-k, по-видимому, улучшает качество на , удаляя хвост и снижая вероятность выхода за рамки темы.
  • Однако в нашем случае не так много токенов , из которых мы могли бы провести выборку в разумных пределах ( широкое распространение ).
  • Таким образом, в приведенных выше примерах Top-K генерирует тексты, которые в основном выглядят случайными.
  • Следовательно, значение k следует выбирать тщательно, , с учетом размера словаря токенов.

В этом руководстве мы применяем следующие шаги для создания уровня символов создания текста:

  • загрузить корпус
  • применить конвейер данных Tensorflow
  • создать модель кодировщика-декодера
  • использует три метода выборки

В следующих частях мы увидим

, часть G : модель преобразователя для уровня символов. Генерация текста уровня

Часть I : Модель кодировщика-декодера для генерации текста на уровне слов

Часть J : Модель преобразователя для генерации текста на уровне слов

Универсальный поток - Transformers Wiki

«Эй, давайте назовем этот новый поток» Фарц.«
» Хе-хе. Прохладный."

Универсальный поток - это термин, используемый Трансцендентными техноморфами для описания определенного момента времени на временной шкале единственной вселенной / измерения / реальности внутри Мультивселенной, причем указанная точка обычно, но не всегда, обозначает точку происхождения вселенной. . Компания TransTech каталогизировала более 15 962 782 универсальных потоков (более 1176 325 из которых «подошло к концу»), сгруппировав связанные вселенные в так называемые универсальные кластеры и разработав систему классификации, используемую для присвоения каждому отдельному потоку буквенно-цифрового обозначения.

Кластеры универсальные

Существует шесть «основных» универсальных кластеров:

ВАЖНЫЙ.

Другие второстепенные кластеры включают:

НЕ СОВЕРШЕННО ЭТО ВАЖНО.
  • Fornax - непрерывное семейство Kre-O , являющееся домом для модульных трансформаторов, построенных из кирпича.
  • Iocus - кластер, по сути, состоящий из перекрывающихся аспектов других кластеров , он является домом для забытых побочных товаров, таких как Hero Mashers , Bot Shots , Construct-Bots , Battle Masters , и Attacktix , населенный ботами, функционально неотличимыми от своих собратьев в других частях мультивселенной, создавая внешний вид миров, в которых персонажи из разных вселенных существуют бок о бок.
  • Nexus - технологически продвинутый кластер, в котором находится мир Axiom Nexus TransTech .
  • Quadwal - «реальный мир», в котором Трансформеры существуют в основном как игрушки.
  • Yayayarst - постоянное семейство гоботов, родина гоботов Ботрополиса.

Кластеры в самых отдаленных уголках мультивселенной, лишь слабо связанные с Трансформаторами, включают:

НУ, МЫ НРАВИТСЯ.

Расшифровка терминологии

Для получения дополнительной информации см .: Список универсальных потоков

Имя каждого универсального потока состоит из трех частей, начиная с семейства непрерывности происхождения, числа, указывающего дату создания в «реальном мире», и греческой буквы, обозначающей форму носителя. Список греческих букв и средств массовой информации, на которые они ссылаются, предоставлен писателями Грегом Сепелаком, Трентом Трупом и Джимом Соренсоном:

  • Alpha — анимированная серия
  • Beta - технические характеристики / игрушка / только комикс («коробка»)
  • Гамма — серия комиксов.
  • Delta - анимационное изображение / живое действие
  • Epsilon - художественная литература о клубах / конвенциях В принципе, вы можете классифицировать это как вселенную, Primax 490.07-G Gamma, потому что это комикс, который Гримлок нарисовал в комиксе от 7 апреля 1990 года.

    Кто-то тоже это сделает.

  • Zeta - текстовые рассказы, сборники рассказов и другие прозаические произведения (печатные)
  • Eta - радио / аудиоцентрические вселенные, книги на магнитной ленте.
  • Theta - живое исполнение / устное слово
  • Iota - информация только для Интернета (не связана с клубом / конвенцией).
  • Kappa —игры (видео и прочие)
  • Lambda - обложки, неподвижные изображения и реклама (в наши дни так много Lambda, что Vector Prime перестала отслеживать. Ask Vector Prime, 2015/06/07)

Так, например, Primax 984.17 Alpha относится к последовательности оригинального мультфильма Transformers , при этом «Primax» относится к непрерывному семейству Generation 1, «984.17» указывает дату выхода первого эпизода 17 сентября 1984 г., а «Alpha» , обозначающий мультсериал. Используя эту информацию, мы могли бы теоретически определять имена пока еще безымянных вселенных самостоятельно - например, комикс «Decepticon Dark Commander Grand Scourge» будет называться «Primax 915».0 Гамма ».

Кроме того, знак минус в начале числа универсального потока указывает на то, что эта конкретная реальность - это вселенная отрицательной полярности , где нравы и личности большинства живых существ (особенно кибертронцев) радикально перевернуты. На данный момент было обнаружено по крайней мере восемь вселенных с отрицательной полярностью, но Вектор Прайм намекнул на существование многих других, с оговоркой, что они не так распространены, как вселенных с положительной полярностью .Спросите Вектор Прайм, 2015/05/14 Эпилог второй

В случае источников, к которым могут быть подключены идентичные потоки нескольких вселенных (например, сборники рассказов и антологии, несколько версий видеоигры или варианты обложек комиксов), к числу добавляется одно- или двухбуквенный суффикс. для указания фактического исходного материала. Например, из антологии Transformers Legends Aurex 1104.30-DB Zeta - это рассказ Дэвида Бишоффа «Одинокий дизель», а Aurex 1104.30-JH Zeta - это рассказ Джона Хелферса «Огонь в темноте».

Альтернативная терминология

Хотя TransTech использует эту систему, люди в кластерах часто этого не делают. Они могут использовать другие термины или вообще не использовать:

  • GoBots нескольких реальностей Gargent, таких как Gargent 984.08 Alpha, относятся к альтернативной реальности как «Уровень», как показано в мультфильме Challenge of the GoBots и позже в Transformers , канонизированном Renegade Rhetoric.В отличие от «потока», «уровень» может относиться ко всей временной шкале главной вселенной в дополнение ко всем ее разрозненным временным шкалам. Домашняя вселенная GoBots - это 1-й уровень, а ужасная реальность, которой правят инсектоиды королевы Экзор, - 21-й уровень. Primax 984.0 Gamma, а также его осколок Primax 207.0 Epsilon названы 22-м уровнем в «Увядшей надежде», а одна или несколько реальностей Viron названы 44-м уровнем в «Echoes and Fragments». Другие реальности или системы реальности, населенные GoBot, включают 8-й, 13-й, 17-й, 19-й, 25-й, 28-й, 30-й, 33-й и 52-й уровни.
  • Альтернатива ранее использовала термин «Мир», а Трансформеры облачного мира (Primax 514.29 Gamma) - так. Таким образом, они дублируют Primax 903.0 Beta как BT World, Primax 785.06 Alpha как OG World, Aurex 103.10 Alpha как MD World, Malgus 1207.26 Alpha как TH World, Primax 1005.19 Gamma как Crest World, Uniend 911.05 Alpha как AM World, Primax 1086.01 Alpha как CS. Мир, и еще один странный, как Flatworld.
  • Автоботы Primax 085.0 Eta называют универсальные потоки «Strata», а Gargent 087.0 Kappa - Strata 22 в «Ask Vector Prime».
  • Квинтессоны называют вселенную Менонию, Менония, как местные жители называют ее.
  • Кибертронцы, населяющие версию Axiom Nexus с отрицательной полярностью, используют усеченную версию стандартного универсального идентификатора потока. Используя эту классификацию, вселенные классифицируются как «Кибертрон- [x]», используя первую букву имени кластера, первую букву типа вселенной и год: например, исходная вселенная «Разбитое стекло» называется «Кибертрон -». PE08 ".
  • В этой терминологии не учитываются различные измерения, и их первооткрыватели дали им более описательные названия: «X-Dimension», «Limbo», «Мертвая Вселенная» и чрезвычайно описательная «Вселенная Alpha Q» среди других.

Сколько потоков?

Размеры мультивселенной огромны и неизвестны. Хотя TransTech имеет записи о шестнадцати миллионах вселенных, их, безусловно, намного больше. Когда автоботы универсального стрима Aurex 402.24 Гамма начала сканировать альтернативные реальности, когда их Оптимус Прайм потерялся в мультивселенной, они проработали 75 890 007 реальностей в дополнение к своей собственной, прежде чем найти его. Между тем, Worlds Collide, Часть 4 из 4-х мерного путешественника Bug Bite из Gargent 984.08 Alpha, утверждает, что существует более пятнадцати квадриллионов одновременных реальностей, Games of Deception, хотя Vector Prime заявила, что эта цифра включает в себя всю Вселенную. Спросите Вектор Прайм, 2015/05/21

Не пересекайте ручьи «Ха, этот парень там сказал пердит

Пространственно-временные силы, такие как TransTech, Alternity и Flaternity, а также Трансформеры облачного мира, могли волей-неволей перепрыгивать с реальностью, а Юникрон, как известно, перемещается в новые вселенные после того, как он пожирает или вытесняется из одной.Примус и Юникрон могут вырвать вас из вашей реальности и поместить в другую, а «Ритмы тьмы!», «Столкновение миров» и Война вселенной - все это включает в себя отправку одного или обоих агентов в другую реальность.

Однако для большей части мультивселенной переход из одной вселенной в другую чертовски труден. Многие никогда не вступают в контакт с другой вселенной, а те, кто это делает, могут делать это только временно и в обстоятельствах, трудно воспроизводимых. Существует специальная технология для связи одного мира с другим, как это использовали Квинтессоны с Менонией.

В конце 2015 года четырехмерное время, межпространственные путешествия и общение, даже для сверхтехнологически продвинутого TransTech, стали практически невозможными в результате космического события. О любых вселенных или потенциальных новых универсальных кластерах, созданных после этого времени, TransTech не знает, и поэтому им нет места в их базе данных.

Основные потоки

Самый важный и культовый поток из всех.

Названо около двухсот потоков, более половины из которых являются реалиями Primax.Однако среди всех известных вселенных есть девять известных «столпных» реальностей, совокупность вселенных, которые можно рассматривать как «фундаментальные», с необычно большим количеством точек ветвления и квантовых эхо. Спросите Vector Prime, 2015/11/01 Источники происхождения этих девяти вселенных:

См. Также

Банкноты

  • Кор, все это сложно, не правда ли! Это связано с тем, что изначально это была шутка о том, насколько фрагментированной была мультивселенная в 2008 году (стало только хуже!), И чтобы TransTech казался более отстраненным и чуждым.Грег "M Sipher" Сепалак, соавтор формата, уточнил, что TransTech дал вселенным "технические, неинтуитивно звучащие термины ... поскольку они на самом деле просто точки данных для них (скорее, как названия экзопланет или отдельные астероиды и т. д.), а не рассказы о персонажах ". [1]
  • После прекращения партнерства между Fun Publications и Hasbro в конце 2016 года не было опубликовано ни одной новой художественной литературы TransTech; в результате новые семейства непрерывных потоков, представленные после 2016 года, такие как Cyberverse или BotBots , не имеют художественных обозначений универсального потока и, вероятно, никогда не будут.

Список литературы

Произошла ошибка при настройке вашего пользовательского файла cookie

Этот сайт использует файлы cookie для повышения производительности. Если ваш браузер не принимает файлы cookie, вы не можете просматривать этот сайт.


Настройка вашего браузера для приема файлов cookie

Существует множество причин, по которым cookie не может быть установлен правильно. Ниже приведены наиболее частые причины:

  • В вашем браузере отключены файлы cookie. Вам необходимо сбросить настройки вашего браузера, чтобы он принимал файлы cookie, или чтобы спросить вас, хотите ли вы принимать файлы cookie.
  • Ваш браузер спрашивает вас, хотите ли вы принимать файлы cookie, и вы отказались. Чтобы принять файлы cookie с этого сайта, нажмите кнопку «Назад» и примите файлы cookie.
  • Ваш браузер не поддерживает файлы cookie. Если вы подозреваете это, попробуйте другой браузер.
  • Дата на вашем компьютере в прошлом. Если часы вашего компьютера показывают дату до 1 января 1970 г., браузер автоматически забудет файл cookie. Чтобы исправить это, установите правильное время и дату на своем компьютере.
  • Вы установили приложение, которое отслеживает или блокирует установку файлов cookie. Вы должны отключить приложение при входе в систему или проконсультироваться с системным администратором.

Почему этому сайту требуются файлы cookie?

Этот сайт использует файлы cookie для повышения производительности, запоминая, что вы вошли в систему, когда переходите со страницы на страницу. Чтобы предоставить доступ без файлов cookie потребует, чтобы сайт создавал новый сеанс для каждой посещаемой страницы, что замедляет работу системы до неприемлемого уровня.


Что сохраняется в файле cookie?

Этот сайт не хранит ничего, кроме автоматически сгенерированного идентификатора сеанса в cookie; никакая другая информация не фиксируется.

Как правило, в cookie-файлах может храниться только информация, которую вы предоставляете, или выбор, который вы делаете при посещении веб-сайта. Например, сайт не может определить ваше имя электронной почты, пока вы не введете его. Разрешение веб-сайту создавать файлы cookie не дает этому или любому другому сайту доступа к остальной части вашего компьютера, и только сайт, который создал файл cookie, может его прочитать.

Декодер даты усилителя Fender - GuitarInsite

Датировка 1951-1969

На внутренней стороне корпусов усилителей Fender, выпущенных после 1950 г. и до 1970 г., обычно имеется наклейка. Это указывает на тип используемых ламп и их расположение на шасси. Также на этой наклейке выбиты две буквы (иногда рукописные), обозначающие код даты.





С 1990 г.
Все усилители Fender, произведенные с 1990 года по настоящее время, имеют код даты, напечатанный на наклейке обеспечения качества (QA) на задняя часть шасси.На этой черно-серебряной наклейке изображены подписи или инициалы сотрудников после завершенных шумовых и электрических испытаний.
В последней строке также есть проштампованный или рукописный двухбуквенный код даты. Рукописный текст иногда бывает трудно читать (см. Изображение).
Первая буква - год, вторая - месяц.


Если наклейка QA или местоположения трубки не найдена или плохо читается, посмотрите на заднюю часть шасси с правой стороны, где выбит номер шасси.Расшифровать год постройки можно с помощью дешифратора даты. Код даты с 1951 по 1969 год и с 1990 года
Буквенный код Год выпуска Год выпуска Месяц
A 1951 1990 январь
B 1952 1991 февраль
C 1953 1992 март
D 1954 1993 апрель
E 1955 1994 май
F 1956 1995 июнь
G 1957 1996 июль
H 1958 1997 август
I 1959 1998 сентябрь
Дж 1960 1999 октябрь
K 1961- ноябрь
L 1962- декабрь
M 1963--
N 1964--
О 1965--
п. 1966--
Q 1967--
п 1968--
S 1969--

Некоторые признаки того, что вы также можете узнать год производства.
До эры CBS (до 1965 года) усилители Blackface имели маркировку Fender Electric Instrument .
Усилители Blackface с 1964 года и некоторые с начала 1965 года не имели логотипа Fender на тканевой решетке.

После приобретения Fender компанией CBS в январе 1965 года усилители получили обозначение Fender Musical Instruments .

С 1974 года к некоторым усилителям был добавлен потенциометр с реле давления.

Логотип на решетке усилителя также указывает, когда он был произведен.
Логотип с хвостом появился до 1973 года. После 1973 года логотип был бесхвостым. За редким исключением. Пока существовал приклад с логотипами на хвосте, в 1973 году они использовались случайным образом.
Усилители того года, а также, возможно, 1974 года, могут иметь новый или старый логотип.


бесхвостый (после 1973 г.) с хвостовым оперением (до 1973 г.) Было анонсировано несколько усилителей 1968 и 69 годов, в том числе Vibro Champ и Bassman, у которых также бесхвостый логотип.Однако эти логотипы сделаны из пластика и немного меньше металла.
Датировка комплектующих
Если нет наклейки или номера шасси вообще, компоненты также могут предложить решение для датировки года. конструкции усилителя.
(Предполагается, что компоненты оригинальные и не заменялись.)

Трансформатор
С помощью номера EIA (Ассоциации электронной промышленности) на трансформаторе можно определить дату производства.
Это не дата производства усилителя, потому что трансформатор уже был изготовлен раньше и возможно, какое-то время хранился на складе.


Номер EIA на трансформаторе, который Fender использовал чаще всего, начинается с 606, за которым следуют 3 или 4 цифры. 606 - производитель (Woodward-Schumacher), но также мог быть использован трансформатор другого производителя. (см. Заводские коды EIA)

Из трех цифр первая цифра является последней цифрой десятилетия 20-го века.Последние две цифры - это неделя этого года.
Первые две цифры, состоящие из 4 цифр, обозначают год 20-го века.

Пример: 606 6849 - это 49-я неделя 1968 года. Если дата изготовления трансформатора теперь известна, добавьте к дате изготовления трансформатора не менее 6 месяцев. усилитель звука. Из примера, усилитель мог быть построен в 1969 году.


Колонки и потенциометры
То, что относится к трансформатору, также относится к динамикам и потенциометрам.

Динамики
Fender использовал динамики Jensen до 1972 года.
В том же году производство Jensen было передано Роле. (Рола уже был частью Дженсена). Когда Рола начал изготавливать колонки для Дженсена в 1972 году, Рола также вначале использовал код EIA Дженсена (220). В конце 1972 года Рола изменил код на 285.

CTS
Иногда Fender использовал колонки CTS в 1960-х. С середины 1960-х до начала 1970-х годов 10-дюймовый Alnico CTS регулярно использовался в Super Reverbs.

Eminence
Eminence (основанная в 1966 году бывшим сотрудником CTS Бобом Голтом) производила динамики специально для Fender в соответствии с этими спецификациями. С начала восьмидесятых годов они были стандартными почти во всех ламповых усилителях.

Юта
Несмотря на то, что колонки Utah 50-х и 60-х годов были очень хорошего качества, Fender ими не пользовался. в тот период. Лишь в 1970-х годах эти спаекеры получили более широкое распространение.

Но не все производители динамиков работают с кодом EIA.
Например, у Celestion есть собственный метод кодирования даты, который состоит из 2 букв с 1 или 2 цифрами.
Пример: GK12 - 12 июля 1977 г.
23HA - 23 августа 1956 г. или 23 августа 1968 г.
Система датирования Celestion включена в декодер динамика.

Потенциометры
В 1950-х годах компания Fender в основном использовала потенциометры марки Stackpole (304). В середине 1963 года был сделан переход на марку CTS (137).В 1967 году Fender купил очень большую партию CTS и использовался более 5 лет. Усилители (а также гитары) 1973 года выпуска могут иметь усилитель 1967 года. потенциометры с номерами EIA со склада, закупленного в 1967 году.
(см. также Потенциометр-декодер)

Больше производителей можно найти с заводским декодером EIA, выполнив поиск по их коду EIA или в списке компонентов.

Заводские коды EIA и список компонентов


Некоторые типы усилителей Fender со схемами.

трансформаторная часть 2

Иногда внутри трансформатора создается повышенное давление из-за разложения масла. Однако GPT2 представлял собой очень большую языковую модель, основанную на преобразователе, обученную на огромном наборе данных. Трансформеры - это серия американских научно-фантастических боевиков, основанных на франшизе «Трансформеры», которая началась в 1980-х годах. Купон 6% применяется при оформлении заказа. Сэкономьте 6% с купоном. Gebruikt Verzenden. В этот сборник входят только театрально вышедшие фильмы саги о трансформерах.Часть 1: Первый трансформатор постоянного тока 1100 кВ. Как указано в стандарте IEC60076-1, используются последовательные обозначения HV-LV. 2003 - Трансформеры - Сезон 2, часть 1 2004 - Трансформеры - Коллекция 2: Серия 2.1 (Madman Entertainment) 2005 - Трансформеры - Les Dinobots - Только европейское французское аудио. Во второй части он обсуждает причины отказов трансформатора, рекомендует программу технического обслуживания и в заключение рассказывает о способах достижения максимального срока службы. Некоторые трансформаторы могут быть высотой в несколько этажей, например, трансформаторы, которые можно найти на электростанции, или достаточно малы, чтобы их можно было держать в руке, которые можно использовать с зарядной подставкой для видеокамеры.. E 2 = напряжение на клеммах (теоретическое или расчетное) на вторичной обмотке. Измерительные трансформаторы - Часть 1 (Классификация, применение, терминология) (13:00) Викторина - Измерительные трансформаторы - Измерительные трансформаторы - Часть 1 - Часть 2 (Расчетные нагрузки, расчеты) (12:00) Это первый пост в новой последовательности в в котором я просматриваю документы, концепции и сообщения в блогах, связанные с машинным обучением и согласованием с ИИ. Путаница возникает в обозначениях повышающего трансформатора. Пожалуйста, просмотрите нашу подборку трансформаторов ниже.Визуальное объяснение трансформаторов (часть 2): как это работает, шаг за шагом. Это происходит потому, что сердечник частично насыщен, а не потому, что индуктивность ниже измеренной или рассчитанной. Домашняя страница / Технические статьи / Общие сведения о векторной группе преобразователя (2) Продолжение первой части Общие сведения о векторной группе преобразователя (часть 1) Точки, которые необходимо учитывать при выборе векторной группы. 1) = -. Pretact® - Prevent: интеллектуальный мониторинг трансформатора - готов к MindSphere®. Transformers g2 autorollers 2 schaarse transformers, autorollers hasbro takara 1994 generation 2 - autorollers / decepticon uit de.Папа 2.0. Бен Грейнджер в фильме «Стартап». Этот пост был написан Нитьеш Агарвалом в сотрудничестве и при спонсорской поддержке Exxact (@Exxactcorp). Как мы узнали в Части 1, GPT-2 основан на Transformer, который провозглашается новым стандартом НЛП, заменяющим Recurrent Neural Сети. Некоторые комментаторы полагают, что Transformer станет доминирующей архитектурой глубокого обучения НЛП в 2019 году. 1. Megatron использует дизайн Transtech, разработанный Draxhall Jump. Это означает, что отсутствуют потери на трение или ветер, связанные с другими электрическими машинами.Личный блог. Потери в меди как в первичной, так и во вторичной обмотке, а также в сердечнике преобразуются в трансформатор в тепло. Трансформеры: Месть падших - это научно-фантастический фильм 2009 года, основанный на франшизе Трансформеров. Этот фильм - это настоящий фильм 2007 года, снятый в фильме Трансформеры, действующий в прямом эфире Трансформеры. Трансформаторные соединения, часть 2. Часть 4: Доставка на преобразовательную подстанцию ​​Гуцюань. Оптимус должен найти способ получить матрицу, не заразившись.Бонусное видео 2: Трансформеры: Война за Кибертрон: Осада. Майкл Бэй и Стивен Спилберг, занимающийся производством и производством в Бэй, является андермальным регистратором .. Шайа ЛаБаф спелт для Сэма… Комбинируя соотношение экв. Режиссеры Энди Ким, Рэй Ли. Случай 1: если N 2> N 1, K> 1, он называется повышающим трансформатором. Векторные группы - это метод МЭК классификации первичной и вторичной обмоток трехфазных трансформаторов. 10030943 Общая информация. По закону индукции Фарадея: = -.Артикул: TDTC200CEN Продолжительность: 60 минут. 99. Споры распространились по Галактике. AI. 2006 - Трансформеры - Полная коллекция Generation One (Metrodome) Дело 2: если N 2 Где находится Iheartradio, Здоровые рецепты с джемом, Как ответить на ваш текст Reddit, Чем сейчас занимается Марио Батали в 2020 году, Снятие ограничителя скорости электрического самоката, Субботняя ночь лихорадка полный фильм, .

0 comments on “Трансформаторы расшифровка обозначений: ТРАНСФОРМАТОРЫ. РАСШИФРОВКА НАИМЕНОВАНИЙ

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *