EA201891568A1 20190131 Номер и дата охранного документа [PDF] EAPO2019\PDF/201891568 Полный текст описания [**] EA201891568 20160715 Регистрационный номер и дата заявки EP15003698.6 20160103 Регистрационные номера и даты приоритетных заявок EP2016/066981 Номер международной заявки (PCT) WO2017/118495 20170713 Номер публикации международной заявки (PCT) EAA1 Код вида документа [PDF] eaa21901 Номер бюллетеня [**] КОДЕР СИГНАЛА, ДЕКОДЕР И СПОСОБЫ, ИСПОЛЬЗУЮЩИЕ ПРОГНОСТИЧЕСКИЕ МОДЕЛИ Название документа [8] G10L 19/04, [8] G10L 19/00, [8] H03M 7/30 Индексы МПК [BE] Фаннес Герт, [BE] Ван Дале Берт Сведения об авторах [BE] АУРО ТЕКНОЛОДЖИЗ НВ Сведения о заявителях
 

Патентная документация ЕАПВ

 
Запрос:  ea201891568a*\id

больше ...

Термины запроса в документе

Реферат

[RU]

Кодер сигнала делит сигнал на сегменты и использует прогностические модели для аппроксимации выборок каждого сегмента. Каждая локальная прогностическая модель, применимая к одному сегменту, применяется в своей собственной перенесенной системе координат в сегменте, и смещение задается последним спрогнозированным значением для предыдущего сегмента. Когда сигнал является достаточно непрерывным, снижается необходимость в параметризации смещения для каждой локальной прогностической модели, поскольку каждая локальная прогностическая модель может основываться на этом последнем спрогнозированном выборочном значении предыдущего сегмента. В результате, кодер не страдает накоплением ошибки, несмотря на то, что смещение не передается, но вместо этого используется последнее спрогнозированное значение последней выборки предыдущего сегмента. Ошибки прогнозирования получаются для аппроксимированных выборок и передаются на декодер совместно с параметрами прогностической модели и затравочным значением для обеспечения точной реконструкции сигнала декодером.


Полный текст патента

(57) Реферат / Формула:

Кодер сигнала делит сигнал на сегменты и использует прогностические модели для аппроксимации выборок каждого сегмента. Каждая локальная прогностическая модель, применимая к одному сегменту, применяется в своей собственной перенесенной системе координат в сегменте, и смещение задается последним спрогнозированным значением для предыдущего сегмента. Когда сигнал является достаточно непрерывным, снижается необходимость в параметризации смещения для каждой локальной прогностической модели, поскольку каждая локальная прогностическая модель может основываться на этом последнем спрогнозированном выборочном значении предыдущего сегмента. В результате, кодер не страдает накоплением ошибки, несмотря на то, что смещение не передается, но вместо этого используется последнее спрогнозированное значение последней выборки предыдущего сегмента. Ошибки прогнозирования получаются для аппроксимированных выборок и передаются на декодер совместно с параметрами прогностической модели и затравочным значением для обеспечения точной реконструкции сигнала декодером.


<19) J^^^ < Евразийское (2D 201891568 <13> А1
патентное ведомство
(12) ОПИСАНИЕ ИЗОБРЕТЕНИЯ К ЕВРАЗИЙСКОЙ ЗАЯВКЕ
(43) Дата публикации заявки (51) Int. Cl. G10L 19/04 (2013.01)
2019 01 31 G10L 19/00 (2013 .01)
H03M 7/30 (2006.01)
(22) Дата подачи заявки 2016.07.15
(54) КОДЕР СИГНАЛА, ДЕКОДЕР И СПОСОБЫ, ИСПОЛЬЗУЮЩИЕ ПРОГНОСТИЧЕСКИЕ МОДЕЛИ
(31) 15003698.6
(32) 2016.01.03
(33) EP
(86) PCT/EP2016/066981
(87) WO 2017/118495 2017.07.13
(71) Заявитель:
АУРО ТЕКНОЛОДЖИЗ НВ (BE)
(72) Изобретатель:
Фаннес Герт, Ван Дале Берт (BE)
(74) Представитель:
Медведев В.Н. (RU)
(57) Кодер сигнала делит сигнал на сегменты и использует прогностические модели для аппроксимации выборок каждого сегмента. Каждая локальная прогностическая модель, применимая к одному сегменту, применяется в своей собственной перенесенной системе координат в сегменте, и смещение задается последним спрогнозированным значением для предыдущего сегмента. Когда сигнал является достаточно непрерывным, снижается необходимость в параметризации смещения для каждой локальной прогностической модели, поскольку каждая локальная прогностическая модель может основываться на этом последнем спрогнозированном выборочном значении предыдущего сегмента. В результате, кодер не страдает накоплением ошибки, несмотря на то, что смещение не передается, но вместо этого используется последнее спрогнозированное значение последней выборки предыдущего сегмента. Ошибки прогнозирования получаются для аппроксимированных выборок и передаются на декодер совместно с параметрами прогностической модели и затравочным значением для обеспечения точной реконструкции сигнала декодером.
ОПИСАНИЕ ИЗОБРЕТЕНИЯ
2420-551816ЕА/019
КОДЕР СИГНАЛА, ДЕКОДЕР И СПОСОБЫ, ИСПОЛЬЗУЮЩИЕ ПРОГНОСТИЧЕСКИЕ МОДЕЛИ
Настоящее изобретение относится к кодеру сигнала, содержащему вход для приема сигнала, содержащего кадры, причем каждый кадр содержит последовательные выборки, и выход для предоставления кодированного сигнала, причем кодер сигнала дополнительно содержит сегментатор, содержащий вход для приема сигнала и выполненный с возможностью сегментирования последовательных выборок кадра на сегменты, содержащие п последовательных выборок, аппроксиматор, содержащий вход для приема сегментов от сегментатора и затравочных значений и выход для предоставления кодированного сигнала, содержащего, для каждого сегмента, набор параметров прогностической модели, на выход кодера, причем аппроксиматор выполнен с возможностью аппроксимации первого сегмента, начиная с первой затравочной выборки, имеющей первое затравочное значение, и определения первого набора параметров прогностической модели путем аппроксимации п последовательных выборок первого сегмента с использованием первой прогностической модели и затем аппроксимации второго сегмента, следующего за первым сегментом, начиная со второй затравочной выборки, имеющей второе затравочное значение, и определения второго набора параметров прогностической модели путем аппроксимации п последовательных выборок второго сегмента с использованием второй прогностической модели.
Такой кодер сигнала известен из "An application of the
piecewise autoregressive model in lossless audio coding" от
Yinghua Yang и др., Norsig 2006,
http://citeseerx.ist.psu.edu/viewdoс/download?doi=l0.1.1.330.241 3 &rep=repl &type=pdf.
Недостаток такого кодера состоит в том, что для каждого сегмента нужно получать затравочное значение, и это достигается путем прогнозирования самых первых выборок текущего кадра с
использованием выборок из предыдущего кадра. Однако это приводит к накоплению ошибки прогнозирования.
Для преодоления этого недостатка кодер отличается тем, что второе затравочное значение равно аппроксимированному значению последней выборки п первого сегмента. Каждая линейная прогностическая модель применяется в своей собственной перенесенной системе координат и смещение задается последним спрогнозированным значением последней выборки предыдущего сегмента. Если, как обычно, используется значение последней выборки предыдущего сегмента вносится нарушение непрерывности, поскольку последнее спрогнозированное значение последней выборки предыдущего сегмента немного отличается от значения последней выборки предыдущего сегмента, т.е. в каждом начале сегмента ошибка вносится в форме нарушения непрерывности, приводящего к нежелательному смещению, которое может накапливаться в ходе кодирования. Использование последнего спрогнозированного значения последней выборки предыдущего сегмента вместо значения последней выборки предыдущего сегмента оставляет эту накопленную ошибку прогнозирования под контролем.
Согласно варианту осуществления, кодер сигнала
дополнительно содержит кластеризатор параметров прогностической модели, выполненный с возможностью кластеризации параметров прогностической модели на кластеры параметров прогностической модели вокруг центров кластеризации параметров прогностической модели, причем параметры прогностической модели, подлежащие предоставлению на выход кодера сигнала для каждого сегмента, являются центрами кластеризации параметров прогностической модели, к которым параметр прогностической модели был кластеризован, соответствующими этому сегменту.
Кластеризация параметров прогностической модели эффективно квантует параметры прогностической модели в ограниченном наборе параметров прогностической модели и, таким образом, сокращает данные, поскольку сжимаемость параметров прогностической модели значительно повышается. Например, вместо передачи каждого параметра прогностической модели нужно передавать только индекс центров кластеризации параметров прогностической модели. Это
позволяет передавать и, соответственно, сохранять меньше данных.
Вариант осуществления кодера сигнала содержит аппроксиматор ошибки, выполненный с возможностью определения ошибки прогнозирования для каждой выборки, подлежащей коррекции, причем ошибка прогнозирования является разностью между выборочным значением выборки и аппроксимированным выборочным значением упомянутой выборки, и где аппроксиматор ошибки дополнительно содержит выход для предоставления ошибки прогнозирования для каждой выборки, подлежащей коррекции, на выход кодера сигнала.
Использование прогностической модели и кластеризация
параметров прогностической модели вносят ошибки в
аппроксимированное выборочное значение после реконструкции.
Поскольку эта ошибка прогнозирования известна на стороне кодера,
когда она вносится кодером, ошибка прогнозирования не может
включаться в кодированный сигнал, что позволяет декодеру
корректировать ошибку прогнозирования при реконструкции сигнала.
Хотя для передачи ошибок прогнозирования требуется
дополнительная полоса, качество реконструированного сигнала
значительно повышается. Альтернативно, ошибки прогнозирования
могут использоваться, чтобы можно было использовать менее точную
прогностическую модель при поддержании качества
реконструированного сигнала путем корректировки менее точных прогнозов.
Согласно варианту осуществления кодер сигнала содержит кластеризатор ошибки, выполненный с возможностью кластеризации ошибок прогнозирования, определенных аппроксиматором ошибки, на кластеры ошибок прогнозирования вокруг центров кластеризации ошибки, и при этом ошибка прогнозирования, подлежащая предоставлению на выход кодера сигнала для каждой выборки, подлежащей коррекции, является центром кластеризации ошибки, соответствующим ошибке прогнозирования для каждой выборки, подлежащей коррекции.
Наподобие параметров прогностической модели, ошибки прогнозирования могут сжиматься путем их кластеризации на кластеры ошибок прогнозирования, причем каждый кластер имеет центр кластеризации. Это эффективно квантует ошибки
прогнозирования с более низким разрешением, сокращая полосу, поскольку нужно передавать меньше данных.
В дополнительном варианте осуществления кодер сигнала
содержит кластеризатор ошибки, выполненный с возможностью
кластеризации ошибок прогнозирования, определенных
аппроксиматором ошибки, на кластеры ошибок прогнозирования вокруг центров кластеризации ошибки, и при этом ошибка прогнозирования, подлежащая предоставлению на выход кодера сигнала для каждой выборки, подлежащей коррекции, является индексом центра кластеризации ошибки, соответствующий ошибке прогнозирования для каждой выборки, подлежащей коррекции.
Использование индекса позволяет дополнительно снижать скорость передачи данных и, таким образом, необходимую ширину полосы. Набор центров кластеризации, который нужно передавать только один раз, после чего индекса центров в наборе центров кластеризации достаточно декодеру для выбора надлежащей ошибки прогнозирования.
В дополнительном варианте осуществления кодер сигнала является многоканальным кодером сигнала, и кластеризатор ошибки выполнен с возможностью кластеризации ошибки прогнозирования из множественных каналов в единый набор центров кластеризации ошибки.
Это позволяет использовать общий набор центров кластеризации ошибки прогнозирования для всех каналов, таким образом, повышая эффективность. Неожиданно было обнаружено, что использование общего набора центров кластеризации ошибки прогнозирования не вносит значительно больших ошибок, таким образом, позволяя реконструировать сигнал с достаточным качеством.
Декодер сигнала согласно изобретению содержит вход для приема кодированного сигнала, содержащего затравочные значения и наборы параметров прогностической модели, представляющих сегменты сигнала, выход для предоставления декодированного сигнала, причем декодер сигнала дополнительно содержит реконструктор, содержащий вход для приема затравочных значений и параметров прогностической модели от входа декодера и выход
реконструктора для предоставления реконструированных сегментов,
содержащих реконструированные выборки, причем каждая
реконструированная выборка имеет реконструированное выборочное
значение, причем реконструктор выполнен с возможностью
реконструкции первого сегмента путем вычисления
реконструированного выборочного значения (recon (1) ...гесоп (п) ) каждой реконструированной выборки первого сегмента с использованием первого затравочного значения и первого набора параметров прогностической модели и реконструкции второго сегмента, следующего за первым сегментом, путем вычисления реконструированного выборочного значения (гесоп (п+1) ...гесоп (п+п) ) каждой реконструированной выборки второго сегмента с использованием второго затравочного значения и второго набора параметров прогностической модели, секвенсор, имеющий вход секвенсора для приема первого сегмента и второго сегмента от реконструктора, причем секвенсор выполнен с возможностью построения декодированного сигнала путем присоединения реконструированных выборок второго реконструированного сегмента к реконструированным выборкам первого реконструированного сегмента и предоставления результирующего декодированного сигнала на выход декодера сигнала, причем второе затравочное значение равно последнему реконструированному выборочному значению первого сегмента.
Этот декодер сигнала использует последнее
реконструированное выборочное значение предыдущего сегмента, чтобы начать реконструкцию с использованием принятых параметров прогностической модели. Каждая линейная прогностическая модель применяется в своей собственной перенесенной системе координат и смещение определяется из последнего реконструированного значения последней выборки предыдущего сегмента. Таким образом, не нужно принимать смещение для каждой прогностической модели, таким образом, экономя на полосе и объеме хранилища.
Вариант осуществления декодера сигнала содержит компенсатор ошибки выполненный с возможностью, для каждой реконструированной выборки, добавления соответствующей ошибки прогнозирования к
реконструированному выборочному значению реконструированной выборки.
Для каждой выборки, подлежащей коррекции, которую нужно реконструировать, ошибка прогнозирования принимается и добавляется к значению выборки, реконструированной с использованием прогностической модели, определенной принятыми параметрами прогностической модели. Это повышает точность реконструированного сигнала, поскольку ошибки, вносимые аппроксимацией с использованием прогностической модели, снижаются.
Согласно варианту осуществления декодера сигнала ошибки прогнозирования, подлежащие добавлению, являются центрами кластеризации ошибки.
Ошибки прогнозирования, сжимаемые путем их кластеризации на кластеры ошибок прогнозирования, причем каждый кластер имеет центр кластеризации на стороне кодера, могут использоваться для коррекции реконструированных выборок. Это эффективно квантует ошибки прогнозирования с более низким разрешением, сокращая полосу, поскольку нужно передавать меньше данных, и одновременно дает хорошее повышение точности реконструированного сигнала, т.е. более точное совпадение реконструированного сигнала с исходным сигналом.
Согласно варианту осуществления декодера сигнала компенсатор ошибки выполнен с возможностью, для каждой реконструированной выборки, приема соответствующего индекса набора центров кластеризации ошибки от входа декодера сигнала, и когда компенсатор ошибки дополнительно выполнен с возможностью выбора центра кластеризации ошибки, подлежащего добавлению к реконструированному выборочному значению реконструированной выборки из набора центров кластеризации ошибки, указанного принятым соответствующим индексом.
Использование индекса позволяет дополнительно снижать скорость передачи данных и, таким образом, необходимую ширину полосы. Набор центров кластеризации, который нужно передавать только один раз, после чего индекса центров в наборе центров кластеризации достаточно декодеру для выбора надлежащей ошибки
прогнозирования.
Согласно варианту осуществления декодера сигнала декодер сигнала является многоканальным декодером сигнала, и компенсатор ошибки выполнен с возможностью использования одного набора центров кластеризации ошибки для множественных каналов.
Нужно принимать один-единственный набор центров кластеризации, таким образом, сокращая объем данных, подлежащих передаче, позволяя использовать более узкую полосу или сниженную скорость передачи данных.
Устройство записи согласно изобретению имеет те же преимущества, что и содержащиеся в нем кодер.
Устройство воспроизведения согласно изобретению имеет те же преимущества, что и содержащиеся в нем декодер.
Компьютерно-считываемый носитель данных согласно
изобретению использует доступное пространство хранение более эффективно, поскольку позволяет сохранять более длительный сигнал, или на одном и том же носителе данных может сохраняться больше каналов. Носитель данных может быть оптическим, магнитным или твердотельным.
Кусочная прогностическая модель описывает
дискретизированный действительнозначный зависящий от времени сигнал заданного размера (целочисленного или с плавающей точкой). Модель можно эффективно обучать из входного сигнала за один проход, и она допускает регулируемый баланс между ошибкой прогнозирования и битовой скоростью (количество битов, необходимых для передачи параметров прогностической модели, необходимых для описания модели), что делает его пригодным, например, для сжатия аудиосигнала. Поскольку сигнал делится на сегменты и обрабатывается сегмент за сегментом, ошибка прогнозирования не ухудшается с течением времени и, в зависимости от выбора класса локальной прогностической модели, параметры прогностической модели могут эффективно кодироваться методом энтропийного кодирования (например, Голомба-Райса или Хаффмана). Кусочная прогностическая модель чувствительна к ошибкам в параметрах локальной прогностической модели для каждого сегмента; это требует беспотерьного кодирования.
Кусочная прогностическая модель VVm задает отображение между {tit G [0,W -1]} И Z ИЛИ Ш/ где N _ размер кадра, количество
выборочных значений, и * представляет время: pmm-.t^Z или R, 16 [0,JV - 1]
Модель делит этот диапазон [OJN - 1] на сегменты размера п,
начиная со второго выборочного значения (^=^) . для каждого
сегмента кусочная прогностическая модель содержит локальную
прогностическую модель г 1 lpmt:t^> 7L или Ш, te [1,п]
которая применяется для генерации п выборок для
соответствующего сегмента, когда последнее значение предыдущего
сегмента:
ppm(O) = signaled)
pprn(t) = ppm(st(t)) + lpmst(t)/n(t - st(t)), t > 0.
Здесь st(fy - затравочное время для st(t) = [(t - l)/n]n, t > 0 _
Например, для n=^f затравочное время равно
5t(t) =0, te [i,3],n = з
st(t) =3, te [4,6],n = 3 st(t) =6, te [7,9],n = 3
Каждая локальная прогностическая модель, применимая к одному сегменту, применяется в своей собственной перенесенной
системе координат для ^[1'П], и смещение, заданное последним
спрогнозированным значением для предыдущего сегмента. Исходя из
того, что сигнал является достаточно непрерывным, нет
необходимости в параметризации смещения для каждой локальной
прогностической модели, поскольку каждая локальная
прогностическая модель может основываться на этом последнем спрогнозированном ppm(st(t)) предыдущего сегмента.
Квадратичная локальная прогностическая модель имеет вид
qpm(t) = at + bt f но предпочтительно параметризовать ее как qpm(t) = at + bt(t - 1)/2 _ Последнее имеет чисто фильтровую интерпретацию, где следующее значение прогнозируется как предыдущее значение, увеличенное на некоторую дельту ^.
Первоначально, эта дельта ^ задается равной а, но сама дельта
регулируется с ^ после каждого прогноза:
qpm(O) : = ppm(st), d: = а
qpm(l) = qpm(l - 1) + d, d = d + h qpm(T) = qpm(2 - 1) + d, d = d + b
qpm(i) = qpm(i - 1) + d, d = d + h
Это дает
d(t) =a+tb qpm(t) = qpm{t - 1) + d(t - 1)
t -1
= gpm(O) + ^ d(t)
i = 0 ?-1
= ppm(st) + ^ (a + ib) i = 0
t-1
= seed + at + Ь t
i = 0
= seed + at + bt(t - l)/2
который является полиномом второго порядка относительно *.
Для обучения параметров следующих прогностических моделей,
важно учитывать реконструкцию. Каждая локальная прогностическая
модель обучается для аппроксимации отображения между локальным
временем t € [1,п] и перенесенными выборками сигнала
signalit) -ppm(st(t)). сигнал переносится на ppm(st(t)) f
спрогнозированное последнее значение предыдущего сегмента, но не на соответствующее исходный значение сигнала, чтобы накопленная ошибка прогнозирования оставалась под контролем.
В частности (см. фигуру): первая выборка кадра называется
затравкой и используется для переноса следующих п выборок (^ [1'п1 ), которые используются для обучения первой локальной
прогностической модели ^Рто _ Вторая прогностическая модель ^Рт1 обучается на следующих п выборках (t € [п + 1,2п]) ^ но на Этот раз
переносится на ^PmoCn)_ зта процедура продолжается для следующих прогностических моделей и, при необходимости, применяется надлежащее заполнение для последней модели.
Заметим, что пример прогностической модели является полиномиальной функцией, и в этом случае параметры
прогностической модели являются параметрами полиномиальной функции.
Всякий раз, когда это описание относится к передаче данных, следует понимать, что оно также включают в себя хранение таких данных, как параметры прогностической модели и затравочные значения. Передача и хранение данных в равной степени пользуется настоящим изобретением, поскольку объем данных, подлежащих передаче/хранению снижается.
Иногда все выборки нуждаются в коррекции ошибок
прогнозирования, вносимых аппроксимацией в процессе
прогнозирования, но в зависимости от выборов, сделанных в процессе аппроксимации, лишь некоторые выборки нуждаются в коррекции, поскольку модель может использоваться таким образом, что, например, последняя выборка имеет пренебрежимо малую ошибку прогнозирования. Таким образом, ни ошибку прогнозирования, ни индекс центра кластеризации ошибки прогнозирования не нужно предоставлять для этой последней выборки. То же самое справедливо для первой выборки сегмента при выборе модели, точно отражающей исходную выборку. Когда прогностическая модель используется таким образом, что первая и последняя выборки сегмента точно аппроксимируются без значительных ошибок, необходимо определять и передавать только ошибки прогнозирования для оставшихся выборок сегмента. Для сегмента, имеющего 4 выборки, достигается 50%-ое снижение ошибок прогнозирования, подлежащих передаче.
Изобретение будет описано ниже со ссылкой на фигуры.
На фиг. 1 показана кусочная прогностическая модель, применяемая к сигналу.
На фиг. 2 показан кодер.
На фиг. 3 показан декодер.
На фиг. 4 показан способ кодирования.
На фиг. 5 показан способ декодирования.
На фиг. 1 показана кусочная прогностическая модель, применяемая к сигналу.
Хотя п может иметь любое значение, на фиг. 1 используется значение п=3.
Первая выборка 1 кадра называется затравкой и используется для переноса следующих п выборок (^^[1'П]), которые используются
для обучения первой локальной прогностической модели р °. Вторая прогностическая модель 'Pmi обучается на следующих п выборок ( t € [п + 1,2п]) ^ но на этот раз с использованием Фто(п) в качестве затравки. Эта процедура продолжается для следующих прогностических моделей 1рт2. Для последней модели при необходимости применяется надлежащее заполнение.
Для линейного и квадратичного классов модели, обучение
состоит в минимизации объединенной квадратичной ошибки
прогнозирования, которая соответствует аппроксимации
регрессионной модели квадратичной функцией стоимости. Кусочная прогностическая модель используется как первое приближение аудиосигнала, и его качество можно затем повысить путем добавления коррекции ошибки прогнозирования. На фиг. 2 не существует ошибки прогнозирования для первой выборки 1, поскольку не существует различия между исходной выборкой 1 и аппроксимированной выборкой 1а. Для второй и третьей выборок существует ошибка прогнозирования, как показано, поскольку существует различие в значении между исходной выборкой 2,3 и аппроксимированными выборками 2а, За. Для n=3f потребуется 3 дельты коррекции ошибки на сегмент.
Поскольку аппроксимированное значение последней выборки предыдущего сегмента используется как затравка для следующего сегмента, не будет нарушения непрерывности между сегментами в форме смещения. Можно бороться с этим смещением путем отправки коррекции смещения для каждого сегмента, но это было бы нежелательно, поскольку будет увеличивать необходимый объем сохраняемых или передаваемых данных.
Для дополнительного снижения битовой скорости, эти дельты коррекции ошибки аппроксимируются методом векторного квантования: дельты коррекции ошибки (ошибки прогнозирования) кластеризуются, и передаче подлежат только центры кластеризации. Кроме того, можно отправлять только индекс центра кластеризации
вместо самого центра кластеризации. В необязательном порядке, только кластер, подлежащий использованию на сегмент удерживаются и передаются. Кластеризация в 3 измерениях дает близкие к оптимальным результаты для любого качества аудиосигнала, благодаря чему, дополнительное ограничение используется в ходе обучения квадратичной модели: квадратичная модель требуется для аппроксимации последнего значения последней выборки сегмента, а именно:
53 : = signal (3) - seed
= qpm(3)
= За + 3b
что дает
а = 53/3 - b
На фиг. 1 показано, что последняя аппроксимированная выборка 4а первого сегмента segO и последняя аппроксимированная выборка 7а второго сегмента segl равны их соответственно соответствующим исходным последним выборкам 4, 7.
Эта точная аппроксимация имеет дополнительное преимущество в том, что не требуется передавать ошибку прогнозирования для этой последней выборки, что снижает требования к полосе только 2 из трех выборок, необходимых для передачи ошибки прогнозирования.
Ниже смещение seed будет исключено из формул. Тогда квадратичная ошибка приобретает вид:
error = (qpm(l) - S,)2 + (qpm(2) - 52)2 4- (qpm(3) - 53)2 = (a - Sj)2 + (2a + b - S2f + (0)2 = (53/3 -b- 5j)2 + (253/3 - 2Ы- b - 52)2 + (0)2 = (b + Sj - 53/3)2 + (b + S2- 253/3)2
и его минимум находится, когда производная по ^ оказывается равной 0:
derror db
О =2(fc + S1-53/3) + 2(b + S2-2S3/3)
О =b + S1- S3/3 + b + S2- 253/3
О =2b + S1 + S2-S3
Это дает
а = S3/3 - b
b = ( - 5X - S2 + 53)/2 или
signal (3) - signal (2) signal (1) - seed
Ь = 2 2
В последней формуле коэффициент ^ обозначает разность разностей, которая соответствует ее квадратичной интерпретации.
Модель полностью описана затравочным значением и параметрами модели для прогностических моделей. Для дополнительного ограничения битовой скорости, параметры полиномиальных моделей (также часто именуемые коэффициентами полиномиальной модели) можно аппроксимировать значениями из множества [х\х = sk,k & Z} / где масштабный коэффициент 5 регулирует точность квантования аппроксимации. Таким образом, масштабный коэффициент s нужно описывать один раз (поскольку он принят
постоянным на протяжении кадра) совместно с разными значениями ^, соответствующими разным параметрам модели. Заметим, что спрогнозированное значение подлежит использованию совместно с
этими аппроксимированными коэффициентами s^ в вышеописанной процедуре обучения, чтобы можно было гарантировать, что реконструкция не страдает накопленной ошибкой. На фиг. 2 показан кодер.
Кодер 2 0 сигнала содержит вход 2 0а для приема сигнала, содержащего кадры, причем каждый кадр содержит последовательные выборки, и выход 2 0Ь для предоставления кодированного сигнала, причем кодер 2 0 сигнала дополнительно содержит сегментатор 23, содержащий вход 23а для приема сигнала, и выполнен с возможностью сегментирования последовательных выборок кадра на сегменты, содержащие п последовательных выборок, и аппроксиматор 24, содержащий вход 24а для приема сегментов от сегментатора 23 и затравочных значений и выход 2 4Ь для предоставления кодированного сигнала, содержащего, для каждого сегмента, набор параметров прогностической модели, на выход 20Ь кодера 20, причем аппроксиматор 2 4 выполнен с возможностью аппроксимации первого сегмента, начиная с первой затравочной выборки, имеющей первое затравочное значение, и определения первого набора
параметров прогностической модели путем аппроксимации п последовательных выборок первого сегмента с использованием первой прогностической модели и затем аппроксимации второго сегмента, следующего за первым сегментом, начиная со второй затравочной выборки, имеющей второе затравочное значение, и определения второго набора параметров прогностической модели путем аппроксимации п последовательных выборок второго сегмента с использованием второй прогностической модели, причем второе затравочное значение равно аппроксимированному значению последней выборки п первого сегмента.
Следует отметить, что на фиг. 2 показан необязательный объединитель 26. В случае, когда ошибки прогнозирования не подлежат предоставлению на выход 2 Ob кодера 20, выход 2 4Ь аппроксиматора 2 4 может быть непосредственно подключен к выходу 20Ь кодера 20, таким образом, без участия объединителя 26.
Если же ошибки прогнозирования подлежат использованию, чтобы декодер снижал ошибки прогнозирования в ходе реконструкции сигнала, кодер содержит аппроксиматор 25 ошибки, выполненный с возможностью определения ошибки прогнозирования для каждой выборки, подлежащей коррекции, причем ошибка прогнозирования является разностью между выборочным значением выборки, принятым от сегментатора 2 3 через первый вход 2 5а аппроксиматора ошибки и аппроксимированным выборочным значением упомянутой выборки, принятым от аппроксиматора 2 4 через второй вход 2 5Ь аппроксиматор ошибки, и где аппроксиматор ошибки дополнительно содержит выход 2 5с для предоставления ошибки прогнозирования для каждой выборки, подлежащей коррекции, на выход кодера сигнала или на объединитель 2 6, который затем объединяет параметры прогностической модели, принятые от аппроксиматора 24, с ошибкой прогнозирования, принятой от аппроксиматора 25 ошибки.
В случае, когда кодер сигнала выполнен с возможностью
дополнительного снижения объема данных, подлежащих передаче,
путем сжатия ошибок прогнозирования, кодер сигнала содержит
кластеризатор 2 8 ошибки, выполненный с возможностью
кластеризации ошибок прогнозирования, определенных
аппроксиматором 2 5 ошибки на кластеры ошибок прогнозирования
вокруг центров кластеризации ошибки, и при этом ошибка
прогнозирования, подлежащая предоставлению на выход 2 Ob кодера
сигнала или объединитель 2 6 для каждой выборки, подлежащей
коррекции, является центром кластеризации ошибки,
соответствующим ошибке прогнозирования для каждой выборки, подлежащей коррекции.
Кластеризатор 2 8 ошибки может быть, в необязательном порядке, выполнен с возможностью кластеризации ошибок прогнозирования, определенных аппроксиматором ошибки, на кластеры ошибок прогнозирования вокруг центров кластеризации ошибки и предоставления индекса центра кластеризации ошибки, соответствующий ошибке прогнозирования для каждой выборки, подлежащей коррекции, на выход кодера сигнала для каждой выборки, подлежащей коррекции.
В случае, когда кодер сигнала является многоканальным кодером сигнала, и кластеризатор 2 8 ошибки могут совместно использоваться между множественными кодерами (кодерами для каждого канала) или единый кодер может параллельно кодировать множественные каналы. Благодаря совместному использованию кластеризатора 2 8 ошибки не только требуется один-единственный кластеризатор ошибки, но и ошибки прогнозирования из множественных каналов можно кластеризовать в единый набор центров кластеризации ошибки, и индексы, соответствующие аппроксимированным выборкам для всех каналов, относятся к единому набору центров кластеризации ошибки, таким образом, также снижая сложность на стороне декодера.
Альтернативно или параллельно, кодер сигнала может
содержать кластеризатор 2 9 параметров прогностической модели,
выполненный с возможностью кластеризации параметров
прогностической модели, принятых от аппроксиматора 24, на
кластеры параметров прогностической модели вокруг центров
кластеризации параметров прогностической модели, и центры
кластеризации параметров прогностической модели, к которым
параметр прогностической модели был кластеризован,
соответствующие этим сегментам, подлежат предоставлению на выход 2Ob или объединитель 2 6 кодера 2 0 сигнала для каждого сегмента.
В этом случае параметры прогностической модели не предоставляются на выход 2 Ob или объединитель 2 6 и только пунктирные элементы соединяют аппроксиматор 2 4 с выходом 2 Ob или объединителем 26.
На фиг. 3 показан декодер.
Декодер 3 0 сигнала содержит вход 3 0а для приема
кодированного сигнала, содержащего затравочные значения и наборы
параметров прогностической модели, представляющих сегменты
сигнала, и выход ЗОЬ для предоставления декодированного сигнала.
Декодер 30 сигнала дополнительно содержит реконструктор 34,
содержащий вход 34а для приема затравочных значений и параметров
прогностической модели от входа декодера 30а, и выход
реконструктора 34Ь для предоставления реконструированных
сегментов, содержащих реконструированные выборки, причем каждая
реконструированная выборка имеет реконструированное выборочное
значение, причем реконструктор выполнен с возможностью
реконструкции первого сегмента путем вычисления
реконструированного выборочного значения (гесоп (1) ...гесоп (п) ) каждой реконструированной выборки первого сегмента с использованием первого затравочного значения и первого набора параметров прогностической модели и реконструкции второго сегмента, следующего за первым сегментом, путем вычисления реконструированного выборочного значения (гесоп (п+1) ...гесоп (п+п) ) каждой реконструированной выборки второго сегмента с использованием второго затравочного значения и второго набора параметров прогностической модели, и секвенсор 3 6 имеющий вход секвенсора для приема первого сегмента и второго сегмента от реконструктора 34, причем секвенсор 3 6 выполнен с возможностью построения декодированного сигнала путем присоединения реконструированных выборок второго реконструированного сегмента к реконструированным выборкам первого реконструированного сегмента и предоставления результирующего декодированного сигнала на выход ЗОЬ декодера 30 сигнала, причем второе затравочное значение равно последнему реконструированному выборочному значению первого сегмента.
Для повышения точности сигнала декодер сигнала может содержать компенсатор 35 ошибки, выполненный с возможностью, для каждой реконструированной выборки, подлежащей коррекции, добавления соответствующей ошибки прогнозирования, принятой от входа 3 0а декодера 3 0 сигнала к реконструированному выборочному значению реконструированной выборки. Для этого компенсатор 35 ошибки принимает ошибку прогнозирования через первый вход 35а от входа 30а декодера 30 сигнала, и через второй вход 35Ь соответствующие реконструированные выборки в сегментах от реконструктора 34. После добавления соответствующих ошибок прогнозирования к реконструированным выборкам компенсатор 2 5 ошибки предоставляет выборки с компенсацией ошибки в сегментах на секвенсор 36. Следует отметить, что на фиг. 3 показан секвенсор, принимающий реконструированные выборки от реконструктора 34 и выборки с компенсацией ошибки от компенсатора 35 ошибки, но фактически предоставляется только один из них, поскольку они являются разными вариантами осуществления, поскольку компенсатор ошибки является необязательным.
Если выборки с компенсацией ошибки принимаются от компенсатора 35 ошибки реконструированные выборки не нужны, поскольку они имеют более низкую точность сигнала.
В необязательном порядке, ошибки прогнозирования, подлежащие добавлению, являются центрами кластеризации ошибки. Для этого компенсатор ошибки подключен к памяти 38, где хранятся центры кластеризации ошибки. Когда компенсатор ошибки принимает индекс, указывающий центр кластеризации ошибки в памяти 38, он извлекает значение центра кластеризации, соответствующее этому индексу, из набора центров кластеризации ошибки в памяти и добавляет его к реконструированной выборке, подлежащей коррекции, которой соответствует индекс.
В случае, когда декодер сигнала является многоканальным декодером сигнала, компенсатор 35 ошибки и необязательная память 38 могут совместно использоваться множественными кодерами, каждый из которых обрабатывает отдельный канал, или единый декодер параллельно обрабатывает множественные каналы. Это
снижает необходимость в множественных компенсаторах ошибки, снижая стоимость и сложность декодера 30. На фиг. 4 показан способ кодирования.
Способ кодирования кодирует сигнал, содержащий кадры, причем каждый кадр содержит последовательные выборки в кодированный сигнал.
На первом этапе 4 0 последовательные выборки кадра сегментируются на сегменты, содержащие п последовательных выборок.
Затем, на втором этапе 41, выборки первого сегмента аппроксимируются с использованием прогностической модели, начиная с первой затравочной выборки, имеющей первое затравочное значение. Результатом этой аппроксимация является первый набор параметров прогностической модели, полученный нахождением параметров прогностической модели, которые наилучшим образом прогнозируют п последовательных выборок первого сегмента с использованием первой прогностической модели.
Затем, на третьем этапе 42, прогнозируются выборки второго сегмента, но в этом случае, начиная со второй затравочной выборки, имеющей второе затравочное значение, равное спрогнозированному значению последней выборки первого сегмента, полученному на втором этапе 41. Таким образом, второй набор параметров прогностической модели получается нахождением тех параметров прогностической модели, которые приводят к наилучшему прогнозированию п последовательных выборок второго сегмента с использованием второй прогностической модели.
Заметим, что спрогнозированное значение подлежит использованию совместно с этими аппроксимированными параметрами
модели s^ на вышеупомянутом этапе 42, чтобы можно было гарантировать, что реконструкция не страдает накопленной ошибкой.
На четвертом этапе 43 кодированный сигнал строится согласно заранее заданному формату, содержащему затравочные значения, и параметры прогностической модели предоставляются на выход кодера, для передачи или сохранению.
Между третьим этапом 42 и четвертым этапом 43 может быть включен необязательный этап кластеризации параметров прогностической модели на кластеры параметров прогностической модели вокруг центров кластеризации параметров прогностической модели, причем параметры прогностической модели, подлежащие включению в кодированный сигнал для каждого сегмента, являются центрами кластеризации параметров прогностической модели, к которым параметр прогностической модели был кластеризован, соответствующими этому сегменту. Поскольку параметры прогностической модели, полученные на втором этапе 41 и третьем этапе 42 доступны в этот момент, их можно кластеризовать вокруг центров кластеризации, и эти центры кластеризации можно использовать для представления ошибок прогнозирования, что позволяет сокращать объем данных.
Между третьим этапом 42 и четвертым этапом 43 может быть включен еще один необязательный этап определения ошибки прогнозирования для каждой выборки, подлежащей коррекции, причем ошибка прогнозирования является разностью между выборочным значением выборки и спрогнозированным выборочным значением упомянутой выборки, и предоставления ошибки прогнозирования для каждой выборки, подлежащей коррекции, для включения в кодированный сигнал.
Поскольку в этот момент в процессе доступны исходные выборки и спрогнозированные/аппроксимированные выборки, разность между ними, ошибка прогнозирования, может определяться и предоставляться четвертому этапу 43, на котором кодированный сигнал строится согласно заранее заданному формату, содержащему затравочные значения, параметры прогностической модели и ошибки прогнозирования.
Дополнительный этап определения ошибки прогнозирования для каждой выборки, подлежащей коррекции, можно дополнительно улучшать путем кластеризации ошибок прогнозирования на кластеры ошибок прогнозирования вокруг центров кластеризации ошибки и предоставлять для каждой выборки, подлежащей коррекции, центр кластеризации ошибки прогнозирования или индекс этого центра кластеризации ошибки прогнозирования, соответствующий ошибке
прогнозирования для каждой выборки, подлежащей коррекции, для включения в кодированный сигнал.
На фиг. 5 показан способ декодирования.
Способ декодирования декодирует кодированный сигнал, содержащий затравочные значения и наборы параметров прогностической модели, представляющих сегменты кодированного сигнала.
На первом этапе 50 первый сегмент реконструируется путем
вычисления реконструированного выборочного значения
(гесоп (1) ...гесоп (п) ) каждой реконструированной выборки этого первого сегмента с использованием первого затравочного значения и первого набора параметров прогностической модели.
На втором этапе 51 реконструируется второй сегмент,
следующий за первым сегментом, путем вычисления
реконструированного выборочного значения (гесоп (п+1) ...гесоп (п+п) ) каждой реконструированной выборки второго сегмента с использованием второго затравочного значения, равного последнему реконструированному выборочному значению первого сегмента полученный на первом этапе 50, и второй набор параметров прогностической модели.
На третьем этапе 52, декодированный сигнал строится путем
присоединения реконструированных выборок второго
реконструированного сегмента к реконструированным выборкам первого реконструированного сегмента.
Способ декодирования можно дополнительно улучшать путем присоединения этапа добавление после третьего этапа 53 в котором, для каждой реконструированной выборки, соответствующая ошибка прогнозирования добавляется к реконструированному выборочному значению реконструированной выборки. Ошибка прогнозирования может быть кластеризованной ошибкой прогнозирования, и в этом случае требуется только центр кластеризации ошибки прогнозирования или индекс этого центра кластеризации ошибки прогнозирования.
На первом этапе 50 и втором этапе 51 реконструкция исходного сигнала который использовался для обучения кусочной
прогностической модели сводиться к оцениванию этой кусочной
прогностической модели для 16 [0,N - 1] _ Уравнения кусочной
прогностической модели
ppm(O) = signal(0)
ppm(t) = ppm(st(Ј)) + lpmst(Jtyn(t - st(t)), t > 0
можно использовать непосредственно для осуществления этой реконструкции, приводящей к реконструированному сигналу.
Показано, что реконструкция начинается с затравочного значению и применяет каждую локальную прогностическую модель по
очереди для генерации следующих п значений реконструкции:
recon(O) = seed
recon(l) = recon(O) + lpm0(l)
recon(n) = recon(O) + lpm0(n) recon(n +1) = recon(n) + lpm1(l)
recon(n + ri) = recon(n) + lpm ^n)
Заметим, что каждая локальная прогностическая модель опирается на смещение, заданное последней реконструированной выборкой предыдущего сегмента: для реконструкции для t = кп + i,k € N,i € [l,n] / recon(fen) используется как начальная точка, и
затем добавляется выход локальной прогностической модели ^PmkW# Таким образом удается избежать накопления ошибки.
ФОРМУЛА ИЗОБРЕТЕНИЯ
1. Кодер сигнала,
содержащий вход для приема сигнала, содержащего кадры, причем каждый кадр содержит последовательные выборки, и выход для предоставления кодированного сигнала, причем кодер сигнала дополнительно содержит:
сегментатор, содержащий вход для приема сигнала и выполненный с возможностью сегментирования последовательных выборок кадра на сегменты, содержащие п последовательных выборок,
аппроксиматор, содержащий вход для приема сегментов от сегментатора и затравочных значений и выход для предоставления кодированного сигнала, содержащего, для каждого сегмента, набор параметров прогностической модели, на выход кодера,
причем аппроксиматор выполнен с возможностью
прогнозирования выборок первого сегмента, начиная с первой затравочной выборки, имеющей первое затравочное значение, и определения первого набора параметров прогностической модели путем аппроксимации п последовательных выборок первого сегмента с использованием первой прогностической модели и затем прогнозирования выборок второго сегмента, следующего за первым сегментом, начиная со второй затравочной выборки, имеющей второе затравочное значение, и определения второго набора параметров прогностической модели путем прогнозирования п последовательных выборок второго сегмента с использованием второй прогностической модели,
отличающийся тем, что второе затравочное значение равно спрогнозированному значению последней выборки п первого сегмента.
2. Кодер сигнала по п. 1, отличающийся тем, что
дополнительно содержит
кластеризатор параметров прогностической модели, выполненный с возможностью кластеризации параметров прогностической модели на кластеры параметров прогностической модели вокруг центров кластеризации параметров прогностической модели, причем параметры прогностической модели, подлежащие
предоставлению на выход кодера сигнала для каждого сегмента, являются центрами кластеризации параметров прогностической модели, к которым параметр прогностической модели был кластеризован, соответствующими этому сегменту.
3. Кодер сигнала по п. 1, отличающийся тем, что содержит
аппроксиматор ошибки прогнозирования, выполненный с возможностью определения ошибки прогнозирования для каждой выборки, подлежащей коррекции, причем ошибка прогнозирования является разностью между выборочным значением выборки и спрогнозированным выборочным значением упомянутой выборки, и аппроксиматор ошибки прогнозирования дополнительно содержит выход для предоставления ошибки прогнозирования для каждой выборки, подлежащей коррекции, на выход кодера сигнала.
4. Кодер сигнала по п. 3, отличающийся тем, что содержит
кластеризатор ошибки, выполненный с возможностью
кластеризации ошибок прогнозирования, определенных
аппроксиматором ошибки прогнозирования, на кластеры ошибок прогнозирования вокруг центров кластеризации ошибки, и при этом ошибка прогнозирования, подлежащая предоставлению на выход кодера сигнала для каждой выборки, подлежащей коррекции, является центром кластеризации ошибки, соответствующим ошибке прогнозирования для каждой выборки, подлежащей коррекции.
5. Кодер сигнала по п. 4, отличающийся тем, что содержит
кластеризатор ошибки, выполненный с возможностью
кластеризации ошибок прогнозирования, определенных
аппроксиматором ошибки прогнозирования, на кластеры ошибок прогнозирования вокруг центров кластеризации ошибки, причем ошибка прогнозирования, подлежащая предоставлению на выход кодера сигнала для каждой выборки, подлежащей коррекции, является индексом центра кластеризации ошибки прогнозирования, соответствующего ошибке прогнозирования для каждой выборки, подлежащей коррекции.
6. Кодер сигнала по п. 4,
отличающийся тем, что является многоканальным кодером сигнала, причем кластеризатор ошибки выполнен с возможностью кластеризации ошибки прогнозирования из множественных каналов в единый набор центров кластеризации ошибки.
7. Декодер сигнала,
содержащий вход для приема кодированного сигнала, содержащего затравочные значения и наборы параметров прогностической модели, представляющих сегменты сигнала, выход для предоставления декодированного сигнала, причем декодер сигнала дополнительно содержит:
реконструктор, содержащий вход для приема затравочных значений и параметров прогностической модели от входа декодера и выход реконструктора для предоставления реконструированных сегментов, содержащих реконструированные выборки, причем каждая реконструированная выборка имеет реконструированное выборочное значение,
причем реконструктор выполнен с возможностью реконструкции
первого сегмента путем вычисления реконструированного
выборочного значения (гесоп (1) ...гесоп (п) ) каждой
реконструированной выборки первого сегмента с использованием
первого затравочного значения и первого набора параметров
прогностической модели и реконструкции второго сегмента,
следующего за первым сегментом, путем вычисления
реконструированного выборочного значения (гесоп (п+1) ...гесоп (п+п) ) каждой реконструированной выборки второго сегмента с использованием второго затравочного значения и второго набора параметров прогностической модели,
секвенсор, имеющий вход секвенсора для приема первого
сегмента и второго сегмента от реконструктора, причем секвенсор
выполнен с возможностью построения декодированного сигнала путем
присоединения реконструированных выборок второго
реконструированного сегмента к реконструированным выборкам первого реконструированного сегмента и предоставления результирующего декодированного сигнала на выход декодера сигнала,
отличающийся тем, что второе затравочное значение равно последнему реконструированному выборочному значению первого сегмента.
8. Декодер сигнала по п. 7, содержащий
компенсатор ошибки прогнозирования, выполненный с возможностью, для каждой реконструированной выборки, подлежащей коррекции, добавления соответствующей ошибки прогнозирования к реконструированному выборочному значению реконструированной выборки.
9. Декодер сигнала по п. 8,
в котором ошибки прогнозирования, подлежащие добавлению, являются центрами кластеризации ошибки.
10. Декодер сигнала по п. 7,
в котором компенсатор ошибки прогнозирования выполнен с возможностью, для каждой реконструированной выборки, подлежащей коррекции, приема соответствующего индекса набора центров кластеризации ошибки прогнозирования от входа декодера сигнала и компенсатор ошибки прогнозирования дополнительно выполнен с возможностью выбора центра кластеризации ошибки прогнозирования, подлежащей добавлению к реконструированному выборочному значению реконструированной выборки, подлежащей коррекции, из набора центров кластеризации ошибки прогнозирования, указанных принятым соответствующим индексом.
11. Декодер сигнала по п. 7,
отличающийся тем, что является многоканальным декодером сигнала, причем компенсатор ошибки прогнозирования выполнен с возможностью использования одного набора центров кластеризации ошибки прогнозирования для множественных каналов.
12. Устройство записи, содержащее кодер по п. 1.
13. Устройство воспроизведения, содержащее декодер по п. 7.
14. Способ кодирования сигнала, содержащего кадры,
причем каждый кадр содержит последовательные выборки в кодированный сигнал,
причем способ содержит этапы, на которых:
- сегментируют последовательные выборки кадра на сегменты,
содержащие п последовательных выборок,
прогнозируют выборки первого сегмента, принятые от сегментатора, начиная с первой затравочной выборки, имеющей первое затравочное значение, и определяют первый набор параметров прогностической модели путем прогнозирования п последовательных выборок первого сегмента с использованием первой прогностической модели и затем прогнозируют принятые от сегментатора выборки второго сегмента, следующего за первым сегментом, начиная со второй затравочной выборки, имеющей второе затравочное значение, и определяют второй набор параметров прогностической модели путем прогнозирования п последовательных выборок второго сегмента с использованием второй прогностической модели,
выводят кодированный сигнал, содержащий затравочные значения и параметры прогностической модели, на выход кодера,
отличающийся тем, что второе затравочное значение равно спрогнозированному значению последней выборки первого сегмента.
15. Способ кодирования по п. 14, дополнительно содержащий этап, на котором:
- кластеризуют параметры прогностической модели на кластеры
параметров прогностической модели вокруг центров кластеризации
параметров прогностической модели, причем параметры
прогностической модели, подлежащие включению в кодированный сигнал для каждого сегмента, являются центрами кластеризации параметров прогностической модели, к которым параметр прогностической модели был кластеризован, соответствующими этому сегменту.
16. Способ кодирования по п. 14, отличающийся тем, что дополнительно содержит этапы, на которых:
определяют ошибку прогнозирования для каждой выборки, подлежащей коррекции, причем ошибка прогнозирования является разностью между выборочным значением выборки и спрогнозированным выборочным значением упомянутой выборки, и предоставляют ошибку прогнозирования для каждой выборки, подлежащей коррекции, для включения в кодированный сигнал.
17. Способ кодирования по п. 16,
17.
отличающийся тем, что дополнительно содержит этапы, на которых:
кластеризуют ошибки прогнозирования на кластеры ошибок прогнозирования вокруг центров кластеризации ошибки и предоставляют для каждой выборки, подлежащей коррекции, центр кластеризации ошибки прогнозирования, соответствующий ошибке прогнозирования для каждой выборки, подлежащей коррекции, для включения в кодированный сигнал.
18. Компьютерно-считываемый носитель данных, содержащий
сигнал, полученный с использованием способа по п. 14.
19. Способ декодирования
для декодирования кодированного сигнала, содержащего затравочные значения и наборы параметров прогностической модели, представляющих сегменты кодированного сигнала,
причем способ декодирования содержит этапы, на которых:
реконструируют первый сегмент путем вычисления реконструированного выборочного значения (гесоп (1) ...гесоп (п) ) каждой реконструированной выборки первого сегмента с использованием первого затравочного значения и первого набора параметров прогностической модели и реконструируют второй сегмент, следующий за первым сегментом, путем вычисления реконструированного выборочного значения (гесоп (п+1) ...гесоп (п+п) ) каждой реконструированной выборки второго сегмента с использованием второго затравочного значения и второго набора параметров прогностической модели, и
строят декодированный сигнал путем присоединения реконструированных выборок второго реконструированного сегмента к реконструированным выборкам первого реконструированного сегмента,
отличающийся тем, что второе затравочное значение равно последнему реконструированному выборочному значению первого сегмента.
20. Способ декодирования по п. 19,
дополнительно содержащий этап, на котором, для каждой реконструированной выборки, добавляют соответствующую ошибку
прогнозирования к реконструированному выборочному значению реконструированной выборки. По доверенности
ФИГ. 1
551816
1/5
1/5
2/5
2/5
ФИГ. 2
ФИГ. 2
4/5
4/5
ФИГ. 4
ФИГ. 4