medidas autosemejantes en el plano, momentos y...

156
UNIVERSIDAD POLIT ´ ECNICA DE MADRID FACULTAD DE INFORM ´ ATICA MEDIDAS AUTOSEMEJANTES EN EL PLANO, MOMENTOS Y MATRICES DE HESSENBERG TESIS DOCTORAL MAR ´ IA DEL CARMEN ESCRIBANO IGLESIAS Lda. en Ciencias Matem´ aticas 2012

Upload: others

Post on 12-Aug-2020

6 views

Category:

Documents


0 download

TRANSCRIPT

UNIVERSIDAD POLITECNICA DE MADRID

FACULTAD DE INFORMATICA

MEDIDAS AUTOSEMEJANTES EN ELPLANO, MOMENTOS Y MATRICES

DE HESSENBERG

TESIS DOCTORAL

MARIA DEL CARMEN ESCRIBANO IGLESIAS

Lda. en Ciencias Matematicas

2012

DEPARTAMENTO DE MATEMATICA APLICADA

FACULTAD DE INFORMATICA

MEDIDAS AUTOSEMEJANTES EN ELPLANO, MOMENTOS Y MATRICES

DE HESSENBERG

Autora: Marıa del Carmen Escribano Iglesias

Lda. en Ciencias Matematicas

Directores: M. Asuncion Sastre Rosa

Dra. por la UPM, Lda. En Ciencias Matematicas

Emilio Torrano Gimenez

Dr. en Ciencias Matematicas

2012

Memoria presentada por Marıa del

Carmen Escribano Iglesias para la

obtencion del tıtulo de Doctor.

A Helena, Ines y Vicente

Agradecimientos

Debo comenzar expresando mi mas sincero agradecimiento a mis directores Sonia

Sastre y Emilio Torrano que han hecho posible, con mucha paciencia, que la lectura

de esta tesis llegue por fin a termino. Gracias por compartir conmigo todas las horas

de discusion de seminarios y cafes que estan detras del trabajo que se presenta en

esta tesis. Incluyo tambien en este agradecimiento, especialmente a Raquel Gonzalo y

Antonio Giraldo que han estado detras de este trabajo. Gracias tambien a Venancio

Tomeo por su optimismo argumentado aleccionador.

Mi agradecimiento tambien, por un tiempo en el que he aprendido muchas cosas y

en el que he descubierto que hay muchas mas por aprender. Pero sobre todo porque

el tiempo dedicado ha sido, para mı, un tiempo divertido, de entusiasmo por el

descubrimiento y el asombro, en el que Sonia y Emilio son grandes maestros.

Son muchas las personas entre familiares y amigos que me han, literalmente

empujado, a terminar este tramite, y a las que agradezco mucho el empujon.

Carmen Escribano Iglesias

Madrid, diciembre 2012.

Indice general

INTRODUCCION 1

1. PRELIMINARES 7

1.1. Medidas autosemejantes . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.1.1. Medida y dimension de Hausdorff . . . . . . . . . . . . . . . . 10

1.1.2. Sistemas de funciones iteradas . . . . . . . . . . . . . . . . . . 13

1.1.3. Medidas invariantes . . . . . . . . . . . . . . . . . . . . . . . . 16

1.2. Teorıa de polinomios ortogonales, matrices infinitas y operadores . . 17

1.2.1. Matrices de momentos y polinomios ortogonales . . . . . . . 19

1.2.2. Matrices de Hessenberg y el operador multiplicacion por z . . 23

1.2.3. Matrices de Hessenberg asociadas a matrices HDP . . . . . . 25

2. MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJAN-

TES 31

2.1. Transformaciones de matrices de momentos por semejanzas . . . . . . 32

2.2. Matrices de momentos y formulas de recurrencia . . . . . . . . . . . 34

2.2.1. Caso real y la convolucion infinita de Bernoulli . . . . . . . . 36

2.2.2. Funcion generatriz exponencial de momentos . . . . . . . . . . 42

2.3. Algoritmo para matrices de momentos de medidas autosemejantes . . 44

2.4. Teorema del punto fijo para matrices de momentos de medidas auto-

semejantes en D . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

i

ii INDICE GENERAL

2.5. Teorema del punto fijo para matrices de momentos de medidas auto-

semejantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

2.5.1. Espacios metricos de matrices infinitas asociados a un SFI . . 55

2.5.2. Aproximacion de la matriz de momentos y velocidad de con-

vergencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

2.6. Formulas explıcitas para los momentos . . . . . . . . . . . . . . . . . 61

2.6.1. Inversa de una matriz triangular inferior . . . . . . . . . . . . 62

2.6.2. Expresiones de los momentos para la convolucion de Bernoulli 66

3. MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJAN-

TES 71

3.1. Transformaciones de matrices de Hessenberg por semejanzas . . . . . 72

3.1.1. Propiedades de invarianza . . . . . . . . . . . . . . . . . . . . 75

3.2. Matriz de Hessenberg de una suma de medidas . . . . . . . . . . . . . 77

3.3. Matriz de Hessenberg asociada a una medida autosemejante . . . . . 88

3.4. Comparativa de algoritmos y ejemplos . . . . . . . . . . . . . . . . . 91

3.5. Matriz de Hessenberg asociada a una suma de matrices HDP . . . . . 96

3.5.1. m-Suma de matrices de Hessenberg . . . . . . . . . . . . . . . 97

3.5.2. m-Suma de shifts con pesos . . . . . . . . . . . . . . . . . . 103

4. AUTOVALORES MINIMOS DE MATRICES DE MOMENTOS 109

4.1. Aproximacion polinomial en L2(µ) y comportamiento asintotico del

autovalor mınimo λn . . . . . . . . . . . . . . . . . . . . . . . . . . . 112

4.2. Resultados relacionados para medidas en D . . . . . . . . . . . . . . . 123

5. CONCLUSIONES Y LINEAS FUTURAS DE INVESTIGACION 129

RESUMEN

La tesis MEDIDAS AUTOSEMEJANTES EN EL PLANO, MOMENTOS YMA-

TRICES DE HESSENBERG se enmarca entre las areas de la teorıa geometrica de

la medida, la teorıa de polinomios ortogonales y la teorıa de operadores. La memoria

aborda el estudio de medidas con soporte acotado en el plano complejo vistas con la

optica de las matrices infinitas de momentos y de Hessenberg asociadas a estas me-

didas que en la teorıa de los polinomios ortogonales las representan. En particular se

centra en el estudio de las medidas autosemejantes que son las medidas de equilibrio

definidas por un sistema de funciones iteradas (SFI).

Los conjuntos autosemejantes son conjuntos que tienen la propiedad geometri-

ca de descomponerse en union de piezas semejantes al conjunto total. Estas piezas

pueden solaparse o no, cuando el solapamiento es pequeno la teorıa de Hutchinson

[Hut81] funciona bien, pero cuando no existen restricciones falla. El problema del

solapamiento consiste en controlar la medida de este solapamiento. Un ejemplo de

la complejidad de este problema se plantea con las convoluciones infinitas de distri-

buciones de Bernoulli, que han resultado ser un ejemplo de medidas autosemejantes

en el caso real. En 1935 Jessen y A. Wintner [JW35] ya se planteaba este problema,

lejos de ser sencillo ha sido estudiado durante mas de setenta y cinco anos y si-

guen sin resolverse las principales cuestiones planteadas ya por A. Garsia [Gar62] en

1962. El interes que ha despertado este problema ası como la complejidad del mismo

esta demostrado por las numerosas publicaciones que abordan cuestiones relacio-

nadas con este problema ver por ejemplo [JW35], [Erd39], [PS96], [Ma00], [Ma96],

[Sol98], [Mat95], [PS96], [Sim05],[JKS07] [JKS11].

En el primer capıtulo comenzamos introduciendo con detalle las medidas auto-

semejante en el plano complejo y los sistemas de funciones iteradas, ası como los

conceptos de la teorıa de la medida necesarios para describirlos. A continuacion se

introducen las herramientas necesarias de teorıa de polinomios ortogonales, matrices

infinitas y operadores que se van a usar.

En el segundo y tercer capıtulo trasladamos las propiedades geometricas de las

medidas autosemejantes a las matrices de momentos y de Hessenberg, respectivamen-

te. A partir de estos resultados se describen algoritmos para calcular estas matrices

a partir del SFI correspondiente. Concretamente, se obtienen formulas explıcitas y

algoritmos de aproximacion para los momentos y matrices de momentos de medidas

fractales, a partir de un teorema del punto fijo para las matrices. Ademas utilizando

tecnicas de la teorıa de operadores, se han extendido al plano complejo los resultados

que G. Mantica [Ma00, Ma96] obtenıa en el caso real. Este resultado es la base para

definir un algoritmo estable de aproximacion de la matriz de Hessenberg asociada a

una medida fractal u obtener secciones finitas exactas de matrices Hessenberg aso-

ciadas a una suma de medidas. En el ultimo capıtulo, se consideran medidas, µ, mas

generales y se estudia el comportamiento asintotico de los autovalores de una matriz

hermitiana de momentos y su impacto en las propiedades de la medida asociada. En

el resultado central se demuestra que si los polinomios asociados son densos en L2(µ)

entonces necesariamente el autovalor mınimo de las secciones finitas de la matriz de

momentos de la medida tiende a cero.

ABSTRACT

The Thesis work “Self-similar Measures on the Plane, Moments and Hessenberg

Matrices” is framed among the geometric measure theory, orthogonal polynomials

and operator theory. The work studies measures with compact support on the com-

plex plane from the point of view of the associated infinite moments and Hessenberg

matrices representing them in the theory of orthogonal polynomials. More preci-

sely, it concentrates on the study of the self-similar measures that are equilibrium

measures in a iterated functions system.

Self-similar sets have the geometric property of being decomposable in a union

of similar pieces to the complete set. These pieces can overlap. If the overlapping

is small, Hutchinson’s theory [Hut81] works well, however, when it has no restric-

tions, the theory does not hold. The overlapping problem consists in controlling the

measure of the overlap. The complexity of this problem is exemplified in the infinite

convolutions of Bernoulli’s distributions, that are an example of self-similar measures

in the real case. As early as 1935 [JW35], Jessen and Wintner posed this problem,

that far from being simple, has been studied during more than 75 years. The main

cuestiones posed by Garsia in 1962 [Gar62] remain unsolved. The interest in this pro-

blem, together with its complexity, is demonstrated by the number of publications

that over the years have dealt with it. See, for example, [JW35], [Erd39], [PS96],

[Ma00], [Ma96], [Sol98], [Mat95], [PS96], [Sim05], [JKS07] [JKS11].

In the first chapter, we will start with a detailed introduction to the self-similar

measurements in the complex plane and to the iterated functions systems, also in-

cluding the concepts of measure theory needed to describe them. Next, we introduce

the necessary tools from orthogonal polynomials, infinite matrices and operators.

In the second and third chapter we will translate the geometric properties of self-

similar measures to the moments and Hessenberg matrices. From these results, we

will describe algorithms to calculate these matrices from the corresponding iterated

functions systems. To be precise, we obtain explicit formulas and approximation

algorithms for the moments and moment matrices of fractal measures from a new

fixed point theorem for matrices. Moreover, using techniques from operator theory, we

extend to the complex plane the real case results obtained by Mantica [Ma00, Ma96].

This result is the base to define a stable algorithm that approximates the Hessenberg

matrix associated to a fractal measure and obtains exact finite sections of Hessenberg

matrices associated to a sum of measurements.

In the last chapter, we consider more general measures, µ, and study the asym-

ptotic behaviour of the eigenvalues of a hermitian matrix of moments, together with

its impact on the properties of the associated measure. In the main result we de-

monstrate that, if the associated polynomials are dense in L2(µ), then necessarily

follows that the minimum eigenvalue of the finite sections of the moments matrix

goes to zero.

INTRODUCCION

Esta memoria se dedica principalmente al estudio de las medidas de equilibrio

asociadas a un sistema de funciones iteradas, mas concretamente un sistema forma-

do por semejanzas contractivas. Estas medidas se llaman medidas autosemejantes y

tienen su soporte en un conjunto autosemejante. Intuitivamente, un conjunto autose-

mejante es aquel que se puede descomponer en varias partes, cada una semejante al

total. Esta estructura se repite a diferentes escalas. Esta propiedad geometrica apa-

rece en las formas y procesos naturales. Por ello hay un fuerte interes en el estudio

de estos conjuntos y medidas.

Las medidas han sido tratadas desde dos puntos de vista diferentes. Un enfoque

es el de la teorıa de la medida, donde las medidas son funciones definidas sobre una

σ-algebra de conjuntos en un espacio topologico. En el otro enfoque, las medidas

aparecen asociadas a funcionales lineales positivos definidos sobre un espacio de

funciones continuas. Riesz [Rie23], establecio que los dos enfoques son equivalentes.

Por otro lado, la teorıa de los polinomios ortogonales tiene una fuerte relacion

con la teorıa de operadores y puede parecer, en principio, muy alejada del estudio

de las medidas autosemejantes. Sin embargo, el analisis de las propiedades de una

medida a partir del comportamiento de los coeficientes de la formula de recurrencia

(elementos de la trididiagonal de Jacobi) se remonta a O. Blumenthal [Blu898],

aunque el verdadero iniciador de la aplicacion de la teorıa de operadores al estudio

de los polinomios ortogonales es M.H. Stone que, en [Sto32], dedica una amplısima

1

INTRODUCCION

seccion al estudio de la tridiagonal de Jacobi. En otro orden hay que situar a G.

Szego [Sze36] o Shohat [ST43] interesados en la caracterizacion la medida, en el caso

de la circunferencia unidad o la recta real, pero sin utilizar tecnicas propias de la

teorıa de operadores. El teorema de E.A. Rakhmanov [Rak83, Rak87] es uno de

los resultados clave de los ultimos anos en la teorıa de los polinomios ortogonales

reales. La aparente simplicidad de su enunciado desperto el interes de numerosos

investigadores que han tratado de aproximarse a los problemas abiertos de su entorno,

retomando las tecnicas usadas por M.H. Stone, como es el caso de J. Dombrowski

[Dom78, Dom80, Dom84, Dom85, Dom87].

Las relaciones de recurrencia de los polinomios ortogonales han sido representa-

das por operadores definidos por matrices cuyas entradas guardan mucha informa-

cion sobre la medida. Es en este contexto matricial donde desarrollaremos nuestra

investigacion con el objeto de descubrir propiedades de las medidas en terminos de

propiedades de las matrices de momentos y de Hessenberg asociadas a estas medidas.

El estudio de las medidas y conjuntos autosemejantes fue introducido por Hut-

chinson en [Hut81]. El problema del solapamiento consiste en controlar el tamano del

solapamiento entre las piezas en que se descomponen los conjuntos autosemejantes.

Estas piezas pueden solaparse o no, cuando el solapamiento es pequeno la teorıa de

Hutchinson funciona bien, pero cuando no existen restricciones no se puede aplicar

y no se conoce ni la dimension del conjunto ni el comportamiento de la medida.

Un ejemplo de la complejidad de este problema se plantea con las convoluciones

infinitas de distribuciones de Bernoulli, que han resultado ser un ejemplo de medidas

autosemejantes en el caso real. En 1935 Jessen y A. Wintner [JW35] ya se planteaban

este problema, que lejos de ser sencillo ha sido estudiado durante mas de setenta y

cinco anos y siguen sin resolverse las principales cuestiones planteadas por A. Garsia

[Gar62] en 1962. El interes que ha despertado este problema ası como la complejidad

del mismo esta demostrado por las numerosas publicaciones que abordan cuestiones

2

INTRODUCCION

relacionadas con este problema, ver por ejemplo [JW35], [Erd39], [PS96], [Ma00],

[Ma96], [Sol98], [Mat95], [PS96], [Sim05], [JKS07] [JKS11], [HOS11]. En [Ass10] se

plantean una serie de problemas abiertos relacionados con el trabajo que hemos

desarrollado.

La mayor parte de los resultados que se van a presentar en la memoria utilizan

tecnicas que requieren de la teorıa de la medida, polinomios ortogonales, teorıa de

operadores y analisis funcional.

En el primer capıtulo se introducen con detalle los sistemas de funciones iteradas

y las medidas autosemejantes, ası como los conceptos de la teorıa de la medida nece-

sarios para describirlos. Para entender basicamente la definicon de medida autoseme-

jante se definen los conceptos de medida y dimension de Hausdorff y a continuacion

el concepto de sistema de funciones iteradas y medidas invariantes. En la ultima

parte del capıtulo se introducen las herramientas necesarias de la teorıa de polino-

mios ortogonales, matrices infinitas de momentos y de Hessenberg, y conceptos de la

teorıa de operadores que se van a utilizar mas adelante. Tambien recordaremos las

expresiones que relacionan las matrices de momentos y las matrices de Hessenberg

ası como la consistencia de las mismas que verifican sus secciones finitas, dadas en

[Tor87] y en [GT93].

En el segundo capıtulo presentamos las transformaciones de matrices de mo-

mentos que aparecen al considerar la medida inducida por una transformacion de

semejanza. Este resultado aplicado al caso de matrices de momentos de medidas

autosemejantes permitira definir una transformacion entre matrices de momentos

que replique la propiedad de invarianza para la matriz de momentos de la medida

invariante. De esta manera trasladamos las propiedades geometricas de las medidas

autosemejantes a las matrices de momentos. Las ecuaciones matriciales que se obtie-

nen dan lugar a formalizar un teorema de punto fijo en un espacio de matrices que

permite construir algoritmos de aproximacion para calcular estas matrices a partir

3

INTRODUCCION

del SFI correspondiente. Este punto fijo es necesariamente la matriz de momentos

de la medida autosemejante. Se analiza su velocidad de convergencia y se presentan

varios ejemplos. Ademas se obtienen funciones generatrices, formulas recursivas para

los momentos de estas medidas y mas concretamente, se obtienen expresiones explıci-

tas en terminos de numeros multinomicos y composiciones de numeros naturales para

los momentos y matrices de momentos de las convoluciones de Bernoulli.

El tercer capıtulo esta dedicado al estudio de las matrices de Hessenberg siguien-

do por el mismo camino que en el capıtulo anterior para las matrices de momentos.

Partiendo de la matriz de Hessenberg de una medida, se analiza la transformacion

de esta matriz cuando consideramos la medida inducida por una semejanza. A con-

tinuacion, se estudia la matriz de Hessenberg asociada a una suma de medidas y

se establece un algoritmo para calcular, de forma exacta, la matriz de Hessenberg

de esta suma a partir de las matrices de Hessenberg de las medidas componentes.

Estos resultados, aplicados al caso de medidas autosemejantes nos van a permitir

definir una transformacion de matrices de Hessenberg, y en definitiva de los poli-

nomios ortogonales. De esta manera trasladamos las propiedades geometricas de las

medidas autosemejantes a las matrices de Hessenberg. Las ecuaciones matriciales que

se obtienen dan lugar a un algoritmo en el que se utilizan tecnicas de la teorıa de

operadores y extiende al plano complejo los resultados que G. Mantica [Ma00, Ma96]

obtenıa en el caso real. Este resultado es la base para definir un algoritmo estable

para aproximar la matriz de Hessenberg asociada a una medida fractal con soporte

en el plano complejo.

La ultima idea que se presenta en este capıtulo se basa en tecnicas puramente

algebraicas que nos permiten definir lo que hemos llamado m-suma de matrices de

Hessenberg, incluso cuando no estemos respaldados por una medida. Se analizan pro-

piedades en relacion a los diferentes tipos de normalidad de las matrices componentes

en todos los casos de Shifts monotonos. Destacamos que en los ejemplos existe una

4

INTRODUCCION

m-suma de operadores no subnormales que resulta subnormal, de lo cual se deduce

que esta forma de sumar “crea medida de donde no la hay”.

En el capıtulo cuarto se consideran medidas mas generales. Estudiaremos el com-

portamiento asintotico de los autovalores de la matriz de momentos y su impacto en

las propiedades de la medida asociada. Berg, Chen e Ismail [BCI02] probaron que

una medida µ sobre R es determinada, si y solo si la sucesion λn de los autovalores

mınimos de cada seccion de orden n + 1 de la matriz de momentos tiende a cero.

Recuerdese que una medida µ es determinada cuando el problema de los momentos

tiene como unica solucion la medida µ. Este nuevo criterio para la determinacion de

una medida ha motivado el estudio de este comportamiento en el caso de medidas

con soporte compacto en el plano complejo. En este contexto, la situacion es com-

pletamente diferente, ya que por ejemplo, la medida de Lebesgue normalizada en

la circunferencia unidad, que como sabemos es la solucion de un problema de mo-

mentos determinado, tiene como matriz de momentos asociada la matriz identidad

I y obviamente λn = 1 para todo n ∈ N. El resultado que hemos obtenido es que

el comportamiento asintotico del autovalor mınimo λn esta relacionado con el pro-

blema de aproximacion por polinomios, esto es, con el problema de la completitud

en lugar de con el problema de la determinacion. El resultado central prueba que si

los polinomios asociados a la medida µ son densos en L2(µ) entonces el autovalor

mınimo de las secciones finitas de la matriz de momentos de la medida tiende a cero.

5

Capıtulo 1

PRELIMINARES

En este capıtulo se recuerdan las definiciones y resultados basicos de la teorıa

de la medida, teorıa de operadores y polinomios ortogonales que utilizaremos en los

capıtulos posteriores. Para los resultados generales que vamos a recordar en este

capıtulo sobre teorıa de la medida y geometrıa fractal se puede consultar en K. J.

Falconer [Fal90], sobre polinomios ortogonales en [Chi78], [Sze75] por T. S. Chihara

y G. Szego, respectivamente y sobre teorıa de operadores, ver por ejemplo J. B.

Conway [Con91] y J. Bram [Bra55].

En todo el trabajo consideraremos (X, d) un espacio metrico separable y comple-

to, que normalmente sera un compacto de R, R2 o C con la metrica euclıdea.

1.1. Medidas autosemejantes

La medida de Lebesgue trata de medir conjuntos a partir de recubrimientos con

conjuntos sencillos como son los intervalos en Rn. Sin embargo, existen conjuntos

con una estructura mas complicada que no se miden bien con esta medida, como

el conjunto de Cantor u otros conjuntos fractales y para los cuales las tecnicas del

calculo integral no proporcionan una solucion satisfactoria.

Para introducir otro tipo de medidas mas adecuado para el estudio de estos con-

7

PRELIMINARES

juntos recordaremos varios conceptos de teorıa de la medida y de geometrıa fractal,

que se pueden encontrar en [Edg98].

Una σ-algebra, A, de conjuntos en un espacio X es una familia no vacıa de

subconjuntos de X que es cerrada con las operaciones de complementarios y uniones

numerables.

Definicion 1.1.1. Una medida µ en X es una funcion de conjunto, definida en una

σ-algebra de X, A, que es no negativa y σ-aditiva. Esto es, µ : A → [0,∞] es una

medida si verifica la siguiente propiedad:

Si A1, A2, . . . ∈ A, disjuntos dos a dos, entonces

µ

(∞∪i=1

Ai

)=

∞∑i=1

µ(Ai).

En este caso decimos que (µ,A, X) es un espacio de medida y que los elementos

de A son los conjuntos µ-medibles. Recordemos que la σ-algebra de Borel, B, es la

mınima σ-algebra que contiene a los conjuntos abiertos.

Existe tambien un concepto de medida mas amplio denominado medida exterior

utilizado en geometrıa fractal donde la funcion de conjunto se define sobre partes de

X, P(X).

Definicion 1.1.2. La funcion de conjunto µ∗ : P(X) → [0,∞] es una medida

exterior si verifica las siguientes propiedades.

1. µ∗(∅) = 0.

2. µ∗(A) ≤ µ∗(B) para todo A ⊂ B.

3. µ∗

(∞∪i=1

Ai

)≤

∞∑i=1

µ∗(Ai).

Ademas un conjunto C ⊂ X es µ∗-medible si

µ∗(E) = µ∗(E ∩ C) + µ∗(E \ C) para todo E ⊂ X,

y el conjunto A∗ de los conjuntos µ∗-medibles es un σ-algebra.

8

1.1 Medidas autosemejantes

Observacion 1.1.3. Toda medida µ definida en una σ-algebra A, se puede extender

a una medida exterior µ∗, de la siguiente forma

µ∗(C) = ınfµ(A) | C ⊂ A ∈ A.

Recıprocamente, toda medida exterior restringida a la σ-algebra de los conjuntos

medibles es una medida. Esto nos permite hablar de medida aunque nos refiramos a

una medida exterior.

Esta forma de definir medidas mediante recubrimientos es en la que se basara la

definicion de medidas de Hausdorff.

Necesitaremos tambien los siguientes conceptos.

Definicion 1.1.4. Sea (µ,A, X) un espacio de medida. Se dice que µ es una medida

finita si µ(X) < ∞ y que es una medida de probabilidad cuando µ(X) = 1. Se dice

que µ es una medida σ-finita si existen A1, A2, . . . ∈ A con X ⊂∪∞

i=1Ai tal que

µ(Ai) < ∞. Se dice que µ es una medida de Borel si los conjuntos de Borel son

µ-medibles.

El soporte de una medida es el conjunto Supp(µ) formado por los puntos x tales

que µ(E) > 0 para todo conjunto E que tiene x como punto interior. El soporte

puntual de µ es el conjunto A(µ) = x ∈ X | µ(x) > 0 de los puntos con masa

o atomos. Una medida se dice continua o discontinua dependiendo de si el soporte

puntual es vacıo o no. Se dice que µ es puramente atomica si µ(A(µ)) = µ(X).

Diremos que es singular, si es continua y existe un conjunto E de Borel de medida

de Lebesgue cero y tal que µ esta concentrada en E, es decir, µ(X \E) = 0. Diremos

que µ es absolutamente continua respecto de ν, esto es µ << ν, si µ(E) = 0 para

todo conjunto de Borel E con ν(E) = 0. Por ultimo, diremos que una medida es

absolutamente continua respecto de la medida de Lebesgue, si µ(E) = 0 para todo

conjunto de Borel E de medida de Lebesgue cero. Este caso se da si y solo si existe

9

PRELIMINARES

una funcion f integrable Lebesgue, es decir, f ∈ L1, de forma que

µ(E) =

∫E

f(x)dx,

para cualquier conjunto de Borel E. Esta funcion f se llama densidad de µ.

En lo que sigue, MP (X) denotara el conjunto de las medidas de probabilidad Bo-

rel regulares en el espacio metrico (X, d). La convergencia debil de medidas definida

a continuacion se puede ver en [Edg98].

Definicion 1.1.5. Diremos que una sucesion de medidas µn ⊂ MP (X) converge

debilmente a µ ∈ MP (X) si

lımn→∞

∫fdµn =

∫fdµ, para toda funcion f ∈ C0(X),

donde C0(X) es el espacio de las funciones continuas en X, con soporte compacto.

Esta convergencia la notaremos por µn → µ.

Teorema 1.1.6. Una sucesion µn de medidas en MP (X) es debilmente conver-

gente a µ ∈ MP (X) si y solo si, µn(E) → µ(E) para todo conjunto E de X tal que

µ(∂E) = 0, donde ∂E denota la frontera del conjunto E.

1.1.1. Medida y dimension de Hausdorff

Uno de los metodos de construccion de medidas es el metodo de Caratheodory o

Metodo II. Este procedimiento consiste en recubrir el conjunto a medir con conjuntos

de diametro menor que δ, evaluar los conjuntos del recubrimiento con una funcion

de conjunto, para despues tomar el ınfimo y hacer tender δ a cero. Variando el tipo

de conjuntos que se utilizan para recubrir y la funcion que determina que evaluar

de estos conjuntos, se obtienen diferentes medidas. Por ejemplo, si utilizamos bolas

para recubrir en la definicion de Hs, se obtienen las medidas de Hausdorff esfericas,

Bs. La medida s-dimensional (s ∈ R+) de Hausdorff, Hs, de un conjunto A ⊂ Rn

se define recubriendo el conjunto A por conjuntos cualesquiera con diametro menor

10

1.1 Medidas autosemejantes

que un cierto δ. Como no podemos evaluar la medida de estos conjuntos arbitrarios,

lo que evaluamos es su diametro elevado a s. Tomamos el ınfimo de estos valores,

para cada δ y hacemos tender δ a cero, es decir,

Hs(A) = supδ>0

ınf

∞∑i=1

diams(Si) : A ⊂∞∪i=1

Si, diam(Si) ≤ δ

.

Si llamamos

Hsδ (A) = ınf

∞∑i=1

diams(Si) : A ⊂∞∪i=1

Si, diam(Si) ≤ δ

,

se tiene que Hs(A) = lımδ↓0

Hsδ (A).

En el caso particular de s = 0 consideraremos por convenio que 00 = 1, y se tiene,

H0(A) =

card(A) si A es finito,

∞ si A es infinito.

Es decir, la medida H0 es la de contar el numero de elementos que tiene el

conjunto. Tambien se puede ver que si s = 1 y γ ⊂ Rn es una curva rectificable (de

longitud finita) entonces H1(γ) = long(γ). Ademas, se puede probar que Hn coincide

con Ln salvo una constante (la medida de la bola unidad en Rn), para todo n ∈ N

(ver [Fal90]).

Teorema 1.1.7. La medida s-dimensional de Hausdorff Hs es una medida exterior

y cumple las siguientes propiedades:

i) Si f es una isometrıa (es decir |f(x)− f(y)| = |x− y|, ∀x, y), entonces

Hs(f(A)) = Hs(A).

ii) Si f es una homotecia de razon λ (es decir |f(x) − f(y)| = λ|x − y|,∀x, y),

entonces

Hs(f(A)) = λsHs(A).

11

PRELIMINARES

iii) Si f es lipschitziana (es decir ∃c > 0 tal que |f(x) − f(y)| ≤ c|x − y|, ∀x, y),

entonces

Hs(f(A)) ≤ csHs(A).

Como consecuencia, las s-medidas son homogeneas por semejanzas en el siguiente

sentido: Si f : Rn → Rm es una semejanza de razon r entonces para todo E ⊂ Rn se

tiene que Hs(f(E)) = rsHs(E).

Definicion 1.1.8. Dado un conjunto A ⊂ Rn, existe un unico valor s tal que H t(A) = ∞ si t < s,

H t(A) = 0 si t > s.

A este s le llamaremos dimension de Hausdorff del conjunto A y lo notaremos por

dim(A) = s, es decir,

dim(A) = sups ∈ R+ | Hs(A) = ∞

= ınf

s ∈ R+ | Hs(A) = 0

.

Si A tiene medida finita y positiva 0 < Hs(A) < ∞, entonces diremos que A es

un s-conjunto o un s-fractal.

Las propiedades geometricas de esta dimension permiten calcular directamente la

dimension de Hausdorff de un conjunto en algunos casos particulares. Sea A ⊂ Rn y

supongamos que existe una semejanza, f , de razon r (0 < r < 1), de forma que f(A)

es una parte de A para la que sabemos determinar la proporcion t (0 < t < 1) de su

medida con respecto a la medida de A. Entonces, teniendo en cuenta las propiedades

de las s-medidas, para cada s ≥ 0 se verifica:

Hs(f(A)) = rsHs(A)

Hs(f(A)) = tHs(A)

⇒ rsHs(A) = tHs(A).

y si existe un s para el que 0 < Hs(A) < ∞ (y, por tanto, dim(A) = s), entonces se

ha de cumplir que

rs = t ⇒ s =log t

log r·

12

1.1 Medidas autosemejantes

Una vez obtenido s de esta forma habra que demostrar que 0 < Hs(A) < ∞

puesto que podrıa no existir tal s.

Veamos un ejemplo que, ademas de ilustrar este metodo, nos permitiran calcular

la dimension de algunos de los conjuntos fractales clasicos.

Ejemplo 1.1.9. Triangulo de Sierpinski T 12. La construccion del triangulo de Sier-

pinski T 12consiste en dividir un triangulo en cuatro triangulos semejantes al inicial y

eliminar el central, este proceso se itera sobre cada uno de los triangulos que quedan

en cada paso sucesivo, de manera que el conjunto lımite sera el triangulo, como se

muestra en la figura.

Figura 1.1: Triangulo de Sierpinski

Puesto que este conjunto se compone de tres partes iguales (las partes del con-

junto T 12que corresponden a los tres triangulos T0, T1, T2 de la primera etapa de

la construccion del triangulo de Sierpinski) semejantes al conjunto total, podemos

calcular la dimension por el procedimiento que acabamos de describir y se obtiene

s =log 3

log 2·

1.1.2. Sistemas de funciones iteradas

Los resultados que se exponen en esta seccion se deben principalmente a Hutchin-

son, quien formalizo la teorıa de conjuntos y medidas autosemejantes en [Hut81]. Se

considera el espacio H(X) de los conjuntos compactos no vacıos de Rn con la metrica

de Hausdorff (ver [Fal90]). Este espacio metrico es completo.

13

PRELIMINARES

Sea Φ = φ1, φ2, . . . , φk un conjunto de funciones contractivas con factores de

contraccion r1, r2, . . . , rk respectivamente. La aplicacion de conjunto S Φ definida, en

el espacio H(Rn) de los conjuntos compactos en Rn, de la forma

S Φ(A) =k∪

i=1

φi(A),

es una funcion contractiva en el espacio H(Rn) con la metrica de Hausdorff, y su

factor de contraccion es r = max ri | i = 1, 2, . . . , k.

Con las siglas SFI (sistema de funciones iteradas) denotaremos un conjunto finito

Φ de semejanzas contractivas en un espacio metrico completo, sobrentendiendo la

aplicacion contractiva S Φ, con su factor de contraccion r. La definicion de SFI es

mas general ya que puede estar formado simplemente por funciones contractivas.

Como consecuencia del teorema del punto fijo para funciones contractivas en

espacios metricos completos se obtiene el siguiente resultado.

Teorema 1.1.10. Sea Φ = φ1, φ2, . . . , φk un SFI con factor de contraccion r.

Entonces existe un unico conjunto E ∈ H(Rn) fijo para S Φ que cumple

E = S Φ(E) = lımi→∞

S Φi(F ), para todo compacto F,

donde S Φi denota la composicion i-veces de S Φ consigo misma.

El conjunto E se llama atractor del SFI, ya que se puede considerar el siste-

ma dinamico discreto definido por S Φ. Para este sistema dinamico el punto fijo es

atractivo.

La dimension de semejanza del conjunto E, si las funciones contractivas son

semejanzas y tienen los factores de contraccion r1, r2, . . . , rk, es el unico numero

s ∈ R+ que verifica

rs1 + rs2 + · · ·+ rsk = 1.

En general se tiene que la dimension de semejanza es mayor o igual que la dimension

de Hausdorff, aunque en muchos casos, como el conjunto de Cantor o el Triangulo

de Sierpinski, se da la igualdad.

14

1.1 Medidas autosemejantes

Definicion 1.1.11. Diremos que un sistema Φ = φ1, φ2, . . . , φk de semejanzas

contractivas de Rn cumple la condicion de abierto (OSC, del ingles “open set condi-

tion”) si existe un conjunto V abierto y acotado de Rn tal que

i)k∪

i=1

φi(V ) ⊂ V .

ii) φi(V )∩φj(V ) = ∅ si i = j.

En 1994 A. Schief [Sch94] demuestro que la condicion de abierto es equivalente a la

condicion fuerte de abierto, es decir V corta al conjunto autosemejante E, V ∩E = ∅.

Teorema 1.1.12. Sea Φ = φ1, φ2, . . . , φk un sistema de semejanzas contractivas

de Rn con razones ri, 1 ≤ i ≤ k. Si el sistema cumple la condicion de abierto entonces

el compacto invariante para Φ es autosemejante y se cumple

dimH E = s,

siendo s el unico numero real no negativo s tal que

k∑i=1

(ri)s = 1.

Ejemplo 1.1.13. El Conjunto de Cantor. Podemos comprobar que el conjunto de

Cantor es un conjunto autosemejante, ya que se compone de dos copias iguales al

conjunto total, de tamano1

3del tamano de este.

Al ser un conjunto autosemejante y al cumplir la condicion de abierto podemos

calcular su dimension de semejanza. Para calcular su dimension de semejanza, hay

que observar que C es el punto fijo del SFI

Φ =

φ1(x) =

1

3x, φ2(x) =

1

3x+

2

3

,

y que cumple la condicion de abierto con el conjunto abierto O = (0, 1). Por tanto,

dims(C) = s, siendo s el unico valor que cumple 21

3s= 1.

Es decir, el conjunto de Cantor C tiene dimension s =log 2

log 3.

15

PRELIMINARES

1.1.3. Medidas invariantes

Vamos a introducir las medidas autosemejantes asociadas a un SFI con probabi-

lidades. Para ello, vamos a definir una metrica en el conjunto MP (X) de las medidas

de Borel de probabilidad, definidas sobre el espacio metrico (X, d).

Ademas, la convergencia debil coincide con la convergencia respecto a esta metri-

ca. Recordaremos tambien como, gracias al teorema de punto fijo para funciones

contractivas, obtenemos las medidas autosemejantes.

Definicion 1.1.14. Se define la metrica de Hutchinson para µ, µ′ ∈ MP (X), como:

dH(µ, µ′) = sup

∣∣∣∣∫ fdµ−∫

fdµ′∣∣∣∣ | f : X → R continua, |f(x)− f(y)| ≤ d(x, y), ∀x, y ∈ X

.

Para la demostracion de la equivalencia entre la convergencia debil y la conver-

gencia en la metrica de Hutchinson, ver [Fal97].

El siguiente teorema se puede encontrar en [Bar93] y [Hut81].

Teorema 1.1.15. Sea (X, d) un espacio metrico completo. Entonces el espacioMP (X)

con la metrica de Hutchinson dH es un espacio metrico compacto.

Definicion 1.1.16. Sea (X, d) un espacio metrico. Consideramos el sistema de fun-

ciones iteradas con probabilidades

Φ = φ1, φ2, . . . , φk; p1, p2, . . . pk,

donde pi > 0 para todo i ∈ 1, 2, . . . , k yk∑

i=1

pi = 1.

El operador de Markov asociado al SFI, es una funcion T : MP (X) → MP (X)

definida por

T (µ) =k∑

i=1

piµ φ−1i .

Notese, que si f : X → X es una funcion continua, es claro que la imagen inversa

por f de un conjunto de Borel es un conjunto de Borel, por lo que si µ ∈ MP (X)

16

1.2 Teorıa de polinomios ortogonales, matrices infinitas y operadores

se tiene que µ f−1 ∈ MP (X). Los siguientes resultados se pueden encontrar en

[Bar93, pg. 350].

Lema 1.1.17. Sea T el operador de Markov asociado al SFI con probabilidades

Φ = φ1, φ2, . . . , φk; p1, p2, . . . pk. Sea f : X → R una funcion simple o una funcion

continua. Sea µ ∈ MP (X). Entonces,∫X

fd(T (µ)) =k∑

i=1

pi

∫X

f φidµ.

Teorema 1.1.18. Sea (X, d) un espacio metrico. Consideramos el sistema de fun-

ciones iteradas con probabilidades

Φ = φ1, φ2, . . . , φk; p1, p2, . . . pk.

Sea r el factor de contraccion del SFI. Entonces, el operador de Markov asociado

a este SFI es una funcion contractiva en MP (X), con factor de contraccion r, es

decir,

dH(T (µ), T (µ′)) ≤ rdH(µ, µ

′).

En particular, existe una unica medida de probabilidad µ ∈ MP (X) invariante para

T , es decir, T (µ) = µ. El soporte de esta medida es el unico compacto invariante

asociado al SFI Φ. Esta medida se llamara medida autosemejante cuando Φ este for-

mado por semejanzas.

1.2. Teorıa de polinomios ortogonales, matrices

infinitas y operadores

La teorıa de los polinomios ortogonales es una disciplina muy amplia que puede ser

abordada desde muy diferentes puntos de vista. La conexion directa de las medidas

y los polinomios ortogonales esta presente en la propia definicion de ortogonalidad,

es claro que las propiedades de una medida influyen en la sucesion de polinomios

17

PRELIMINARES

ortogonales que genera y viceversa. Las relaciones de recurrencia de los polinomios

ortogonales han sido representadas por operadores y analizados con exito deduciendo

propiedades de las medidas ya desde M.H. Stone en 1932, O. Blumental en 1998, por

J. Dombrowski 1978-87 o por E.A. Rakhmanov 1983 -87. Estos operadores vienen

definidos por matrices cuyas entradas guardan mucha informacion sobre la medida.

Es en este contexto matricial donde desarrollaremos nuestra investigacion con el

objeto de descubrir propiedades de las medidas en terminos de propiedades de las

matrices de momentos y de Hessenberg asociadas a estas medidas. La mayor parte de

los resultados que se van a presentar en la memoria utilizan tecnicas que requieren

de la teorıa de la medida, polinomios ortogonales, teorıa de operadores y analisis

funcional. De hecho, la sucesion de polinomios ortonormales con respecto a una cierta

medida con soporte acotado en el plano complejo es una base infinita ortonormal con

respecto a un cierto producto interior que induce la matriz de momentos. Ademas

el operador multiplicacion por z sobre los polinomios esta representado por una

matriz infinita Hessenberg superior. Estas matrices y sus secciones finitas verifican

ciertas relaciones que nos van a permitir obtener informacion sobre la medida. Este

es el punto esencial que nos permitira sumergir el estudio de dichos polinomios en el

contexto mas amplio de los espacios de Hilbert. Por ello las herramientas del Algebra

Lineal para espacios vectoriales de dimension finita e infinita resultaran esenciales

en este trabajo.

En lo que sigue recordamos algunos conceptos fundamentales sobre la teorıa de

los polinomios ortogonales.

Denotaremos por D = z; |z| < 1 el disco unidad y T = z; |z| = 1 denotara la

circunferencia unidad. Dada una matriz D (finita o infinita) denotaremos por DT la

matriz traspuesta de D y por D∗ la traspuesta conjugada de la matriz D y en la

misma forma lo haremos para vectores. Si D es un operador, D⋆ denotara el operador

adjunto de D. Consideraremos N0 = N∪0.

18

1.2 Teorıa de polinomios ortogonales, matrices infinitas y operadores

1.2.1. Matrices de momentos y polinomios ortogonales

Consideraremos a lo largo de la memoria que µ es una medida Borel de probabilidad

con soporte Supp(µ) acotado en el plano complejo y en general con infinitos puntos

de crecimiento efectivo.

denotaremos L2(µ) el espacio de Hilbert de las funciones f : C → C tales que∫|f(z)|2dµ < ∞.

Se define en el espacio L2(µ) el producto interior usual. Consideraremos la inclu-

sion canonica del espacio vectorial P[z] de polinomios de variable compleja en L2(µ),

con el producto interior ∀Q(z), R(z) ∈ P[z] que viene expresado por

⟨Q(z), R(z)⟩µ =

∫Supp(µ)

Q(z)R(z)dµ(z).

Sea zn∞n=0 la base canonica, aplicando el proceso de Gram Schmidt se obtiene

una sucesion de polinomios ortonormales, abreviadamente SPON, Pn(z)∞n=0 aso-

ciados a la medida µ. Los coeficientes de estos polinomios pueden ser complejos,

aunque elegiremos el coeficiente conductor del polinomio Pn(z) real y positivo para

determinarla de manera unica. Asimismo si bn,n es el coeficiente conductor de Pn(z),

denotaremos por Pn(z)∞n=0, con Pn(z) =1

bn,nPn(z), la sucesion de polinomios moni-

cos. Recordemos tambien que para cada n ∈ N, el n-nucleo en z, w ∈ C se define

como Kn(z, w) =∑n

k=0 Pk(z)Pk(w).

Recordemos que el momento (i, j) asociado a la medida µ es

cij = ⟨zi, zj⟩ =∫

zizjdµ(z) para todo i, j ∈ N0,

y que su matriz de momentos es la matriz infinita hermitiana definida positiva,

abreviadamente HDP,

M(µ) =

c00 c10 c20 . . .

c01 c11 c21 . . .

c02 c12 c22 . . .

......

.... . .

.

19

PRELIMINARES

Observacion 1.2.1. Si denotamos por Mn la seccion n-esima de la matriz M(µ) se

tiene que |Mn| > 0 para todo n ∈ N0 puesto que M(µ) es HDP. Si el soporte de µ

tuviera un numero finito de puntos de crecimiento efectivo (soporte= numero finito

de atomos) la SPON serıa finita y M serıa semidefinida positiva, esto es, |Mn| ≥ 0,

para todo n ∈ N0.

Consideramos el espacio C00 de las sucesiones complejas con una cantidad finita

de terminos no nulos, es decir,

C00 = (vn)∞n=0 tales que existe n0 ∈ N con vn = 0 para n ≥ n0.

La identificacion de P[z] con el espacio C00 nos permite usar la matriz infinita de

momentos para representar el producto interior. Ası, si p(z) = v0 + · · · + vnzn lo

identificamos con el vector infinito v = (v0, . . . , vn, 0, 0, . . . ) ∈ C00.

Dados dos polinomios cualesquiera p(z), q(z) ∈ P[z], digamos p(z) = v0+· · ·+vnzn

y q(z) = w0+ · · ·+wmzm, y los vectores correspondientes v = (v0, . . . , vn, 0, 0, . . . ) y

w = (w0, . . . , wm, 0, 0, . . . ), podemos representar el producto interior matricialmente

a traves de la matriz de momentos M(µ)

∫p(z)q(z)dµ =

(w0 w1 . . .

)M(µ)

v0

v1...

= wM(µ)vt = vM t(µ)w∗,

donde vt, v y v∗ denotan los vectores traspuesto, conjugado y traspuesto conjugado

de v, respectivamente. Muchos autores representan el producto interior a traves de

la ultima expresion vM t(µ)w∗, y llaman matriz de momentos a la matriz traspues-

ta, M t(µ). A lo largo de este trabajo manejaremos la primera expresion salvo en

el capıtulo 4 que para mayor comodidad de lectura de las formulas se utilizara la

segunda expresion.

El espacio P 2(µ), denotara el espacio de Hilbert que consiste en la compleccion

de P[z] con la norma definida a partir del producto interior ⟨, ⟩µ, esto es, el cierre de

20

1.2 Teorıa de polinomios ortogonales, matrices infinitas y operadores

P[z] in L2(µ). Si dada una medida µ, los polinomios son densos en L2(µ) tenemos

que P 2(µ) = L2(µ) y se dice que estamos en un caso completo.

A continuacion veremos como el hecho de que el soporte de la medida asociada

este contenido en la recta real, en la circunferencia unidad o en el plano complejo,

determina diferentes tipos de matrices de momentos.

Sea µ una medida con soporte en la recta real. En este caso los momentos cij son

reales y se tiene que para cada i, j ∈ N0

cij =

∫zizjdµ =

∫Rxi+jdµ = si+j ∈ R,

por lo que la matriz infinita de momentos sera del tipo:

s0 s1 s2 s3 . . .

s1 s2 s3 s4 . . .

s2 s3 s4 s5 . . .

s3 s4 s5 s6 . . .

......

......

. . .

.

A continuacion mostraremos un ejemplo de este tipo de matriz conocida como matriz

de Hankel.

Ejemplo 1.2.2. La medida de Lebesgue en el intervalo [0, 1] tiene por momentos

cij =

∫ 1

0

xi+jdx =1

i+ j + 1para cada i, j ∈ N0 .

La matriz de momentos asociada a esta medida es:

H =

1 1/2 1/3 . . .

1/2 1/3 1/4 . . .

1/3 1/4 1/5 . . .

......

.... . .

,

que es conocida como la matriz de Hilbert.

21

PRELIMINARES

Consideramos ahora una medida ν sobre la circunferencia unidad T.

Teniendo en cuenta que si z ∈ T se tiene que z =1

zentonces

cij =

∫Tzizjdν =

∫Tzi−jdν = ci−j ∈ C,

y por lo tanto la matriz de momentos sera

c0 c1 c2 c3 . . .

c−1 c0 c1 c2 . . .

c−2 c−1 c0 c1 . . .

c−3 c−2 c−1 c0 . . .

......

......

. . .

,

donde c−i = ci y c0 = ν(T) ∈ R. Estas matrices que son constantes en todas las

subdiagonales principales son conocidas como matrices de Toeplitz. En el siguiente

ejemplo veremos una matriz de momentos de este tipo.

Ejemplo 1.2.3. La medida de Lebesgue normalizada en la circunferencia unidad

viene dada por dν(θ) = 12πdθ. Expresando z = eiθ = cos θ + i sen θ, los momentos

seran

ck−j = ck,j =

∫Tzk−jdν =

1

∫ 2π

0

ei(k−j)θdθ = δk−j

donde δk−j = 0 si k = j y δk−j = 1 si j = k. La matriz que queda es claramente la

matriz identidad

1 0 0 . . .

0 1 0 . . .

0 0 1 . . .

......

.... . .

.

En este caso la SPON es la sucesion 1√2π

zn∞n=0 y P 2(m) = H2 es el espacio

de Hardy en el disco unidad y podemos identificar, como es usual, las funciones de

H2 con los vectores de ℓ2(N0); mas precisamente, ∥∑∞

k=0 akzk∥2H2 =

∑∞k=0 |ak|2 para

cada (an)∞n=1 ∈ ℓ2(N0).

22

1.2 Teorıa de polinomios ortogonales, matrices infinitas y operadores

1.2.2. Matrices de Hessenberg y el operador multiplicacion

por z

En el espacio de Hilbert P 2(µ), consideramos el operador multipiplicacion por

z que denotaremos por Sµ definido por Sµ : P 2(µ) → P 2(µ) con Sµ(f) = zf para

todo f ∈ P 2(µ). Este operador es un operador acotado puesto que el soporte de µ

es acotado.

Consideramos D = (djk)∞j,k=0 la matriz infinita que representa este operador en

la base ortonormal que forma la SPON Pn(z)∞n=0. Esta claro que de la definicion

de operador multiplicacion por z se deduce la formula de recurrencia larga para la

SPON

zPn(z) =n+1∑k=0

dk,nPk(z), n ≥ 0, (1.1)

con P0(z) = 1 cuando c00 = 1.

Teniendo en cuenta esta relacion se obtiene la siguiente expresion de la matriz

infinita Hessenberg superior D

D =

d00 d01 d02 d03 . . .

d10 d11 d12 d13 . . .

0 d21 d22 d23 . . .

0 0 d32 d33 . . .

......

......

. . .

.

Podemos considerar que la matriz infinita D define un operador de Hessenberg

acotado D : ℓ2(N0) → ℓ2(N0), dado por D(v) = Dv, si v ∈ ℓ2(N0). Por ello nos

referiremos a este operador D, aunque hablemos de la matriz D asociada a la matriz

de momentos M . De lo anterior se deduce que D es unitariamente equivalente a Sµ,

por esto nos referiremos en general a D aunque muchos resultados sean ciertos para

Sµ.

Esta matriz de Hessenberg D es la generalizacion de la conocida tridiagonal de

Jacobi al plano complejo.

23

PRELIMINARES

En [Con85, Hal84] se encuentran las siguientes definiciones y resultados que usa-

remos a lo largo de la memoria en relacion al tipo de normalidad de un operador

acotado D, definido en un espacio de Hilbert H.

Definicion 1.2.4. Un operador D, se dice que es normal si D∗D = DD∗; se dice

que es cuasinormal si DD∗D = DD∗D; se dice que es hiponormal si D∗D−DD∗ ≥ 0

y, por ultimo, se dice que es subnormal si existe un operador normal N y un espacio

Hilbert K ⊃ H, tal que N : K −→ K, con N(H) ⊂ H y D = N |H .

Proposicion 1.2.5. Se verifica la siguiente cadena de implicaciones

D normal =⇒ D es cuasinormal =⇒ D es subnormal =⇒ D es hiponormal.

Proposicion 1.2.6. Sea µ una medida de Borel de probabilidad con soporte acotado

en C, Sµ y Nµ el operador multipiplicacion por z en P 2(µ) y en L2(µ), respectiva-

mente. Entonces, se tiene que Nµ siempre es normal y Sµ es subnormal y se verifica

que Nµ = men(Sµ), donde men(Sµ) denota la mınima extension normal de Sµ.

Ademas la medida µ esta determinada por la medida espectral del operador Nµ,

es decir,

dµ(z) = ⟨dEze0, e0⟩.

Ademas el soporte de µ es el espectro de Nµ. Es decir, σ(Nµ) = Supp(µ)

De los resultados anteriores se deduce que si D es subnormal y acotado, enton-

ces su mınima extension normal admite una representacion matricial, unitariamente

semejante a Nµ, que viene dada por

N =

D X

0 Y

,

verificandose σ(N) = Supp(µ).

24

1.2 Teorıa de polinomios ortogonales, matrices infinitas y operadores

1.2.3. Matrices de Hessenberg asociadas a matrices HDP

Muchas demostraciones de resultados que aparecen en el ambito de los polinomios

ortogonales no requieren la existencia de una medida y son en realidad consecuencias

de propiedades algebraicas.

Dada una matriz HDP M = (cij)∞i,j=0, el producto interior definido por M en P[z]

hace que este espacio sea pre-Hilbert y denotaremos por P 2(M) el espacio de Hilbert

obtenido como su complecion. Aplicando Gram-Schmidt a zn para n = 0, 1, 2, . . . ,

obtenemos una sucesion de polinomios ortonormales asociada a M , Pn(z)∞n=0, que

es unica suponiendo grado(Pn) = n y coeficiente conductor de Pn(z) positivo. Pode-

mos definir tambien el operador multiplicacion por z en el espacio de Hilbert P 2(M)

y obtener la matriz D que representa este operador con respecto al anterior SPON .

Esta matriz se denominara matriz de Hessenberg asociada a M .

En [GT93] y [Tor87] se prueba el siguiente resultado que relaciona las matrices

M y D.

Proposicion 1.2.7. La matriz HDP M y su matriz de Hessenberg asociada D estan

relacionadas mediante las siguientes formulas

D = T ∗S(T ∗)−1 = T−1M ′(T ∗)−1, (1.2)

donde se denota por M ′ la matriz obtenida al eliminar la primera columna de la

matriz M . Sean Mn y M ′n las secciones n- esimas de M y M ′ respectivamente. T

denota la matriz infinita cuya seccion n-esima es el factor triangular inferior Tn, en

la descomposicion de Cholesky Mn = TnT∗n y S la conocida matriz del shift-right.

Observacion 1.2.8. Los productos de matrices anteriores estan bien definidos pues-

to que las matrices infinitas T, T ∗, (T ∗)−1, T−1 son triangulares y D y S definen

operadores acotados en ℓ2(N0). En la demostracion de este resultado la matriz de

Hessenberg superior D se obtiene a partir de la matriz M, de una manera puramente

25

PRELIMINARES

algebraica por secciones mediante la identidad

Dn = T−1n M ′

n(T∗n)

−1. (1.3)

La sucesion de matrices Dn es consistente en el sentido de que Dn es submatriz

principal de Dn+1, con n ∈ N, en el mismo sentido lo son Mn, Tn y T−1n . Ademas se

prueba que D tiene subdiagonal estrictamente positiva y que el polinomio monico

Pn(z) viene determinado por Pn(z) = |Inz −M−1n M ′

n|, para cada n = 1, 2, . . ..

Por otro lado, se prueba que dada la matriz infinita M = (cij)∞i,j=0 HDP y la

matriz de Hessenberg D construida por el procedimiento anterior, se cumple que

cij = ⟨Dine0, D

jne0⟩, 0 ≤ i, j ≤ n− 1, (1.4)

siendo et0 = (1, 0, 0, 0, . . . , 0) ∈ ℓ2(N0).

Destacamos tambien que de la factorizacion de Cholesky Mn = TnT∗n se despren-

de que (T ∗n)

−1 es la matriz de cambio de base de Pn(z)n−1n=0 a znn−1

n=0 para todo n.

El Problema de los Momentos acotado asociado a una cierta matriz hermi-

tiana definida positiva M = (cij)∞i,j=0, trata de responder cuando podemos asegurar

que existe una medida de Borel µ con soporte acotado en el plano complejo tal que

M es la matriz de momentos asociada a dicha medida, es decir, que para todo i, j ≥ 0

cij =

∫zizjdµ.

Observacion 1.2.9. Si existe la medida µ, es unica puesto que el problema acotado

siempre es determinado (Atzmon (1975)[Atz75] y Tomeo(2004) [Tom04]).

Es bien conocido que en los casos de medidas con soporte en R o con soporte en

la circunferencia unidad, basta con que la matriz M sea definida positiva para que

exista una medida cuya matriz de momentos co8incida conM . En el contexto general

26

1.2 Teorıa de polinomios ortogonales, matrices infinitas y operadores

no es cierto. Un ejemplo sin medida. Consideremos la matriz HDP M = (cij)∞i,j=0

tal que cij = mın(i, j) + 1, es decir

M =

1 1 1 1 . . .

1 2 2 2 . . .

1 2 3 3 . . .

1 2 3 4 . . .

......

......

. . .

.

Se prueba trivialmente por induccion que |Mn| = 1, n = 1, 2, . . .. La descomposicion

de Cholesky en este caso es sencilla, vamos a efectuarla para las submatrices 4 × 4

por razones de espacio

1 1 1 1

1 2 2 2

1 2 3 3

1 2 3 4

=

1 0 0 0

1 1 0 0

1 1 1 0

1 1 1 1

1 1 1 1

0 1 1 1

0 0 1 1

0 0 0 1

.

Por otro lado, tenemos

T−14 =

1 0 0 0

−1 1 0 0

0 −1 1 0

0 0 −1 1

y M ′

4 =

1 1 1 1

2 2 2 2

2 3 3 3

2 3 4 4

.

Por tanto,

1 0 0 0

1 0 0 0

0 1 0 0

0 0 1 0

=

1 0 0 0

−1 1 0 0

0 −1 1 0

0 0 −1 1

1 1 1 1

2 2 2 2

2 3 3 3

2 3 4 4

1 −1 0 0

0 1 −1 0

0 0 1 −1

0 0 0 1

.

27

PRELIMINARES

La matriz D en este caso es

D =

1 0 0 0 0 . . .

1 0 0 0 0 . . .

0 1 0 0 0 . . .

0 0 1 0 0 . . .

0 0 0 1 0 . . .

......

......

.... . .

.

La afirmacion de que la matriz M no es de momentos se prueba facilmente si obser-

vamos que la diagonal principal de M no verifica la desigualdad de Cauchy-Schwartz.

Si la matriz fuera de momentos existirıa un recinto Ω y una medida µ(z) tales que

cnn =

∫Ω

znzndµ(z) =

∫Ω

|z|2ndµ(z)

=

∫Ω

|z|n−1|z|n+1dµ(z) ≤

√∫Ω

(|z|n−1)2dµ(z)

∫Ω

(|z|n+1)2dµ(z)

=√cn−1,n−1

√cn+1,n+1.

Pero en este caso tenemos cn−1,n−1cn+1,n+1 = (n− 1)(n+ 1) = n2 − 1 < n2 = c2nn.

Por tanto, M no es una matriz de momentos, pero el producto interior definido

por M en el espacio de Hilbert P 2(M) y el operador definido por D tienen perfecto

sentido.

Las condiciones dadas en Torrano-Guadalupe [GT93] y Tomeo[Tom04] (2004) se

resumen en el teorema siguiente.

Teorema 1.2.10. Una matriz M infinita HDP , es una matriz de momentos para

el caso acotado, si y solo si, la matriz de Hessenberg infinita D a asociada a M es

acotada y define un operador subnormal en ℓ2(N0).

La medida µ, que es unica, esta determinada por la medida espectral del operador

normal N , mınima extension normal del operador D, que notaremos como men(D),

28

1.2 Teorıa de polinomios ortogonales, matrices infinitas y operadores

es decir

dµ(z) = ⟨dEze0, e0⟩.

Ademas, N = men(D). Es decir σ(N) = Supp(µ).

En [Atz75] se da una condicion necesaria y suficiente para que una matriz HDP

M sea una matriz de momentos y exista una medida de Borel positiva µ en el disco

unidad verificando algunas condiciones y en [GT93] se extiende este resultado en

el caso en que la matriz de Hessenberg D defina un operador acotado en ℓ2(N0),

demostrando que la subnormalidad de la matriz D es equivalente a que M sea de

momentos.

29

Capıtulo 2

MATRICES DE MOMENTOS DE

MEDIDAS AUTOSEMEJANTES

En este capıtulo presentaremos un teorema del punto fijo para matrices de mo-

mentos de medidas autosemejantes. Veremos que la propiedad de autosemejanza de

la medida invariante, µ, asociada a un SFI de semejanzas contractivas en el plano

complejo con probabilidades, se traduce en una ecuacion matricial que verifica la

matriz de momentos de la medida. De esta relacion obtenemos a su vez la expresion

del comportamiento recurrente de los momentos cij(µ) que generaliza el caso real

[Ma96]. Ademas nos va a permitir definir un algoritmo iterativo definido sobre un

espacio muy amplio de matrices que aproxima la matriz de momentos de la medida

µ y determinar su velocidad de convergencia.

A lo largo de este capıtulo vamos a considerar que los SFI con probabilidades

Φ = φ1, φ2, . . . , φk ; p1, p2, . . . , pk con ps > 0 para s = 1, 2, . . . , k yk∑

s=1

ps = 1,

estaran formados por semejanzas contractivas en el plano complejo, de la forma

φs(z) = αsz + βs con |αs| < 1, para s = 1, 2, · · · , k.

31

MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES

2.1. Transformaciones de matrices de momentos

por semejanzas

Para obtener el resultado central de este capıtulo, utilizaremos los resultados

siguientes de E. Torrano [Tor87] que establecen la forma de obtener la matriz de

momentos de la medida inducida por una transformacion de semejanza en el plano

complejo, conocida la matriz de momentos de la medida inicial.

Proposicion 2.1.1. Sea µ una medida con soporte en el plano complejo C y sea Mn

la seccion de orden n de su matriz de momentos. Sea f(z) = αz + β una semejanza

en C. Consideramos la medida imagen de µ por f , µf = µf−1. Entonces la seccion

de orden n de la matriz de momentos M f de µf viene dada por

M fn = A⋆

f,n Mn Af,n, siendo Af,n = (aij)ni,j=1 =

(j − 1

i− 1

)αi−1βj−i si j ≥ i

0 si j < i,

(2.1)

Las siguientes propiedades derivadas de las expresiones matriciales anteriores son

inmediatas y se pueden encontrar en [Tor87].

Proposicion 2.1.2. En las condiciones de la proposicion anterior, se verifican las

siguientes propiedades:

i) Af,n = Aαz,nAz+β,n.

ii) Aαz+β,nAγz+δ,n = Aαγz+βγ+δ,n.

iii) A−1αz+β,n = A z

α− β

α,n.

iv) |M fn | = |α|n(n−1)|Mn|.

Notese que, como consecuencia de la ultima propiedad, la matriz M es HDP si y

solo si M f es HDP.

32

2.1 Transformaciones de matrices de momentos por semejanzas

Observacion 2.1.3. A partir de la expresion (2.1), obtenemos la siguiente matriz

infinita Af

Af =

(00

)α0β0

(10

)α0β1

(20

)α0β2

(30

)α0β3 . . .

0(11

)α1β0

(21

)α1β1

(31

)α1β2 . . .

0 0(22

)α2β0

(32

)α2β1 . . .

0 0 0(33

)α3β0 . . .

......

......

. . .

La relacion matricial (2.1), se puede extender claramente a matrices infinitas

esto es M f = A⋆fMAf . Ademas, esta expresion se puede interpretar como un cambio

de base en el espacio de los polinomios P [z], donde M f es la matriz de Gram del

producto escalar respecto de la base 1, f(z), (f(z))2, (f(z))3, . . . .

Ejemplo 2.1.4. Consideremos la medida de Lebesgue normalizada sobre la circun-

ferencia de modo que c00 = 1.

cjk =1

∫ π

−π

[eiθ]j[e−iθ]kdθ =1

∫ π

−π

ei(j−k)θdθ = δjk.

Como vimos en el Ejemplo 1.2.3 la matriz de momentos es la matriz identidad, que

es una matriz de Toeplitz.

Si trasladamos la medida mediante f(z) = z + 1, esto es, α = 1 y β = 1, obten-

dremos la medida de Lebesgue normalizada en la circunferencia unidad centrada en

el elemento (1, 0). Aplicando la Proposicion 2.1.1, la matriz de momentos pasa a ser

la llamada matriz de Pascal. Por ejemplo para n = 5 tendremos que M f5 sera

1 0 0 0 0

1 1 0 0 0

1 2 1 0 0

1 3 3 1 0

1 4 6 4 1

1 0 0 0 0

0 1 0 0 0

0 0 1 0 0

0 0 0 1 0

0 0 0 0 1

1 1 1 1 1

0 1 2 3 4

0 0 1 3 6

0 0 0 1 4

0 0 0 0 1

=

1 1 1 1 1

1 2 3 4 5

1 3 6 10 15

1 4 10 20 35

1 5 15 35 70

que obviamente no es un matriz de Toeplitz.

33

MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES

2.2. Matrices de momentos y formulas de recu-

rrencia

El resultado siguiente nos permite obtener formulas de recurrencia para los mo-

mentos de las medidas autosemejantes en el plano complejo que generaliza la dada

por G. Mantica para el caso real [Ma96]. En el capıtulo 1 seccion 1.1.2, se introdujeron

las medidas autosemejantes asociadas a SFI con probabilidades, y el espacio metrico

(MP (X), dH ) de las medidas de probabilidad Borel con la metrica de Hutchinson.

Como ya hemos dicho, a lo largo de este capıtulo vamos a considerar el SFI con

probabilidades, formado por semejanzas contractivas

Φ = φ1, φ2, . . . , φk; p1, p2, . . . pk.

Teorema 2.2.1. Sea µ la medida invariante asociada al SFI con probabilidades

Φ = φ1, φ2, . . . , φk; p1, p2, . . . pk,

formados por semejanzas contractivas φs(z) = αsz + βs, para cada s = 1, 2, . . . , k.

Entonces, las secciones Mn de la matriz de momentos de µ satisface la siguiente

relacion matricial

Mn =k∑

s=1

psMφsn ,

donde Mφsn es la seccion de orden n de la matriz de momentos de la medida imagen

de µ bajo la semejanza φs. Ademas,

cij =1

1−k∑

s=1

psαisαs

j

i,j∑m=0,l=0(m,l) =(i,j)

(i

m

)(j

l

)( k∑s=1

psβi−ms βs

j−lαms αs

l

)cml. (2.2)

Demostracion. Utilizando la Proposicion 2.1.1, para cada s = 1, 2, . . . , k, podemos

obtener la seccion n-esima de la matriz de momentos de la medida imagen µφs a

partir de las matrices Aφs,n, que por simplicidad denotaremos por As,n,

Mφsn = A⋆

s,n Mn As,n, donde As,n = (ai,j)ni,j=1 =

(j − 1

i− 1

)αi−1βj−i j ≥ i

0 j < i,

34

2.2 Matrices de momentos y formulas de recurrencia

Ahora, usando la siguiente propiedad de las medidas autosemejantes (ver por

ejemplo [Fal97] y [Ma96]),

∫X

fdµ =k∑

s=1

ps

∫X

f φs =k∑

s=1

ps

∫X

f φsdµ, (2.3)

conseguimos expresar la matriz de momentos de µ en terminos de las matrices de

momentos de las medidas inducidas por los elementos del SFI Φ y por ello en terminos

congruentes con ella misma

Mn =k∑

s=1

psMφsn =

k∑s=1

psA⋆s,n Mn As,n.

De esta formula obtenemos la formula de recurrencia para los momentos cij,

cij =k∑

s=1

ps

i,j∑m=0,l=0

(i

m

)(j

l

)βi−ms βs

j−lαms αs

lcml

=1

1−k∑

s=1

psαisαs

j

i,j∑m=0,l=0(m,l)=(i,j)

(i

m

)(j

l

)( k∑s=1

psβi−ms βs

j−lαms αs

l

)cml.

Ejemplo 2.2.2. Si consideramos el SFI con probabilidades

Φ = φ1(z) = z/2−1/2, φ2(z) = z/2+1/2, φ3(z) = z/2+√3i/2; p1 = p2 = p3 = 1/3

obtenemos el triangulo Sierpinski con base el intervalo [−1, 1] y la medida autose-

mejante asociada a Φ

Figura 2.1: Triangulo de Sierpinski

35

MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES

La formula recurrente para sus momentos sera

cij =4

9

i,j∑m=0,l=0(m,l)=(i,j)

(i

m

)(j

l

)1

2i+j

[(−1)i−m+j−l + 1 +

√3i−m+j−l

]cml.

2.2.1. Caso real y la convolucion infinita de Bernoulli

En el caso real la matriz de momentos es una matriz de Hankel y obviamente

cij = c0,i+j = Si+j, esto nos permite recuperar la formula de recurrencia para el caso

real

Sn =1

1−∑k

s=1 psαns

k∑s=1

ps

n−1∑j=0

(n

j

)βn−js αj

sSj, (2.4)

o analogamente

Sn =1

1−∑k

s=1 psαns

n−1∑j=0

(n

j

)( k∑s=1

psβn−js αj

s

)Sj. (2.5)

Si consideramos que todas las semejanzas tienen la misma razon r, la formula

anterior queda

Sn =1

1− rn

n−1∑j=0

(n

j

)( k∑s=1

psβn−js

)rjSj. (2.6)

Este es el caso de la convolucion infinita de Bernoulli donde µr es la medi-

da invariante (Teorema 1.1.18) para el operador de Markov asociado al sistema de

semejanzas contractivas con probabilidades

Φr =

φ1(x) = rx+ β1, φ2(x) = rx+ β2; p1 = p2 =

1

2

con r ∈ (0, 1).

Si β1 = r−1 y β2 = 1− r, se tiene la convolucion infinita de Bernoulli en el intervalo

[−1, 1]. Cuando β1 = 0 y β2 = 1 − r, se tiene en [0, 1]. Como vimos en el primer

capıtulo, esta medida tiene como soporte el conjunto autosemejante asociado al SFI

anterior. De esta forma, si r ∈ (0,1

2) el soporte sera un conjunto de Cantor de razon

r, contenido en el intervalo [−1, 1] y por tanto, la medida µr sera singular. Cuando

r =1

2, µr es la media de Lebesgue normalizada en [−1, 1] asociada a los polinomios

36

2.2 Matrices de momentos y formulas de recurrencia

de Legendre.

La convolucion infinita de Bernoulli (ver trabajos de P. Erdos [Erd39], A. Garsia

[Gar63] y B. Jessen y A. Wintner [JW35] ) ha sido estudiada desde 1935 y todavıa

quedan muchas cuestiones sin resolver. Una de estas cuestiones es saber cuando

la medida µr es absolutamente continua o singular. Erdos [Erd40] y Salem [Sal44]

probaron que si r es el inverso de cierto tipo de numeros algebraicos, los numeros de

Pisot-Vajayaraghvan, µr es singular. Un ejemplo de este tipo es el caso del inverso de

la razon aurea. A finales del siglo pasado, se han vuelto a retomar estas cuestiones y

se han publicado numerosos resultados que se derivan del caracter autosemejante de

esta medida [EST03, Fis95, GW93, Hu97, Ma96]. En 1996, B. Solomyak [PS96, Sol98]

probo que para1

2< r < 1 la convolucion infinita de Bernoulli µr es absolutamente

continua casi en todo punto.

Segun la seccion anterior, la relacion entre las secciones de las matrices de mo-

mentos de µ y las de las medidas inducidas por φ1 y φ2 seran

Mφ1n = A⋆

1,n Mn A1n, con A1,n = (aij)ni,j=1 =

(j − 1

i− 1

)ri−1(r − 1)j−i si j ≥ i

0 si j < i,

Mφ2n = A⋆

2,n Mn A2,n, con A2,n = (aij)ni,j=1 =

(j − 1

i− 1

)ri−1(1− r)j−i si j ≥ i

0 si j < i,

(2.7)

En este caso las dos matrices usadas para obtener la matriz de momentos de la

medida imagen por las dos semejanzas del SFI son muy parecidas, porque los radios

de contraccion son iguales y los coeficientes de traslacion son opuestos, ası se tiene

37

MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES

que A1,n(i, j) = (−1)i+jA2,n(i, j) si j ≥ i

A1,5 =

(00

)r0(r − 1)0

(10

)r0(r − 1)1

(20

)r0(r − 1)2

(30

)r0(r − 1)3

(40

)r0(r − 1)4

0(11

)r1(r − 1)0

(21

)r1(r − 1)1

(31

)r1(r − 1)2

(41

)r1(r − 1)3

0 0(22

)r2(r − 1)0

(32

)r2(r − 1)1

(42

)r2(r − 1)2

0 0 0(33

)r3(r − 1)0

(43

)r3(r − 1)1

0 0 0 0(44

)r4(r − 1)0

,

A2,5 =

(00

)r0(1− r)0

(10

)r0(1− r)1

(20

)r0(1− r)2

(30

)r0(1− r)3

(40

)r0(1− r)4

0(11

)r1(1− r)0

(21

)r1(1− r)1

(31

)r1(1− r)2

(41

)r1(1− r)3

0 0(22

)r2(1− r)0

(32

)r2(1− r)1

(42

)r2(1− r)2

0 0 0(33

)r3(r − 1)0

(43

)r3(1− r)1

0 0 0 0(44

)r4(1− r)0

.

A partir de la formula (2.6) obtenemos la formula de recurrencia para los momentos

de orden par de la convolucion infinita de Bernoulli µr

S2n =(1− r)2n

1− r2n

n−1∑j=0

(2n

2j

)(r

1− r

)2j

S2j, n = 1, 2, 3, . . . ,

siendo S0 = 1; y los momentos de orden impar son nulos por la simetrıa. Si ademas

r es el inverso de la razon aurea, r =

√5− 1

2y se verifica que

r

1− r=

1

r.

Sustituyendo en la formula anterior tenemos

S2n =(r2)2n

1− r2n

n−1∑j=0

(2n

2j

)(S2j

r2j

), n = 1, 2, 3, . . . ,

Ejemplo 2.2.3. En el caso de la convolucion infinita de Bernoulli cuando r =1

3, µr

es la medida uniforme sobre el conjunto ternario de Cantor en el intervalo [−1, 1].

La expresion de la formula de recurrencia de los momentos es

S2n =22n

32n − 1

n−1∑j=0

(2n

2j

)(S2j

22j

), n = 1, 2, 3, . . . ,

y nos permite obtener la matriz de momentos de orden n.

En este caso, para n = 5 tenemos,

38

2.2 Matrices de momentos y formulas de recurrencia

M5 =

1 0 12

0 720

0 12

0 720

0

12

0 720

0 205728

0 720

0 205728

0

720

0 205728

0 10 24142 640

y las matrices A2,5 y A∗2,5

A2,5 =

1 0 0 0 0

23

13

0 0 0

49

49

19

0 0

827

49

29

127

0

1681

3281

827

881

181

, A∗

2,5 =

1 23

49

827

1681

0 13

49

49

3281

0 0 19

29

827

0 0 0 127

881

0 0 0 0 181

Verificandose que M5 =1

2Mφ1

5 +1

2Mφ2

5 .

Usando la formula recurrente para los momentos vista en el Teorema 2.2.1, cal-

culamos los momentos de la medida invariante para el sistema Φ y obtenemos

s0 = 1, s1 = 0, s2 =1

2, s3 = 0, s4 =

7

20, s5 = 0, s6 =

205

728, s7 = 0, s8 =

10241

42640.

Utilizando la conocida expresion para obtener los polinomios monicos a partir de la

matriz de momentos, obtenemos los primeros polinomios monicos de la medida de

39

MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES

Cantor.

x,

x2 − 1

2,

x3 − 7

10x,

x4 − 97

91x2 +

333

1820,

x5 − 1785

1517x3 +

143833

552188x,

x6 − 189964505

112825966x4 +

7410073867

9251729212x2 − 156207248595

1683814716584,

x7 − 4548711144551

2534028699430x5 +

6972489245973139

7481466332197132x3 − 4855955749246420947

39876215550610713560x,

xK1,0 K0,5 0 0,5 1,0

K1,0

K0,5

0,5

1,0

Si asignamos diferentes probabilidades a cada semejanza en el SFI del ejemplo

anterior obtenemos una convolucion infinita de medidas con pesos. Para r =1

3y

probabilidades2

3,1

3obtenemos una medida no simetrica en un conjunto de Cantor

contenido en el intervalo [−1, 1]. Las matrices A1,n y A2,n son las mismas que antes,

40

2.2 Matrices de momentos y formulas de recurrencia

y tenemos en este caso,

Mφ1

5 = A⋆1,5M5A1,5

=

1 −79

5381

−18293159

75 139142 155

−79

5381

−18293159

75 139142 155

−15 233 30530 961 359

5381

−18293159

75 139142 155

−15 233 30530 961 359

559 966 7091207 493 001

−18293159

75 139142 155

−15 233 30530 961 359

559 966 7091207 493 001

− 5236 263 395 78311 878 108 650 837

75 139142 155

−15 233 30530 961 359

559 966 7091207 493 001

− 5236 263 395 78311 878 108 650 837

9240 140 043 317 73721 915 110 460 794 265

,

Mφ2

5 = A⋆2,5M5A2,5

=

1 59

2981

8233159

29 299142 155

59

2981

8233159

29 299142 155

5319 75530 961 359

2981

8233159

29 299142 155

5319 75530 961 359

178 630 6371207 493 001

8233159

29 299142 155

5319 75530 961 359

178 630 6371207 493 001

1544 687 605 50111 878 108 650 837

29 299142 155

5319 75530 961 359

178 630 6371207 493 001

1544 687 605 50111 878 108 650 837

2541 691 310 236 29721 915 110 460 794 265

,

y

M5 =

1 −13

59

− 35117

7391755

−13

59

− 35117

7391755

− 34 495127 413

59

− 35117

7391755

− 34 495127 413

593 7651656 369

− 35117

7391755

− 34 495127 413

593 7651656 369

−1360 743 6655431 233 951

7391755

− 34 495127 413

593 7651656 369

−1360 743 6655431 233 951

1068 026 794 5373340 208 879 865

.

Verificandose ahora que M5 =2

3Mφ1

5 +1

3Mφ2

5 .

Ejemplo 2.2.4. La medida normalizada Lebesgue en [−1, 1] es la convolucion infi-

nita de Bernoulli para r =1

2con probabilidades p1 =

1

2, p2 =

1

2. Para esta medida

es bien conocida la matriz de momentos y la seccion de orden 5 sera

41

MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES

Mφ1

5 =

1 0 13

0 15

0 13

0 15

0

13

0 15

0 17

0 15

0 17

0

15

0 17

0 19

.

En este caso las matrices A1,5 y A⋆1,5 seran

A1,5 =

1 0 0 0 0

12

12

0 0 0

14

12

14

0 0

18

38

38

18

0

116

14

38

14

116

y A⋆

1,5 =

1 12

14

18

116

0 12

12

38

14

0 0 14

38

38

0 0 0 18

14

0 0 0 0 116

.

Luego se verifica que M5 =1

2Mφ1

5 +1

2Mφ2

5 . Notese que por la simetrıa se tiene que

Mφ1n (i, j) = (−1)i+jMφ2

n (i, j).

2.2.2. Funcion generatriz exponencial de momentos

La formula de recurrencia (2.5) para los momentos de la medida autosemejante

en el caso de soporte real que vimos en la seccion anterior es equivalente a

Sn =k∑

s=1

ps

n∑j=0

(n

j

)βn−js αj

sSj. (2.8)

La funcion exponencial generatriz de estos momentos (egf) F satisface

F (x) =k∑

s=1

psF (αsx) e(βsx).

En el caso de que las razones de semejanza sean iguales αs = α, se tiene

F (x) = F (αx)k∑

s=1

pse(βsx).

42

2.2 Matrices de momentos y formulas de recurrencia

Si ademas, las probabilidades son iguales

F (x) =1

kF (αx)

k∑s=1

e(βsx).

Iterando en esta expresion, se obtiene

F (x) =∞∏j=0

(1

k

k∑s=1

e(βsαj)x

).

En este caso y para dos semejanzas homogeneas, podemos expresar en terminos

de cosenos hiperbolicos la expresion anterior teniendo en cuenta que:

eβ2αkx + eβ1αkx

2= e

(β2+β1)αkx

2

e(β2−β1)α

kx2 + e

(β1−β2)αkx

2

2

= e(β2+β1)α

kx2 cosh

((β2 − β1)α

kx

2

) .

Ası el producto infinito queda

F (x) =∞∏k=0

e(β2+β1)α

kx2 cosh

((β2 − β1)α

kx

2

)=

∞∏k=0

e(β2+β1)α

kx2

∞∏k=0

cosh

((β2 − β1)α

kx

2

)= e

(β2+β1)x2(1−α)

∞∏k=0

cosh

((β2 − β1)α

kx

2

).

En el caso de que la convolucion infinita de Bernoulli este en [0, 1], tenemos que

0 < α = r < 1, β1 = 0, β2 = 1 − r y las dos probabilidades iguales a1

2la funcion

generatriz, sera

F (x) = ex2

∞∏k=0

cosh

((1− r)rkx

2

).

Si r =1

2, se obtiene la medida de Lebesgue en [0, 1], por lo que la formula anterior

para este valor de r, coincide con el inverso de la funcion generatriz exponencial de

los numeros de Bernoulli,

F (x) =∞∏k=1

(1 + e

1

2kx

2

)=

ex − 1

x.

43

MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES

2.3. Algoritmo iterativo para matrices de momen-

tos de medidas autosemejantes

En esta seccion vamos a desarrollar un metodo iterativo para aproximar la ma-

triz de momentos de una medida autosemejante para un SFI con probabilidades.

Este metodo se basa en los resultados sobre las transformaciones de las matrices de

momentos por semejanzas obtenidos en la seccion 2.2.

Pc denota el espacio de medidas de probabilidad con soporte compacto en el plano

complejo. Vamos a considerar el conjunto M formado por las matrices de momentos

de medidas en Pc. Denotamos por M(ν) ∈ M la matriz de momentos de la medida

ν ∈ Pc.

Definicion 2.3.1. Sea el SFI con probabilidades

Φ = φ1, φ2, . . . , φk; p1, p2, . . . .pk,

formado por semejanzas contractivas. Se define la transformacion TΦ : M → M de la

forma

TΦ(M(ν)) =k∑

s=1

psA⋆sM(ν)As,

donde, por simplicidad, denotamos por As la matriz Aφs dada en la Proposicion

2.1.1, para la semejanza φs(z).

Observacion 2.3.2. Notese que la transformacion TΦ esta bien definida, puesto que

para cada s, la matriz Mφs(ν) = A⋆sM(ν)As es la matriz de momentos de la medida

inducida ν φ−1s como la combinacion lineal convexa de medidas de probabilidad con

soporte compacto es una medida de probabilidad esta en Pc.

Teorema 2.3.3. Sea Φ un SFI con probabilidades y sea µ la medida invariante

asociada. Consideramos la transformacion T nΦ definida en 2.3.1. Entonces, para cada

M(ν) ∈ M se tiene que la sucesion de matrices T nΦ (M(ν)) converge elemento a

44

2.3 Algoritmo para matrices de momentos de medidas autosemejantes

elemento a la matriz de momentos M(µ), siendo T nΦ la n-esima composicion de TΦ

consigo misma.

Demostracion. Como ya vimos en el capıtulo 1, la medida invariante µ asociada

al SFI con probabilidades Φ es la medida invariante para el operador de Markov

definido en el espacio Pc por

T (ν) =k∑

s=1

psν φ−1s .

Este operador es una contraccion en el espacio metrico completo Pc con la metrica

de Hutchinson [Hut81], lo que asegura la convergencia debil de las medidas T n(ν)

para cada ν ∈ Pc a µ, que es el punto fijo de T.

Pc → Pc → Pc → · · · Pc → Pc

ν → T (ν) → T 2(ν) → · · · T n(ν) → µ

M(ν) → TΦ(M(ν)) → T 2Φ (M(ν)) → · · · T n

Φ (M(ν)) → M(µ)

La convergencia debil de medidas asegura la convergencia de los momentos, por lo

que el lımite de los momentos cij(Tn(ν)) de las medidas T n(ν) sera cij(µ). Por tanto

el proceso iterativo definido por el operador de Markov para aproximar la medida µ,

se transforma en un proceso iterativo paralelo definido matricialmente.

Si T (ν) = ν1, entonces TΦ(M(ν)) = M(ν1) y como T n(ν) converge debilmente a µ,

se tiene que T nΦ (M(ν)) −→ M(µ) elemento a elemento.

Los siguientes ejemplos muestran la eficiencia del algoritmo para calcular los

momentos de la medida invariante.

Ejemplo 2.3.4. Sea µ la medida de Lebesgue normalizada en el intervalo [−1, 1].

Esta es una medida autosemejante asociada al SFI con probabilidades dado por

Φ = φ1 = 1/2x− 1/2, φ2 = 1/2x+ 1/2; p1 = p2 = 1/2.

45

MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES

La seccion de orden seis de la correspondiente transformacion TΦ viene dada por

TΦ(M(ν)) =1

2

1 0 0 0 0 0

12

12

0 0 0 0

14

12

14

0 0 0

18

38

38

18

0 0

116

14

38

14

116

0

132

532

516

516

532

132

M(ν)

1 12

14

18

116

132

0 12

12

38

14

532

0 0 14

38

38

516

0 0 0 18

14

516

0 0 0 0 116

532

0 0 0 0 0 132

+1

2

1 0 0 0 0 0

−12

12

0 0 0 0

14

−12

14

0 0 0

−18

38

−38

18

0 0

116

−14

38

−14

116

0

− 132

532

− 516

516

− 532

132

M(ν)

1 −12

14

−18

116

− 132

0 12

−12

38

−14

532

0 0 14

−38

38

− 516

0 0 0 18

−14

516

0 0 0 0 116

− 532

0 0 0 0 0 132

.

Despues de 20 iteraciones de TΦ comenzando con la matriz identidad, que es la

matriz de momentos correspondiente a la medida de Lebesgue en la circunferencia

unidad, tenemos

T 20Φ

1 0 0 0 0 0

0 1 0 0 0 0

0 0 1 0 0 0

0 0 0 1 0 0

0 0 0 0 1 0

0 0 0 0 0 1

=

46

2.3 Algoritmo para matrices de momentos de medidas autosemejantes

1,0 0,0 0,3333333333 0,0 0,2000000000 0,0

0,0 0,3333333333 0,0 0,2000000000 0,0 0,1428571429

0,3333333333 0,0 0,2000000000 0,0 0,1428571429 0,0

0,0 0,2000000000 0,0 0,1428571429 0,0 0,1111111111

0,2000000000 0,0 0,1428571429 0,0 0,1111111111 0,0

0,0 0,1428571429 0,0 0,1111111111 0,0 0,09090909091

.

Esta matriz aproxima (con diez dıgitos de precision) a la seccion de orden seis de la

bien conocida matriz de momentos de la medida de Lebesgue.

Ejemplo 2.3.5. La medida de Cantor µ1/3 en el intervalo [−1, 1] es autosemejante

para el SFI con probabilidades Φ = φ1 =13x−2/3, φ2 = 1/3x+2/3; p1 = p2 = 1/2

y coincide con la convolucion infinita de Bernoulli para r = 13(ver seccion 2.2.1).

Como vimos en el Ejemplo 2.2.3, la seccion de orden seis de la matriz de momentos

es de esta forma obtenemos la seccion de orden cinco

M5,µ1/3=

1 0 12

0 720

0 12

0 720

0

12

0 720

0 205728

0 720

0 205728

0

720

0 205728

0 1024142640

,

y la seccion de orden cinco correspondiente a la transformacion TΦ sera

TΦ(M(ν)) =1

2

1 0 0 0 0

23

13

0 0 0

49

49

19

0 0

827

49

29

127

0

1681

3281

827

881

181

M(ν)

1 23

49

827

1681

0 13

49

49

3281

0 0 19

29

827

0 0 0 127

881

0 0 0 0 181

+

47

MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES

1

2

1 0 0 0 0

−23

13

0 0 0

49

−49

19

0 0

− 827

49

−29

127

0

1681

−3281

827

− 881

181

M(ν)

1 −23

49

− 827

1681

0 13

−49

49

−3281

0 0 19

−29

827

0 0 0 127

− 881

0 0 0 0 181

.

Si comenzamos de nuevo con la matriz identidad despues de veinte iteraciones de

TΦ, se tiene

T 20Φ

1 0 0 0 0 0

0 1 0 0 0 0

0 0 1 0 0 0

0 0 0 1 0 0

0 0 0 0 1 0

0 0 0 0 0 1

=

1,0 0,0 0,5000000000 0,0 0,3500000000 0,0

0,0 0,5000000000 0,0 0,3500000000 0,0 0,2815934066

0,5000000000 0,0 0,3500000000 0,0 0,2815934066 0,0

0,0 0,3500000000 0,0 0,2815934066 0,0 0,2401735460

0,3500000000 0,0 0,2815934066 0,0 0,2401735460 0,0

0,0 0,2815934066 0,0 0,2401735460 0,0 0,2113091906

,

que es una aproximacion con diez dıgitos de precision de la matriz de momentos

(seccion de orden seis) de la medida de Cantor.

48

2.4 Teorema del punto fijo para matrices de momentos de medidasautosemejantes en D

2.4. Teorema del punto fijo para matrices de mo-

mentos de medidas autosemejantes en D

En la seccion anterior hemos obtenido una convergencia elemento a elemento de

las matrices de momentos asociadas al operador de Markov para un SFI de seme-

janzas con probabilidades, a partir de la convergencia debil de dichas medidas. Para

establecer un resultado de convergencia de matrices mas fuerte, necesitaremos una

norma. El problema es que si la medida invariante asociada no tiene su soporte conte-

nido en la bola unidad, los momentos se disparan a infinito. Por ello en esta seccion

vamos a establecer un resultado para la norma del supremo, cuando la matriz de

momentos de la medida invariante es acotada, es decir, cuando la medida tiene su

soporte contenido en la bola unidad. En la siguiente seccion se definira una norma y

se establecera el resultado general.

Denotaremos por M∞ el espacio vectorial complejo de las matrices acotadas con

la norma del supremo, esto es, M = (mij)∞i,j=0 ∈ M∞ si ∥M∥sup = sup

i,j|mij| <

∞. Es facil demostrar que (M∞, ∥ .∥sup) es un espacio metrico completo, pues la

demostracion es analoga a la de (l∞, ∥.∥sup). Consideramos el subconjunto M1 de

M∞ cuyo primer elemento es igual a uno,

M1 =M = (mij)

∞i,j=0 ∈ M∞ tal que m00 = 1

.

(M1, ∥.∥sup) es un espacio metrico completo dado que M1 es un subconjunto

cerrado de ( M∞, ∥ .∥sup), de hecho es un subespacio afın de M∞.

Vamos a ver que el operador TΦ definido en 2.3.1 sobre el conjunto de matrices

de momentos de medidas de probabilidad, es un operador que se puede definir en

(M1, ∥.∥sup) de forma que todo el espacio M1 se convierte en cuenca de atraccion del

punto fijo que, como vimos es la matriz de momentos de la medida autosemejante

asociada a Φ.

Veamos primero un resultado previo, para el que hay que tener en cuenta la

49

MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES

siguiente observacion.

Observacion 2.4.1. Sea φ : D → D una semejanza contractiva. Si φ(z) = αz + β,

el disco unidad se transforma en un disco incluido en D, centrado en β y de radio

|α|, como se muestra en la figura.

Esto implica que |α|+ |β| ≤ 1 y por lo tanto |β| ≤ 1. Ademas, se verifica que |α| < 1

por ser φ contractiva.

Teorema 2.4.2. Sea φ(z) = αz + β una semejanza con |α| < 1 y |α|+ |β| < 1. Sea

Aφ la matriz asociada definida en la Proposicion 2.1.1.

Entonces la aplicacion Tφ : (M1, ∥.∥sup) → ( M1, ∥.∥sup) definida por

Tφ(M) = A⋆φMAφ, (2.9)

es una aplicacion contractiva con razon de contraccion |α|+|β| si α = 0 y es constante

si α = 0.

Demostracion. Sean M = (mij)∞i,j=0 ∈ M1 y M ′ =

(m′

ij

)∞i,j=0

∈ M1. Para ver que Tφ

es contractiva, consideramos la matriz C = (cij)∞i,j=0 = Tφ(M)−Tφ(M

′). Recordando

que Aφ = (aij)∞i,j=0 es triangular superior con aij =

(ji

)αi−1βj−i si i ≤ j, se tiene que

C = Tφ(M)− Tφ(M′) = A⋆

φMAφ − A⋆φM

′Aφ = A⋆φ(M −M ′)Aφ = (cij)

∞i,j=0.

50

2.4 Teorema del punto fijo para matrices de momentos de medidasautosemejantes en D

En particular, para c00 se tiene que c00 = (1, 0, 0..)t(M −M ′)(1, 0, 0..) = 0 ya que

m00 −m′00 = 1− 1 = 0.

Para el resto de terminos (i, j) = (0, 0) tenemos

cij =

i,j∑k=0,l=0

(k,l)=(0,0)

(i

k

)(j

l

)βi−kβ

j−lαkαl(mkl −m′

kl)

de donde

|cij| ≤i,j∑

k=0,l=0(k,l)=(0,0)

(i

k

)(j

l

)|β|i−k

∣∣β∣∣j−l |α|k |α|l |mkl −m′kl|

≤i,j∑

k=0,l=0(k,l)=(0,0)

(i

k

)(j

l

)|β|i+j−k−l |α|k+l sup

k,l|mkl −m′

kl|

= supk,l

|mkl −m′kl|

i,j∑k=0,l=0

(k,l)=(0,0)

(i

k

)(j

l

)|β|i+j−k−l |α|k+l .

Por tanto,

∥Tφ(M)− Tφ(M′)∥sup = sup

ij|cij|

≤ ∥M −M ′∥sup sup(i,j)=(0,0)

i,j∑

k=0,l=0(k,l)=(0,0)

(i

k

)(j

l

)|β|i+j−k−l |α|k+l

= ∥M −M ′∥sup sup

(i,j)=(0,0)

(|α|+ |β|)i+j − |β|i+j

.

Estudiando los casos:

1. Si |α| = 0 el anterior supremo es cero y por tanto la aplicacion es constante.

2. Si |α| = 0 y |β| = 0 tenemos que ∥Tφ(M)− Tφ(M′)∥sup ≤ ∥M −M ′∥sup |α|.

3. Si |α| = 0 , |β| = 0 y |α|+ |β| < 1 tenemos,

∥Tφ(M)− Tφ(M′)∥sup ≤ ∥M −M ′∥sup (|α|+ |β|). (2.10)

51

MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES

Por tanto, Tφ es una contraccion en (M1, ∥.∥sup) con razon (|α|+ |β|), si α = 0 y es

constante si α = 0.

Para acabar, hay que probar que la transformacion Tφ esta bien definida, es decir

que si M ∈ M1 se tiene que Tφ(M) ∈ M1. Por un lado, es claro que el primer

termino (0, 0) de Tφ(M) es 1. Por otro lado, de forma analoga a como se ha obtenido

(2.10), se tiene que

∥Tφ(M)∥sup ≤ ∥M∥sup .

La siguiente definicion es analoga a la Definicion 2.3.1, pero se define ahora la

transformacion TΦ en el espacio metrico M1.

Definicion 2.4.3. Se considera un SFI de semejanzas con probabilidades

Φ = φ1, φ2, . . . , φk; p1, p2, . . . pk,

de forma que cada semejanza φs(z) = αsz+βs verifica que |αs| < 1 y |αs|+ |βs| < 1,

para cada s ∈ 1, 2, . . . , k.

Se define la transformacion TΦ : M1 → M1 de la forma

TΦ(M) =k∑

s=1

psA⋆sMAs, (2.11)

donde As es la matriz asociada a la semejanza φs definida en la Proposicion 2.1.1.

Observacion 2.4.4. La transformacion TΦ esta bien definida. Veamos que

TΦ(M) =k∑

s=1

psTφs(M) ∈ M1.

1. Si llamamos C = (cij)∞i,j=0 = TΦ(M), entonces c00 =

k∑s=1

ps = 1.

2. La matriz C es acotada con la norma del supremo por ser combinacion lineal

convexa finita de matrices acotadas con la norma del supremo.

52

2.5 Teorema del punto fijo para matrices de momentos de medidasautosemejantes

Es obvio que cualquier combinacion lineal convexa de operadores contractivos es

contractivo y como consecuencia de ello tenemos el siguiente resultado.

Teorema 2.4.5. Consideramos la transformacion TΦ : (M1, ∥.∥sup) → (M1, ∥.∥sup)

asociado al SFI con probabilidades

Φ = φ1, φ2, . . . , φk; p1, p2, . . . pk

como en la Definicion 2.4.3.

Entonces TΦ es una aplicacion contractiva que tiene como punto fijo la matriz de

momentos M(µ) de la medida autosemejante determinada por Φ.

Demostracion. Sean M = (mij)∞i,j=0 ∈ M1 y M ′ =

(m′

ij

)∞i,j=0

∈ M1, entonces

∥TΦ(M)− TΦ(M′)∥sup ≤

k∑s=1

ps ∥Tφs(M)− Tφs(M′)∥sup

≤k∑

s=1

ps ∥M −M ′∥sup (|αs|+ |βs|)

≤ ∥M −M ′∥supk∑

s=1

ps sups(|αs|+ |βs|)

≤ ∥M −M ′∥sup sups(|αs|+ |βs|)

Por tanto, tenemos una aplicacion contractiva en el espacio metrico completo

(M1, ∥·∥sup).

2.5. Teorema del punto fijo para matrices de mo-

mentos de medidas autosemejantes

Como hemos visto en la seccion anterior, cuando las razones de las semejanzas de

un SFI verifican las propiedades del Teorema 2.4.5 de la seccion anterior, el soporte

de la medida autosemejante esta dentro de la bola unidad, y la matriz de momentos

53

MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES

es acotada con la norma del supremo. En otros casos, la norma del supremo no

es suficiente para garantizar la contractividad del operador TΦ definido por (2.11),

ya que si la medida invariante asociada a Φ tiene parte de su soporte fuera de D,

los momentos de la medida no estan acotados. En caso de existir alguna semejanza

φs(x) = αsx+ βs de Φ, verificando |αs|+ |βs| ≥ 1, podemos trasladar el problema a

la bola unidad cerrada. En esta seccion definiremos otro espacio de matrices y una

norma adecuada que nos permitira trasladar el problema a la bola unidad cerrada y

obtener los resultados de contractividad obtenidos en el Teorema 2.4.5 de la seccion

anterior en el caso general.

Lema 2.5.1. Sean f(z) y g(z) semejanzas contractivas, entonces f g f−1(z) es

una semejanza contractiva con la misma razon que g(z).

Demostracion. Sean f(z) = γz + δ y g(z) = αz + β, entonces

f g f−1(z) = f g(zγ− δ

γ) = f(α(

z

γ− δ

γ) + β)

= γ((αz

γ− αδ

γ) + β) + δ

= αz − αδ + γβ + δ

Observacion 2.5.2. Si en el lema anterior tomamos δ = 0, entonces vemos que la

nueva semejanza contractiva, f g f−1(z) = αz + γβ, se diferencia de g(z) en el

termino independiente que aparece ahora multiplicado por la razon de f , γ.

Lema 2.5.3. Consideramos el SFI con probabilidades

Φ = φ1, φ2, . . . , φk; p1, p2, . . . pk.

Sean K y µΦ el conjunto autosemejante y la medida, respectivamente, invariantes

para Φ. Sea f una semejanza contractiva. Consideramos el SFI con probabilidades

54

2.5 Teorema del punto fijo para matrices de momentos de medidasautosemejantes

dado por

fΦf−1 = f φ1 f−1, f φ2 f−1, . . . , f φk f−1; p1, p2, . . . pk.

Entonces, el conjunto f(K) es el conjunto autosemejante invariante para fΦf−1 y

la medida autosemejante invariante para este SFI es la medida imagen por f de la

medida µΦ, es decir,

µfΦf−1 = µΦ f−1.

Demostracion. Es claro que f(K) es un conjunto compacto que satisface

k∪s=1

f φs f−1(f(K)) = f

(k∪

s=1

φs(K)

)= f(K),

ya que K es invariante para Φ. Por tanto f(K) es invariante para fΦf−1.

Utilizando que µΦ es invariante para Φ podemos comprobar de la misma forma

que µΦ f−1 es invariante para fΦf−1,

µΦ f−1 =

(k∑

s=1

psµΦ φ−1s

) f−1 =

k∑s=1

ps(µΦ f−1) f φ−1s f−1.

Por tanto, µΦ f−1 es invariante para fΦf−1.

2.5.1. Espacios metricos de matrices infinitas asociados a un

SFI

A lo largo de esta seccion consideraremos el SFI con probabilidades

Φ = φ1, φ2, . . . , φk; p1, p2, . . . pk,

formado por semejanzas contractivas. K y µΦ denotaran el conjunto y la medida,

respectivamente, autosemejantes para Φ.

Puesto que K es un conjunto compacto, podemos encontrar una semejanza con-

tractiva f(z) = αfz + βf de forma que f(K) este contenido en D. Para simplificar,

55

MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES

tomaremos una homotecia f(z) = αfz, de forma que αf sea real y positivo, verifi-

cando ademas que

αf < mıns=1,2,...,k

1− |αs||βs|

·

De esta forma, las Observaciones 2.5.2 y 2.4.1 nos aseguran que la medida auto-

semejante asociada al SFI fΦf−1, tiene como soporte f(K) ⊂ D. En el caso en que

K ⊂ D, tomamos f como la aplicacion identidad.

Para cada semejanza f definimos un nuevo espacio metrico de matrices infinitas,

M∞,f = M tal que M ′ = A⋆fMAf ∈ M∞

con la norma,

||M ||f = ||M ′||sup para todo M ∈ M∞,f con M ′ = A⋆fMAf .

Veamos que este espacio es un espacio metrico completo.

Lema 2.5.4. En las condiciones de la definicion anterior (M∞,f , ∥.∥f ) es un espacio

metrico completo.

Demostracion. Para probar ||M ||f = ||M ′||sup es una norma en M∞,f , veamos pri-

mero que la aplicacion Tf : M∞,f −→ M∞ tal que Tf (M) = A⋆fMAf = M ′ es

biyectiva.

Sean M1 =(m1

ij

)∞i,j=0

y M2 =(m2

ij

)∞i,j=0

, tales que Tf (M1) = Tf (M2) entonces

tenemos que αi+jf m1

ij = αi+jf m2

ij para todo i, j, por tanto m1ij = m2

ij, por lo que

Tf es inyectiva. Ademas, como las matrices A⋆f y Af son invertibles con inversas

A⋆f−1 y Af−1 , respectivamente, tenemos que si Tf (M) = M ′ podemos escribir M =

A⋆f−1M ′Af−1 y por tanto Tf es biyectiva.

Que Tf sea biyectiva y el hecho de que (M∞, ∥ .∥sup) sea un espacio metrico

completo demuestran que se verifican las siguientes propiedades para M,M1,M2 ∈

M∞,f ,

56

2.5 Teorema del punto fijo para matrices de momentos de medidasautosemejantes

1. ∥M∥f > 0 salvo que M ≡ 0 en cuyo caso ∥M∥f = 0.

2. Si α ∈ C entonces ∥αM∥f = |α| ∥M∥f .

3. ∥M1 +M2∥f ≤ ∥M1∥f + ∥M2∥f .

4. (M∞,f , ∥.∥f ) es completo por serlo (M∞, ∥ .∥sup).

Definicion 2.5.5. Definimos el espacio

Mf = M ∈ M∞,f tal que M ′ = A⋆fMAf ∈ M1

y la transformacion TΦ : Mf → Mf dada por

TΦ(M) =k∑

s=1

psA⋆sMAs =

k∑s=1

psTφs(M),

como en (2.11).

Es claro que (Mf , ∥.∥f ) es un subespacio cerrado de (M∞,f , ∥·∥f ) y por lo tanto

completo, por lo que tenemos el siguiente teorema.

Teorema 2.5.6. Consideraremos el SFI con probabilidades

Φ = φ1, φ2, . . . , φk; p1, p2, . . . pk,

de semejanzas contractivas. Sean K y µΦ el conjunto y la medida, respectivamente,

autosemejantes para Φ. Sea f(z) = αfz una homotecia, de forma que αf sea real y

positivo, verificando ademas que

αf < mıns=1,2,...,k

1− |αs||βs|

.

Entonces, la transformacion TΦ : Mf → Mf definida en 2.5.5 es contractiva y

tiene la misma razon de contraccion que TfΦf−1 : M1 → M1 definida en 2.4.3.

Ademas, el unico punto fijo es la matriz de momentos de la medida autosemejante

µΦ.

57

MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES

Demostracion. Primero, veamos que la transformacion TΦ esta bien definida.

Sea M ∈ Mf , entonces existe una matriz M ′ ∈ M1 tal que M = A∗f−1M ′Af−1 .

Para ver que TΦ(M) ∈ Mf , tenemos que probar que A∗fTΦ(M)Af ∈ M1,

A∗fTΦ(M)Af =A∗

fTΦ

(A∗

f−1M ′Af−1

)Af

=k∑

s=1

psA∗fA

∗sA

∗f−1M ′Af−1AsAf

=TfΦf−1(M ′) ∈ M1.

Veamos ahora que TΦ es contractiva con la misma razon de contraccion que TfΦf−1 .

Sean M1 y M2 ∈ Mf , entonces existen dos matrices M ′1 y M ′

2 ∈ M1 tal que

Mi = A∗f−1M ′

iAf−1 , (i = 1, 2), de aquı se tiene,

||TΦ(M1 −M2)||f =||A∗fTΦ(M1 −M2)Af ||sup

=||A∗fTΦ

(A∗

f−1(M ′1 −M ′

2)Af−1

)Af ||sup

=

∥∥∥∥∥k∑

s=1

psA∗fA

∗sA

∗f−1(M ′

1 −M ′2)Af−1AsAf

∥∥∥∥∥sup

=||TfΦf−1(M ′1 −M ′

2)||sup

≤ maxs=1,...,k

|αs|+ |αβs|||M ′1 −M ′

2||sup

= maxs=1,...,k

|αs|+ |αβs|||M1 −M2||f .

Luego TΦ es contractiva.

Probaremos ahora que su punto fijo es la matriz de momentos MΦ de la medida

autosemejante µΦ.

Por el Lema 2.5.3 se tiene que µfΦf−1 = µΦ f−1, por tanto MfΦf−1 = A∗fMΦAf

de donde MΦ = A∗f−1MfΦf−1Af−1 ∈ Mf , luego

A∗fTΦ(MΦ)Af =

k∑s=1

psA∗fA

∗sA

∗f−1MfΦf−1Af−1AsAf

=TfΦf−1(MfΦf−1)

=MfΦf−1 .

58

2.5 Teorema del punto fijo para matrices de momentos de medidasautosemejantes

Por lo que TΦ(MΦ) = A∗f−1MfΦf−1Af−1 = MΦ.

2.5.2. Aproximacion de la matriz de momentos y velocidad

de convergencia

El Teorema 2.5.6 nos da un algoritmo general para aproximar la matriz de mo-

mentos de una medida autosemejante asociada a un SFI, Φ, con probabilidades. Por

ser un algoritmo iterativo asociado a una transformacion contractiva, la velocidad

de convergencia depende de la razon de contraccion de TΦ que al ser igual que la de

TfΦf−1 parece que depende de f . Sin embargo, esto es ası.

Observacion 2.5.7. En las condiciones del Teorema 2.5.6, se tiene que que la veloci-

dad de convergencia del algoritmo es del orden de rn, siendo r la razon de contraccion

de SFI Φ, es decir, r = maxs=1,...,k

|αs|.

Sea ε > 0 tal que

ε < mıns=1,2,...,k

1− |αs||βs|

.

Para cada α < ε consideramos la homotecia f(z) = αz. Para esta f hemos visto en

el teorema anterior que

||TΦ(M1−M2)||f ≤ maxs=1,...,k

|αs|+|αβs|||M1−M2||f ≤ maxs=1,...,k

|αs|+|εβs|||M1−M2||f .

Por tanto la razon de contraccion es menor o igual que maxs=1,...,k

|αs|+ ε|βs| para todo

ε, y por tanto menor o igual que r.

Esto significa que la velocidad del algoritmo depende de la razon de contraccion

del SFI Φ.

Los siguientes ejemplos muestran la eficiencia del algoritmo para calcular los

momentos de una medida autosemejante asociada a un SFI con probabilidades.

Ejemplo 2.5.8. Sea µ la medida normalizada de Lebesgue en el intervalo [−1, 1].

Como ya hemos visto es una medida autosemejante para el SFI con probabilidades

59

MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES

dado por Φ = φ1 = 1/2x − 1/2, φ2 = 1/2x + 1/2; p1 = p2 = 1/2. Como vimos en

el ejemplo 2.3.4, la seccion de orden seis de la matriz de momentos MΦ de la medida

µ se aproxima con diez dıgitos de precision por T 20Φ (Id).

Puesto que |α| + |β| = 1/2 + 1/2 = 1. Es suficiente tomar una homotecia f

que traslada el soporte en el interior del disco unidad. Por ejemplo si consideramos

f(x) =x

2, el SFI fΦf−1 es

fΦf−1 = f φ1 f−1 =x

2− 1

4, f φ2 f−1 =

x

2+

1

4; p1 = p2 = 1/2.

Usando los resultados del Teorema 2.5.6 tenemos ||TΦ(M)||f = ||TfΦf−1(A∗fMAf )||sup

y que la norma de TfΦf−1 esta acotada por la razon de contraccion α+1/2|β| = 3/4.

Por tanto, podemos asegurar que

||T 20Φ (I−M)||f ≤ (3/4)20||A∗

f (I−MΦ)Af ||sup ≈ 0,003171211939||A∗f (I−MΦ)Af ||sup.

Esto muestra que la cota obtenida no es muy ajustada a la realidad. Esta cota se

puede mejorar si tenemos en cuenta la observacion anterior. En este caso r = 1/2 y

se tiene

||T 20Φ (I−MΦ)||f ≤ 1

220||A∗

f (I−MΦ)Af ||sup ≈ 0,0000009536743164||A∗f (I−MΦ)Af ||sup.

Ejemplo 2.5.9. Sea T el triangulo de Sierpinski con base en el intervalo [−1, 1].

Consideramos la medida uniforme µ en T , es decir, la medida de Hausdorff log 3log 2

-

dimensional de T , que es la medidad autosemejante para el SFI con probabilidades

dado por

Φ = φ1(z) =z

2− 1

2, φ2(z) =

z

2+

1

2, φ3(z) =

z

2+

√3i

2; p1 = p2 = p3 =

1

3.

Entones,M(µ) es el punto fijo de la transformacion TΦ(M(ν)) =3∑

i=1

1

3A∗

φiM(ν)Aφi

.

Si iteramos la transformacion 20 veces comenzando con la matriz identidad, ob-

tenemos una aproximacion de la seccion de orden 5 de la matriz de momentos de la

60

2.6 Formulas explıcitas para los momentos

medida µ:

T20Φ (Id) =

1,0 −0,5773497187 i −0,3333326976 0,4123924989 i 0,6190467108

0,5773497187 i 0,7777771420 −0,7056492891 i −0,6825382899 0,8918905074 i

−0,3333326976 0,7056492891 i 0,9802453594 −1,129649109 i −1,376602322

−0,4123924989 i −0,6825382899 1,129649109 i 1,609688046 −2,130064540 i

0,6190467108 −0,8918905074 i −1,376602322 2,130064540 i 3,121089384

.

Podemos comparar este resultado con los momentos exactos dados por la formula

recurrente obtenida en (2.2.1):

1,0 −0,5773502693 i −0,3333333333 0,4123930495 i 0,6190476190

0,5773502693 i 0,7777777778 −0,7056503292 i −0,6825396825 0,8918923515 i

−0,3333333333 0,7056503292 i 0,9802469136 −1,129651479 i −1,376605792

−0,4123930495 i −0,6825396825 1,129651479 i 1,609691778 −2,130070359 i

0,6190476190 −0,8918923515 i −1,376605792 2,130070359 i 3,121098767

.

Como se puede observar en este caso la velocidad de aproximacion es mas lenta que

en el primer ejemplo. Sin embargo, la cota de la razon de contraccion obtenida en la

observacion anterior nos da una cota mas ajustada del error cometido. En este caso

se tiene que r = 1/2 para las secciones de orden cinco se tiene

||T 20Φ (Id5 −Mϕ,5)||f ≤ 1

220||A∗

f,5(I −MΦ)5Af,5||sup

≤ 1

220||A∗

f,5|| ||(I −MΦ)5|| ||Af,5||sup

≤ 3

220= 0,000002861022949,

lo que asegura los cinco dıgitos de precision que se observan en este ejemplo.

2.6. Formulas explıcitas para los momentos

Las relaciones de recurrencia que aparecen al estudiar los momentos de ciertas

medidas como convoluciones infinitas de Bernoulli, pueden expresarse en terminos

61

MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES

de matrices triangulares. El desarrollo de esta seccion tiene por objeto describir

explıcitamente los momentos de estas medidas. En esta seccion encontramos una

formula para la inversa de una matriz triangular infinita en terminos de numeros

multinomicos y composiciones de un numero natural y utilizaremos esta expresion

para obtener una formula explıcita para los momentos de estas medidas.

2.6.1. Inversa de una matriz triangular inferior

Lema 2.6.1. Dada una matriz triangular de la forma

A =

1 0 0 0 . . .

a21 −1 0 0 . . .

a31 a32 −1 0 . . .

a41 a42 a43 −1 . . .

......

......

. . .

(2.12)

se tiene que su matriz inversa A−1 = C = (cij) esta definida por las siguientes

expresiones

c11 = 1

ci1 = ai1 + ai2a21 + ai3(a31 + a32a21) + · · ·+ ai,i−1(ai−1,1 + ai−1,2a21 + . . .

=∑

1 < α1< α2< . . . < αk< i

α1, . . . , αk ⊂ 2, . . . , i − 1

ai,αkaαk,αk−1

. . . aα1,1 para i > 1

cim = ai,m + ai,m+1am+1,m + ai,m+2(am+2,m + ..+ ai,i−1(ai−1,m + ai−1,2a2m + ..)

= −∑

m< α1< α2< . . . < αk< i

α1, . . . , αk ⊂ m + 1, . . . , i − 1

ai,αkaαk,αk−1

. . . aα1,m para i > m > 1

62

2.6 Formulas explıcitas para los momentos

Demostracion. Es conocido que C = A−1 es triangular inferior. Imponiendo AC = I

tenemos las relaciones,

c11 = 1, cii = −1 si i > 1,

ci1 =i−1∑j=1

aijcj1 si i > 1,

cim =i−1∑

j=m,m<i

aijcjm si i > m,

cim = 0, en otro caso.

Vamos a utilizar induccion completa sobre i.

Para i = 2 la formula se verifica de manera trivial puesto que el sumatorio se

extiende al conjunto vacıo y c21 = a21c11 = a21.

Si suponemos cierta la formula para todo α < i, ordenando el sumatorio de la

siguiente manera

∑α1,...,αk⊂2,...,i−1

ai,αkaαk,αk−1

. . . aα1,1 = ai,1 + ai,2∑

α1,..αk−1⊂∅

a2,1 + . . .

· · ·+ ai,αk

∑α1,...,αk−1⊂2,...,αk−1

aαk,αk−1. . . aα1,1 + . . .

· · ·+ ai,i−1

∑α1,...,αk−1⊂2,...,i−2

ai−1,αk−1. . . aα1,1.

Aplicando la hipotesis de induccion a los sumandos anteriores, obtenemos

∑α1,...,αk⊂2,...,i−1

ai,αkaαk,αk−1

. . . aα1,1

= ai,1c11 + ai,2c2,1 + ai,3c3,1 + · · ·+ ai,αkcαk,1 + · · ·+ ai,i−1ci−1,1

=i−1∑j=1

aijcj1 = ci,1 para i > 1.

Con una demostracion similar obtendrıamos la formula para cim.

63

MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES

Lema 2.6.2. Sea

A =

b1 0 0 0 . . .

a21 b2 0 0 . . .

a31 a32 b3 0 . . .

a41 a42 a43 b4 . . .

......

......

. . .

,

una matriz triangular invertible, entonces su matriz inversa A−1 = C = (cij) viene

dada por las siguientes expresiones

c1,1 =1

b1,

ci1 =∑

1 < α1< α2< . . . < αk< i,

α1, . . . , αk ⊂ 2, . . . , i − 1

ai,αkaαk,αk−1

. . . aα1,1(−1)k+1

bibαkbαk−1

. . . bα1b1para i > 1,

cim =∑

m< α1< α2< . . . < αk< i

α1, . . . , αk ⊂ m + 1, . . . , i − 1

ai,αkaαk,αk−1

. . . aα1,m(−1)k

bibαkbαk−1

. . . bα1bmpara i > m > 1,

considerando tambien el conjunto vacıo en las sumas.

Demostracion. Podemos descomponer la matriz A como producto de una matriz

diagonal D por una triangular A′, a la que podemos aplicar el lema anterior. Ası,

tenemos A = DA′ con D = diagb1,−b2,−b3, . . . ,−bn y A′ = (a′i,j) con a′i,j =−ai,jbi

si i > j, a′1,1 = 1 y a′i,i = −1 si i > 1. De esta manera A−1 = (A′)−1D−1, verificandose

la formula de manera inmediata.

64

2.6 Formulas explıcitas para los momentos

Corolario 2.6.3. Sea

A =

(0

0

)0 0 0 . . . 0 . . .(

1

0

)b1 0 0 . . . 0 . . .(

2

0

) (2

1

)b2 0 . . . 0 . . .(

3

0

) (3

1

) (3

2

)b3 . . . 0 . . .

......

......

. . ....(

n

0

) (n

1

) (n

2

) (n

3

). . . bn . . .

......

......

.... . .

, (2.13)

una matriz triangular invertible, entonces su matriz inversa A−1 = C = (cij) viene

dada por las siguientes expresiones

c11 = 1,

Para i > 1, se tiene

ci1 =∑

0 < α1< α2< . . . < αk< i − 1

α1, . . . , αk ⊂ 1, . . . , i − 2

(i− 1

αk

)(αk

αk−1

). . .

(α1

0

)(−1)k+1

bi−1bαkbαk−1

. . . bα1

,

y para cada i > m > 1

cim =∑

m − 1 < α1< α2< . . . < αk< i − 1

α1, . . . , αk ⊂ m, . . . , i − 2

(i− 1

αk

)(αk

αk−1

). . .

(α1

m− 1

)(−1)k

bi−1bαkbαk−1

. . . bα1bm−1

.

Observacion 2.6.4. Desarrollando la expresion anterior, se tiene

ci1 =−1

bi−1

+1

bi−1

i−2∑j=1

(i− 1

j

)1

bj− 1

bi−1

i−2∑1=α1<α2

(i− 1

α2

)(α2

α1

)1

bα2bα1

+ . . .

· · ·+(i− 1

i− 2

)(i− 2

i− 3

). . .

(2

1

)(−1)i−1

bi−1bi−2 . . . b2b1·

65

MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES

2.6.2. Expresiones de los momentos para la convolucion de

Bernoulli

Podemos reescribir las n primeras ecuaciones de la formula (2.6) de recurrencia

para los momentos de la convolucion infinita de Bernoulli µr en el intervalo [0, 1],

esto es para α = r, β1 = 0 y β2 = 1− rSn =

(1− r)n

2(1− rn)

n−1∑k=0

(n

k

)(r

1− r

)k

Sk

S0 = 1

(2.14)

como un producto matricial, AS = e1 siendo A = (aij) una matriz triangular inferior

dada por

aij =

(i− 1

j − 1

)(1− r)i−1

2(1− ri−1)

(r

1− r

)j−1

=

(i− 1

j − 1

)(1− r)i−j

2(1− ri−1)rj−1 para i > j,

S es el vector columna de los momentos de µr y e1 el primer elemento de la base

canonica de ℓ2,

1 0 0 . . . 0 . . .

(1−r)1

2(1−r1)

(10

) (r

1−r

)0 −1 0 . . . 0 . . .

(1−r)2

2(1−r2)

(20

) (r

1−r

)0 (1−r)2

2(1−r2)

(21

) (r

1−r

)1 −1 . . . 0 . . .

......

. . ....

(1−r)n

2(1−rn)

(n0

) (r

1−r

)0 (1−r)n

2(1−rn)

(n1

) (r

1−r

)1 · · · −1 · · ·...

......

. . .

S0

S1

S2

...

Sn

...

=

1

0

0

...

0

...

.

(2.15)

Para despejar vamos a aplicar los resultados de la seccion anterior para calcular

la matriz inversa de A. Para ello expresamos esta matriz de la forma A = D1TD2

siendo D1 = diag1, (1− r)i

2(1− ri), i = 1, . . . , n, D2 = diag

(r

1− r

)i

, i = 1, . . . , n y

T la matriz triangular inferior dada por tij =

(i− 1

j − 1

)si i > j > 1 y en la diagonal

t11 = 1 y tii = −2(1− ri)

risi i ∈ N.

66

2.6 Formulas explıcitas para los momentos

Teniendo en cuenta esta factorizacion, el sistema anterior D1TD2S = e1 se puede

transformar en TS ′ = D−11 e1 = e1 siendo S

′ = D2S, quedando un sistema mas simple

1 0 0 . . . 0 · · ·(1

0

)−2(1− r1)

r0 . . . 0 · · ·(

2

0

) (2

1

)−2

(1− r2)

r2. . . 0 · · ·

......

.... . .

...(n

0

) (n

1

) (n

2

)· · · −2 (1−rn)

rn· · ·

......

......

. . .

S ′0

S ′1

S ′2

...

S ′n

...

=

1

0

0

...

0

...

.

(2.16)

A partir de esta expresion se obtiene de forma inmediata el siguiente resultado.

Teorema 2.6.5. La formula explıcita para los momentos de convoluciones infinitas

de Bernoulli en el intervalo [0, 1] viene dada por

Sn =(1− r)n

2(1− rn)

∑0 < α1< α2< . . . < αk< n

α1, . . . αk ⊂ 1, . . . n − 1

(n

n− αk, αk − αk−1, . . . , α2 − α1, α1

) k∏j=1

rαj

2(1− rαj),

donde la notacion

(n

n− αk, αk − αk−1, . . . , α2 − α1, α1

)corresponde a los numeros

multinomicos.

Demostracion. Aplicamos el Corolario 2.6.3 para resolver el sistema (2.16) y teniendo

en cuenta que

Sn =

(r

1− r

)n

S ′n,

se tiene que

Sn =∑

0 < α1< α2< . . . < αk< n

α1, . . . αk ⊂ 1, . . . , n − 1

(n

αk

)(αk

αk−1

). . .

(α1

0

)(1− r)n

2(1− rn)

k∏j=1

rαj

2(1− rαj)

=(1− r)n

2(1− rn)

∑0 < α1< α2< . . . < αk< n

α1, . . . , αk ⊂ 1, . . . , n − 1

(n

n− αk, αk − αk−1, . . . , α2 − α1, α1

) k∏j=1

rαj

2(1− rαj)

67

MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES

A continuacion vemos como quedan los primeros momentos de la convolucion

infinita de Bernoulli en [0, 1], en funcion de la razon de semejanza r.

Ejemplo 2.6.6. Si n=4, la seccion 5 de la matriz A del sistema (2.15) sera

1 0 0 0 0

(1−r)1

2(1−r1)

(10

) (r

1−r

)0 −1 0 0 0

(1−r)2

2(1−r2)

(20

) (r

1−r

)0 (1−r)2

2(1−r2)

(21

) (r

1−r

)1 −1 0 0

(1−r)3

2(1−r3)

(30

) (r

1−r

)0 (1−r)3

2(1−r3)

(31

) (r

1−r

)1 (1−r)3

2(1−r3)

(32

) (r

1−r

)2 −1 0

(1−r)4

2(1−r4)

(40

) (r

1−r

)0 (1−r)4

2(1−r4)

(41

) (r

1−r

)1 (1−r)4

2(1−r4)

(42

) (r

1−r

)2 (1−r)4

2(1−r4)

(43

) (r

1−r

)3 −1

Por otro lado, su inversa sera

1 0 0 0 0

12

−1 0 0 0

12(r+1)

− rr+1

−1 0 0

−14r−2r+1

−32

r(r2+r+1)(r+1)

−32

r2

r2+r+1−1 0

−(r3−r2−1)2(r3+r2+r+1)(r+1)

(r5−r3−r2−2)r(r3+r2+r+1)(r2+r+1)(r+1)

−3r2

(r3+r2+r+1)(r2+r+1)−2r3

r3+r2+r+1−1

Por lo que la primera columna sera el vector de momentos (S0, S1, S2, S3, S4).

La formula explıcita anterior se puede expresar en terminos de composiciones de

un numero natural n. Recordemos (ver por ejemplo [Mer03]) que una k-composicion

de n es una solucion de la ecuacion a1 + a2 + · · · + ak = n, donde ai ∈ N para cada

i = 1, 2, . . . , k.

Dada una k-composicion de n, a1 + a2 + · · · + ak = n se puede construir un

(k− 1)-subconjunto de 1, 2, 3, .., n− 1 de la siguiente forma a1, a1 + a2, a1 + a2 +

a3, ...., a1 + a2 + a3 + ..+ ak−1.

Por ejemplo, la 1-composicion de 5 que es 5 = 5, da lugar al conjunto vacıo que

es un 0-subconjunto de 1, 2, 3, 4. La 2-composicion 3 + 2 = 5 de 5 dara lugar al

68

2.6 Formulas explıcitas para los momentos

conjunto 3, que es un 1-subconjunto de 1, 2, 3, 4. La 3-composicion 1+1+3 = 5

de 5 da lugar a 1, 2, que es un 2 subconjunto de 1, 2, 3, 4. La 4-composicion

2 + 1 + 1 + 1 = 5 de 5 da lugar a 2, 3, 4, que es un 3-subconjunto de 1, 2, 3, 4.

La 5-composicion de 5 que es 1 + 1 + 1 + 1 + 1 = 5 da lugar a 1, 2, 3, 4, que es un

4-subconjunto de 1, 2, 3, 4.

Corolario 2.6.7. La formula explıcita para los momentos de la convolucion infinita

de Bernoulli en el intervalo [0, 1] se puede expresar de la forma siguiente en terminos

de composiciones de n,

Sn =

(1− r

r

)n ∑ak + · · · + a2 + a1 = n

ai ≥ 1; ∀i = 1, . . . , k; ∀k ≥ 1

(n

ak, . . . , a2, a1

) k∏j=1

ra1+a2+···+aj

2(1− ra1+a2+···+aj)

Demostracion. Teniendo en cuenta el cambio

ak+1 = n− (αk − 1)

ak = αk − αk−1

......

a1 = α1 − 1

tenemos que la (k+1)−composicion de n, a1 + a2 + a3 + ..+ ak + ak+1 = n, verifica

αk − 1 = a1 + a2+ a3 + . . .+ ak = n− ak+1

......

α2 − 1 = a1 + a2

α1 − 1 = a1

Sn =

(1− r )n

2(1− rn)

∑ak+1 + · · · + a2 + a1 = n

ai ≥ 1; ∀i = 1, . . . , k; ∀k ≥ 1

(n

ak, . . . , a2, a1

) k∏j=1

ra1+a2+···+aj

2(1− ra1+a2+···+aj)

=

(1− r

r

)n ∑ak+1 + · · · + a2 + a1 = n

ai ≥ 1; ∀i = 1, . . . , k + 1; ∀k ≥ 1

(n

ak, . . . , a2, a1

) k+1∏j=1

ra1+a2+···+aj

2(1− ra1+a2+···+aj)

69

Capıtulo 3

MATRICES DE HESSENBERG Y

MEDIDAS AUTOSEMEJANTES

El estudio de la matriz de Hessenberg asociada a una medida autosemejante

podrıa ayudarnos a entender la estructura de esta medida. En el capıtulo anterior,

se muestra como las propiedades geometricas de una medida autosemejante para

un SFI pueden ser trasladadas a transformaciones de matrices de momentos. Ahora

estudiaremos la transformacion por una semejanza de una matriz de Hessenberg.

Mas concretamente, en este capıtulo se introduce un metodo para calcular la ma-

triz de Hessenberg de una suma de medidas partiendo de las matrices de Hessenberg

de las medidas componentes. Nuestro metodo extiende al plano complejo, las tecni-

cas espectrales usadas por G. Mantica [Ma00] que en el caso real calcula la matriz

de Jacobi asociada a una suma de medidas en funcion de las matrices de Jacobi de

las medidas dadas. Ver tambien [EGK92, Gau82].

Aplicaremos este metodo para aproximar la matriz de Hessenberg asociada a

una medida autosemejante y lo compararemos con la matriz de Hessenberg que se

obtiene a partir de la matriz de momentos del teorema de punto fijo [Teorema 2.5.6]

utilizando las formulas (1.3).

71

MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES

Finalmente, presentaremos algunos ejemplos para medidas autosemejantes clasi-

cas.

3.1. Transformaciones de matrices de Hessenberg

por semejanzas

En el capıtulo anterior se utilizaba la expresion de la matriz de momentos de la

medida inducida µf por una semejanza f(z) para aproximar la matriz de momentos

de una medida autosemejante. Parece natural que nos preguntemos por la expresion

de la matriz de Hessenberg Df correspondiente.

En esta primera seccion se presentara la expresion de matriz de Hessenberg Df

y algunas propiedades de invarianza.

Recordemos que, como se expuso en el capıtulo 1, la matriz M asociada a la

matriz D no tiene que ser necesariamente una matriz de momentos. Los resultados

de esta seccion son validos para el caso de matrices M HDP, aunque no sean de

momentos y por tanto no haya una medida asociada. Esto se debe a que la matriz

de Hessenberg D asociada a M se puede calcular con tecnicas de algebra lineal y sin

herramientas de teorıa de la medida.

El siguiente resultado que necesitaremos a lo largo de este capıtulo, puede encon-

trarse en [Tor87] aunque damos aquı una demostracion mas breve.

Proposicion 3.1.1. Sea f(z) = αz + β con α = |α|eiθ una semejanza en el plano

complejo. Sea M una matriz HDP y sea M f la matriz definida en Proposicion 2.1.1.

Entonces la matriz Df asociada a M f tiene como seccion de orden n la matriz

72

3.1 Transformaciones de matrices de Hessenberg por semejanzas

Dfn =

αd00 + β α2

|α|d01α3

|α|2d02α4

|α|3d03 . . . αn

|α|n−1d0n−1

|α|d10 αd11 + β α2

|α|d12α3

|α|2d13 . . . αn−1

|α|n−2d1n−1

0 |α|d21 αd22 + β α2

|α|d23 . . . αn−2

|α|n−3d2n−1

0 0 |α|d32 αd33 + β . . . αn−3

|α|n−4d3n−1

......

......

. . ....

0 0 0 0 . . . αdn−1n−1 + β

. (3.1)

Esto es

Dfn = α U⋆

nDnUn + βIn,

con U = (δjk e(k−1)θi)∞j,k=0.

Demostracion. En el capıtulo anterior, en la Proposicion 2.1.2 se vio que si M es

una matriz HDP la matriz M f definida en (2.1) tambien es HDP. Como vimos en el

capıtulo 1, toda matriz HDP tiene una matriz de Hessenberg asociada. Denotaremos

por D y por Df las matrices de Hessenberg asociadas a M y a M f , respectivamente.

Si partimos de la descomposicion de Cholesky de M , M = TT ⋆, entonces se tiene

M f = A⋆fMAf = (A⋆

fT )(T⋆Af ), sin embargo, no se puede asegurar que A⋆

fT sea el

factor de Cholesky de M f , ya que la diagonal deberıa ser estrictamente positiva.

Notese que los elementos de la diagonal de las matrices (A⋆fT ) y (T ⋆Af ), son

diag(A⋆fT ) = (tiiα

i)∞i=0 y diag(T ⋆Af ) = (tiiαi)∞i=0.

La unica matriz U unitaria, tal que UU⋆ = U⋆U = I, cuyas secciones principales

sean tambien unitarias verificando

M fn = A⋆

f,nTnUnU⋆nT

⋆nAf,n,

de modo que la matriz T = A⋆fTU tenga diagonal real y positiva es la matriz diagonal

dada por

diag(U) = (ejiθ)∞j=0.

73

MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES

Si ahora utilizamos las formulas D = T ⋆S(T ∗)−1 y Df = T ⋆S(T ∗)−1 vistas en el

capıtulo 1, tendremos

Df = T ⋆S(T ∗)−1 = U⋆T ⋆AfSA−1f (T ∗)−1U.

Utilizando que A−1f = Af−1 , se tiene

AfSAf−1 =

(10

)β1

(20

)β2

(30

)β3 . . .(

11

)α1

(21

)α1β1

(31

)α1β2 . . .

0(22

)α2

(32

)α2β1 . . .

0 0(33

)α3 . . .

......

.... . .

1 −(10

)βα

(20

)β2

α2 −(30

)β3

α3 . . .

0(11

)1α

−(21

)1α

βα

(31

)1α

β2

α2 . . .

0 0(22

)1α2 −

(32

)1α2

βα

. . .

0 0 0(33

)1α3 . . .

......

......

. . .

= αS + βI.

Sustituyendo en la expresion de Df tendremos que

Df = U⋆T ⋆AfSAf−1(T ∗)−1U = U⋆T ⋆(αS + Iβ)(T ∗)−1U

= α U⋆DU + βI.

Por lo que el resultado queda probado.

Observacion 3.1.2. Notese que Df es unitariamente equivalente a αD + Iβ.

A continuacion vamos a ver algunos ejemplos.

Ejemplo 3.1.3. En el ejemplo 2.1.4 hemos visto que la matriz de momentos de la

medida de Lebesgue normalizada en la circunferencia unidad centrada en (1, 0), se

obtenıa con la transformacion de la matriz identidad por la semejanza con α = 1 y

β = 1. En este caso se sabe que la matriz D asociada a la matriz identidad es el shift

right y aplicando la formula anterior tenemos que

D =

0 0 0 0 . . .

1 0 0 0 . . .

0 1 0 0 . . .

0 0 1 0 . . .

......

......

. . .

=⇒ Df =

1 0 0 0 . . .

1 1 0 0 . . .

0 1 1 0 . . .

0 0 1 1 . . .

......

......

. . .

.

74

3.1 Transformaciones de matrices de Hessenberg por semejanzas

Ejemplo 3.1.4. Sea S la matriz del shift right. La matriz D = S + S⋆ es la matriz

de Hessenberg asociada a los polinomios ortogonales de Tchebyschev de segunda

especie en [−2, 2]. La matriz que resulta de transformar D mediante f(z) = αz + β,

con α = eπ/4i, y β = i es

D =

0 1 0 0 . . .

1 0 1 0 . . .

0 1 0 1 . . .

0 0 1 0 . . .

......

......

. . .

=⇒ Df =

i i 0 0 0 . . .

1 i i 0 0 . . .

0 1 i i 0 . . .

0 0 1 i i . . .

0 0 0 1 i . . .

......

......

.... . .

.

Esta es una distribucion sobre una recta diferente del eje real y por tanto ya no es

una matriz tridiagonal de Jacobi.

3.1.1. Propiedades de invarianza

A continuacion vamos a analizar propiedades de la matriz de Hessenberg en el

caso de que la matriz M asociada sea HDP y no necesariamente de momentos.

Teorema 3.1.5. Sea D un operador acotado en ℓ2(N0) y f(z) = αz + β una trans-

formacion de semejanza. Entonces se cumplen las siguientes propiedades:

i) D es normal, si y solo si, Df es normal.

ii) D es hiponormal, si y solo si, Df es hiponormal.

iii) D es subnormal, si y solo si, Df es subnormal.

Demostracion. Hemos visto que Df = αU⋆DU+βI, de donde [Df ]⋆ = αU⋆D⋆U+βI

y se tiene

[Df ]⋆Df = (αU⋆D⋆U + βI)(αU⋆DU + βI)

= |α|2U⋆D⋆DU + αβU⋆DU + αβU⋆D⋆U + |β|2I. (3.2)

75

MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES

Por otro lado

Df [Df ]⋆ = (αU⋆DU + βI)(αU⋆D⋆U + βI)

= |α|2U⋆DD⋆U + αβU⋆DU + αβU⋆D⋆U + |β|2I.

Luego se cumple que

[Df ]⋆Df −Df [Df ]⋆ = |α|2U⋆ (D⋆D −DD⋆)U.

Veamos ahora las tres propiedades.

i) Si D es normal, es decir D⋆D−DD⋆ = 0, entonces [Df ]⋆Df −Df [Df ]⋆ = 0, y

por tanto Df es normal. El recıproco es obvio.

ii) Si D es hiponormal, es decir D⋆D−DD⋆ ≥ 0, entonces [Df ]⋆Df−Df [Df ]⋆ ≥ 0,

y por tanto Df es hiponormal. El recıproco es inmediato.

iii) Recordemos que segun el Teorema 1.2.10 en el caso acotado, D es subnormal y

acotada si y solo si M es de momentos. Por tanto, si D es subnormal hay una

medida µ asociada, y en ese caso, Df es la matriz de Hessenberg asociada a la

medida imagen de µ por f , y por tanto es subnormal. El recıproco se prueba

en forma analoga, ya que f es invertible.

Observacion 3.1.6. No es cierto que se conserve la cuasinormalidad. Veamos un

ejemplo.

Sea S la matriz del shift right, que como sabemos es la matriz de Hessenberg aso-

ciada a la matriz identidad, que es la matriz de momentos de la medida de Lebesgue

normalizada en la circunferencia unidad. Sabemos que S⋆S = I, de ahı se deduce

que S es cuasinormal ya que S(S⋆S) = (S⋆S)S.

Sin embargo, si f(z) = z + 1, se tiene que Df = S + I, que es la matriz de

Hessenberg correspondiente a la matriz de Pascal, que no es cuasinormal.

76

3.2 Matriz de Hessenberg de una suma de medidas

Como D = S + I, tenemos D⋆ = S⋆ + I, de aquı tendremos que

D⋆D = (S⋆ + I)(S + I) = S⋆S + S⋆ + S + I = 2I + S⋆ + S.

Analogamente

DD⋆ = (S + I)(S⋆ + I) = SS⋆ + S⋆ + S + I.

Luego

D⋆D −DD⋆ = I − SS⋆.

Calculemos finalmente D(D⋆D)− (D⋆D)D,

(S + I) [2I + S⋆ + S]− [2I + S⋆ + S] (S + I)

= S [2I + S⋆ + S]− [2I + S⋆ + S]S

= SS⋆ − S⋆S = SS⋆ − I = 0.

Luego la cuasinormalidad no se conserva.

3.2. Matriz de Hessenberg de una suma de medi-

das

En esta seccion introducimos un metodo que calcula exactamente la matriz de

Hessenberg de una suma de medidas partiendo de las matrices de Hessenberg de las

medidas componentes. Este metodo extiende las tecnicas espectrales que G. Mantica

usa en [Ma00], para calcular la matriz de Jacobi asociada a una suma de medidas

partiendo de las matrices de Jacobi de cada una de las medidas componentes (ver

tambien [EGK92, Gau82]).

A lo largo de la seccion consideraremos una familia de medidas, µimi=1 todas

con soporte compacto Ωi ⊂ C y µi(Ωi) = 1. Sea µ la medida suma, i.e.,

dµ =m∑i=1

pidµi,

77

MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES

dondem∑i=1

pi = 1 y pi ≥ 0 para cada i = 1, 2, . . .m.

Sean D(i)mi=1 las correspondientes matrices de Hessenberg y sea D = (djk)∞j,k=0

la matriz de Hessenberg asociada a µ. Daremos un procedimiento para calcular D

en terminos de las D(i)mi=1.

Senalemos en primer lugar que todas las matrices D(i) estan acotadas en ℓ2(N0),

por ser compacto el soporte de las correspondientes medidas. En segundo lugar,

que cada matriz D(i)mi=1 define un operador acotado y subnormal en ℓ2(N0), (ver

[Atz75], [GT93] y [Tom04]).

La subnormalidad y acotacion de estos operadores sera lo que nos permitira ex-

tender la tecnicas espectrales descritas en [Ma00].

Recordemos que dada una medida µ con soporte compacto y siendoD = (djk)∞j,k=0

la matriz de Hessenberg asociada, la sucesion de polinomios ortonormales asociada

verifica la formula (1.1) de recurrencia larga

zPn(z) =n+1∑k=0

dk,nPk(z), n ≥ 0,

con P0(z) = 1 cuando c00 = 1.

Observacion 3.2.1. La formula anterior tambien la escribiremos como

dn+1,nPn+1(z) = (z − dnn)Pn(z)−n−1∑k=0

dk,nPk(z), n ≥ 0, (3.3)

donde, para n = 0, la suma−1∑k=0

dk,0Pk(z) se considera igual a cero.

Una consecuencia inmediata del teorema de representacion espectral para opera-

dores normales y del calculo funcional (ver [Con91]), es el siguiente lema.

Lema 3.2.2. Sea N un operador normal acotado. Dada una sucesion de polinomios

que satisfacen la formula (3.3) de recurrencia larga. Entonces N satisface la identidad

dn+1,nPn+1(N) = (N − dnn)Pn(N)−n−1∑k=0

dk,nPk(N), n ≥ 0. (3.4)

78

3.2 Matriz de Hessenberg de una suma de medidas

Proposicion 3.2.3. Sea S un operador subnormal acotado definido en ℓ2. Dada una

sucesion de polinomios que satisfacen la formula (3.3) de recurrencia larga. Entonces

S satisface la identidad

dn+1,nPn+1(S) = (S − dnnI)Pn(S)−n−1∑k=0

dk,nPk(S), n ≥ 0. (3.5)

Demostracion. La idea de la prueba es usar la mınima extension normal del operador

subnormal S, N = men(S) [Con91]. Existe un espacio de Hilbert K, H ⊂ K, tal

que N : K → K y N |H = S. Podemos descomponer K = H⊕

H⊥, respecto de esta

suma directa el operador N = men(S) se puede escribir, (ver pag 129 de [Con91]),

como una matriz 2× 2

N =

S X

0 Y

;

el bloque 0 aparece debido a que N(H) ⊂ H y obviamente N |H= S. En consecuencia

tendremos que

N j =

Sj

0 Y j

, (3.6)

con el sımbolo indicamos resultados o valores que no son pertinentes para nuestro

objetivo. Al ser N normal, dada la identidad (3.4), se cumple que

dn+1,nPn+1

S X

0 Y

=

S X

0 Y

− dnn

I 0

0 I ′

Pn

S X

0 Y

n−1∑k=0

dk,nPk

S X

0 Y

.

En esta expresion I ′ : H⊥ → H⊥, es el operador identidad en el espacio complemen-

to ortogonal de H en K. Teniendo en cuenta (3.6) y desarrollando los respectivos

polinomios resulta dn+1,nPn+1(S)

0

=

S − dnnI

0

Pn(S)

0

−n−1∑k=0

dk,nPk(S)

0

.

79

MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES

Efectuando el anterior producto matricial, sumando en el termino de la derecha,

resulta una identidad de operadores en cajas 2 × 2, si nos quedamos solo con el

resultado de la posicion (1, 1), tendremos

dn+1,nPn+1(S) = (S − dnnI)Pn(S)−n−1∑k=0

dk,nPk(S), (3.7)

que es lo que querıamos probar.

Definicion 3.2.4. Sea Pn(z)∞n=0 la SPON asociada a dµ =∑m

i=1 pidµi, y sea

D(i) la familia de matrices de Hessenberg correspondientes a las medidas µimi=1

dadas. Notaremos con

v(i)n = Pn(D(i))e0,

al correspondiente vector de ℓ2(N0).

Es claro que v(i)n ∈ ℓ2 ya que D(i) es acotada por ser el soporte compacto.

Proposicion 3.2.5. Sea µimi=1 una familia de medidas con soporte compacto en

C y dµ =∑m

i=1 pidµi la medida suma. Sea Pn∞n=0 la SPON y D = (djk)∞j,k=0

asociada a µ, y sean D(i)mi=1 las matrices de Hessenberg correspondientes a las

medidas µimi=1. Entonces se verifican las siguientes identidades

dn+1,nv(i)n+1 = [D(i) − dnnI]v

(i)n −

n−1∑k=0

dknv(i)k , n ≥ 0, i = 1, . . . ,m (3.8)

dkn =m∑i=1

pi ⟨D(i)v(i)n , v(i)k ⟩, k = 0, 1, 2, . . . , n, (3.9)

donde

v(i)n = Pn(D(i))e0, n ≥ 0, i = 1, . . . ,m y e0 = (1, 0, 0, . . . )T

son familias de vectores en ℓ2(N0).

Demostracion. Partimos de una familia de medidas µimi=1, necesariamente las ma-

trices de Hessenberg D(i) definen operadores acotados subnormales en ℓ2(N0). En

consecuencia todas ellas satisfacen la identidad (3.7). Basta ahora aplicar la identi-

dad (3.7) al vector e0 y aplicar la definicion de v(i)n para obtener (3.8).

80

3.2 Matriz de Hessenberg de una suma de medidas

La formula (3.9) se obtiene a partir de la formula (3.3) de recurrencia larga como

sigue. Multiplicamos, usando el producto interior asociado a la medida suma, por

Pk(z) a ambos lados de (3.3). Teniendo en cuenta que los polinomios Pn(z)∞n=0 son

ortonormales, se tiene que

⟨zPn(z), Pk(z)⟩µ =

∫Ω

Pk(z)zPn(z)dµ =

∫Ω

[n+1∑j=0

djnPj(z)

]Pk(z)dµ = dkn, (3.10)

donde Ω = Supp(µ).

Por otro lado si consideramos la funcion Pk(z)zPn(z), es obvio que para la mıni-

ma extension normal N (i) de D(i), por tratarse de operadores normales y ser dEµi

la medida espectral correspondiente, se cumplira por el teorema de representacion

espectral que [Pk(N

(i))]⋆ [

N (i)Pn(N(i))]=

∫σ(N(i))

Pk(z)zPn(z)dEµi. (3.11)

Utilizando la representacion matricial de la mınima extension normal

N (i) =

D(i) X(i)

0 Y (i)

,

sustituyendo en (3.11) y llamando Ωi = Supp(µi) = σ(N i), resulta la identidad

matricial

[Pk(D

(i))]⋆ [

D(i)Pn(D(i))]

=

∫σ(N(i))

Pk(z)zPn(z)dEµi

Aplicaremos esta identidad a e0 = (e0, 0), donde 0 es el vector nulo de (ℓ2)⊥

complemento ortogonal de ℓ2(N0). Multiplicando por e0 y teniendo en cuenta que

dµi = ⟨dEµie0, e0⟩ = ⟨dEµi

e0, e0⟩, se tiene

⟨[Pk(D

(i))]H [

D(i)Pn(D(i))]e0, e0⟩ = ⟨D(i)Pn(D

(i))e0, Pk(D(i))e0⟩

=

∫σ(N(i))

Pk(z)zPn(z)⟨dEµie0, e0⟩

=

∫σ(N(i))=Ωi

Pk(z)zPn(z)dµi

81

MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES

Utilizando la definicion de los v(i)n , para todo i = 1, 2, . . . ,m se tiene

⟨D(i)v(i)n , v(i)k ⟩ = ⟨

[Pk(D

(i))]H [

D(i)Pn(D(i))]e0, e0⟩,

de donde

m∑i=1

pi ⟨D(i)v(i)n , v(i)k ⟩ =

m∑i=1

pi

∫Ωi

Pk(z)zPn(z)dµi

=

∫Ω

Pk(z)zPn(z)

[m∑i=1

pidµi

]= dkn.

Para disenar el algoritmo que nos permite obtener con exactitud la matriz D a

partir de las D(i)mi=1 generalizaremos los resultados que Mantica obtuvo en [Ma00]

para el caso real.

Proposicion 3.2.6. En las condiciones de la proposicion anterior, se verifica lo

siguiente,

d2n+1,n =m∑i=1

pi ⟨w(i)n+1, w

(i)n+1⟩,

donde

w(i)n+1 = dn+1,nv

(i)n+1, i = 1, 2, . . . ,m,

es una familia de vectores en ℓ2(N0).

Demostracion. Puesto que ⟨w(i)n+1, w

(i)n+1⟩ = d2n+1,n⟨v

(i)n+1, v

(i)n+1⟩, tenemos

m∑i=1

pi ⟨w(i)n+1, w

(i)n+1⟩ =

m∑i=1

pid2n+1,n⟨v

(i)n+1, v

(i)n+1⟩

= d2n+1,n

m∑i=1

pi⟨Pn+1(D(i))e0, Pn+1(D

(i))e0⟩

= d2n+1,n

∫Ω

|Pn+1(z)|2dµ = d2n+1,n.

82

3.2 Matriz de Hessenberg de una suma de medidas

La anterior proposicion nos servira para obtener dn+1,n, conociendo los w(i)n+1. A

continuacion, dado que v(i)n+1 = w

(i)n+1/dn+1,n, podemos determinar v

(i)n+1, i = 1, 2, . . . ,m.

De esta forma podemos definir el siguiente algoritmo.

Teorema 3.2.7. Sean µimi=1 medidas con soporte compacto y se la medida suma

µ. Consideramos la SPON Pn∞n=0 y la matriz de Hessenberg D asociada a µ y

D(i)mi=1 como antes. Se denota por v(i)0 = (1, 0, 0, . . . )T para cada i = 1, . . . ,m.

Entonces los elementos de la matriz D = (djk)∞j,k=0 asociada a µ pueden ser cal-

culados recursivamente partiendo de los elementos de las matrices D(i)mi=1 usando

las siguientes formulas para n = 0, 1, 2, . . .

dk,n =m∑i=1

pi⟨D(i)v(i)n , v(i)k ⟩, k = 0, 1, . . . , n (3.12)

w(i)n+1 =

[D(i) − dnnI

]v(i)n −

n−1∑k=0

dk,nv(i)k , i = 1, . . . ,m (3.13)

dn+1,n =

√√√√ m∑i=1

pi⟨w(i)n+1, w

(i)n+1⟩, (3.14)

v(i)n+1 =

w(i)n+1

dn+1,n

, i = 1, . . . ,m. (3.15)

Demostracion. Las expresiones (3.12), (3.13), (3.14) y (3.15) han sido probadas en

las proposiciones precedentes.

En lo que sigue describiremos como utilizarlas para calcular D = (dij)∞i,j=0 por

secciones.

Veamos como obtener (v(i)k mi=1nk=0, Dn+1) por induccion.

Para n = 0, conocemos (v(i)0 mi=1, D1):

v(i)0 = e0 para cada i = 1, . . . ,m, y

D1 = (d00) donde d00 =m∑i=1

pi⟨D(i)e0, e0⟩ =m∑i=1

pid(i)00

Supongamos conocido el valor de(

v(i)0 , v

(i)1 , . . . , v

(i)n

m

i=1, Dn+1

), i.e., esto es cono-

83

MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES

cemos el valor de:

v(i)0 , v

(i)1 , . . . , v(i)n

m

i=1, Dn+1 =

d00 d01 . . . d0n

d10 d11 . . . d1n...

......

0 0 . . . dnn

.

Mostraremos como obtener(

v(i)0 , v

(i)1 , . . . , v

(i)n+1

m

i=1, Dn+2

)mediante un diagrama

de flechas, que define el algoritmo recursivo.

Dn+1 v(i)0 , v

(i)1 , . . . , v

(i)n

?

w(i)n+1

=[D(i) − dnnI

]v(i)n −

n−1∑k=0

dk,nv(i)k , i = 1, . . . ,m (3.13)

?

dn+1,n =

√√√√ m∑i=1

pi⟨w(i)n+1, w

(i)n+1⟩ (3.14)

?

v(i)n+1

=w

(i)n+1

dn+1,n

(3.15) v(i)0 , v

(i)1 , . . . , v

(i)n

@@

@@@R

dk,n+1 =

m∑i=1

pi⟨D(i)v(i)n+1, v

(i)k ⟩, k = 0, . . . , n+ 1 (3.12)

Se observa que hay formulas que pueden ser escritas en forma matricial.

Corolario 3.2.8. Llamemos V (i) a la matriz triangular superior infinita que tiene

por columnas los vectores v(i)0 , v

(i)1 , v

(i)2 , . . ., de ℓ2(N0), es decir V

(i) = (v(i)0 , v

(i)1 , v

(i)2 , . . .).

Entonces se cumple que

D =m∑i=1

pi [V(i)]⋆D(i)V (i).

84

3.2 Matriz de Hessenberg de una suma de medidas

Demostracion. Simplemente expresando matricialmente (3.12) se obtiene el resulta-

do.

Veamos una propiedad trivial de la matriz infinita triangular superior V (k).

Corolario 3.2.9. Se cumple que

m∑k=1

pk [V(k)]⋆V (k) = I.

Demostracion. Esto es consecuencia de la ortogonalidad de los Pk(z)∞k=0 respecto

de la medida∑m

k=1 pkdµk, ya que

v(k)n = Pn(D(k))e0

Obviamente ⟨Pi(z), Pj(z)⟩ = δij. Por el teorema de representacion espectral, al ser

dEµk la medida espectral correspondiente a la extension normal de D(k), resulta

inmediato que

⟨Pi(D(k))e0, Pj(D

(k))e0⟩ =∫Ω

Pi(z)Pj(z)⟨dEµke0, e0⟩.

Multiplicando ambos miembros por pk y sumando ahora desde k = 1 hasta k = m

tendremos que

m∑k=1

pk⟨v(k)i , v(k)j ⟩ =

∫Ω

Pi(z)Pj(z)

[m∑k=1

pkdµk

]= δij,

luego la tesis se cumple de inmediato.

Ejemplo 3.2.10. Consideremos dos medidas, la de Lebesgue sobre la circunferencia

unidad que es bien sabido que tiene como matriz de momentos M (1) = I, y la medida

de Lebesgue sobre la circunferencia de radio 1 centrada en el punto (1, 0), cuya matriz

de momentos es la matriz de Pascal, es decir, M (2) = (mij)∞i,j=0 con mij =

(i+ j

j

).

Para mayor simplicidad tomamos p1 = p2 = 1/2. Resultara que

M =1

2I +

1

2M (2).

85

MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES

Sabemos que la matriz D(1) = S, es decir, el shift-right. Por otro lado por construc-

cion D(2) = S + I. La matriz D correspondiente a M , obtenida vıa descomposicion

de Cholesky, restringiendonos a 4× 4, tras hacer D4 = T−14 M ′

4(T∗4 )

−1, sera

D4 =

12

√5

100 −

√330330

√52

12

√1010

0

0 4√10

1012

7√660

660

0 0√66020

12

.

Comprobemos como llegamos a identico resultado a partir de D(1) y D(2), mediante

el algoritmo dado por el Teorema 3.2.7.

Tenemos que

d00 =1

2e0⟨Se0, e0⟩+

1

2⟨[S + I]e0, e0⟩ = 0 +

1

2=

1

2.

Trabajando por secciones, tendremos

w(1)1 =

0 0 0 0

1 0 0 0

0 1 0 0

0 0 1 0

− 1

2I4

1

0

0

0

=

−1/2

1

0

0

,

w(2)1 =

1 0 0 0

1 1 0 0

0 1 1 0

0 0 1 1

− 1

2I4

1

0

0

0

=

1/2

1

0

0

.

Por tanto

d1,0 =

√1

2(1

4+ 1) +

1

2(1

4+ 1) =

√5

2.

Asimismo,

v(1)1 =

2√5

5

−1/2

1

0

0

, v

(2)1 =

2√5

5

1/2

1

0

0

.

86

3.2 Matriz de Hessenberg de una suma de medidas

d0,1 =1

2⟨2√5

5

0 0 0 0

1 0 0 0

0 1 0 0

0 0 1 0

−1/2

1

0

0

,

1

0

0

0

+1

2⟨2√5

5

1 0 0 0

1 1 0 0

0 1 1 0

0 0 1 1

1/2

1

0

0

,

1

0

0

0

= 0 +

√5

10.

d1,1 =1

2⟨2√5

5

0 0 0 0

1 0 0 0

0 1 0 0

0 0 1 0

−1/2

1

0

0

,2√5

5

−1/2

1

0

0

+1

2⟨2√5

5

1 0 0 0

1 1 0 0

0 1 1 0

0 0 1 1

1/2

1

0

0

,2√5

5

1/2

1

0

0

=1

2(−2

5) +

1

2

7

5=

5

10=

1

2.

Ejemplo 3.2.11. Sea a ∈ R. Consideramos las distribuciones dµ1 =√1− (x− a)2dx

y dµ2 =√1− (x+ a)2dx correspondientes a los polinomios de Chebyshev de segun-

da clase sobre los intervalos [a − 1, a + 1] y [−a − 1,−a + 1], respectivamente. Sea

µ =1

2µ1 +

1

2µ2 la medida suma.

Las correspondientes matrices de Jacobi son

87

MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES

D(1) =

a1

20 0 0 0

1

2a

1

20 0 0

01

2a

1

20 0

0 01

2a

1

20

0 0 01

2a

1

2

0 0 0 01

2a

, D(2) =

−a1

20 0 0 0

1

2−a

1

20 0 0

01

2−a

1

20 0

0 01

2−a

1

20

0 0 01

2−a

1

2

0 0 0 01

2−a

.

La seccion 5 de la tridiagonal de Jacobi de la suma resulta

0√4a2+12 0 0 0

√4a2+12 0

√16a2+1

2√4a2+1

0 0

0√16a2+1

2√4a2+1

0√256a6+80a4+44a2+12√16a2+1

√4a2+1

0

0 0√256a6+80a4+44a2+12√16a2+1

√4a2+1

0√16384a8+6144a6+896a4+100a2+12√16a2+1

√256a6+80a4+44a2+1

0 0 0√16384a8+6144a6+896a4+100a2+12√16a2+1

√256a6+80a4+44a2+1

0

.

Observamos que los soportes de las medidas iniciales son disjuntos si a > 1.

Cuando a = 0, tenemos los polinomios de Chebyshev sobre el intervalo [−1, 1] y

cuando 0 ≤ a < 1 tenemos una suma de medidas con soportes solapados.

3.3. Matriz de Hessenberg asociada a una medida

autosemejante

En esta seccion vamos a aplicar los resultados del Teorema 3.2.7 junto con la Pro-

posicion 3.1.1 para calcular la matriz de Hessenberg de una medida autosemejante.

Para ello vamos a considerar en toda la seccion un SFI con probabilidades

Φ = φ1, φ2, . . . , φk; p1, p2, . . . , pk,

88

3.3 Matriz de Hessenberg asociada a una medida autosemejante

de semejanzas contractivas φs(z) = αsz+ βs para s = 1, 2, . . . , k. Recordemos que la

medida µΦ invariante para este sistema verifica

µΦ =k∑

s=1

psµΦ φ−1s ,

por lo que se puede considerar como una suma de medidas.

Corolario 3.3.1. Consideramos el SFI con probabilidades

Φ = φ1, φ2, . . . , φk; p1, p2, . . . , pk,

de semejanzas contractivas φs(z) = αsz + βs para s = 1, 2, . . . , k. Sea µΦ la me-

dida autosemejante asociada y sea D(µ) la matriz de Hessenberg correspondiente.

Entonces se satisface la siguiente identidad

D(µ) =m∑s=1

ps [V(s)]⋆

[αs[U

(s)]⋆D(µ)U (s) + βsI]V (s),

donde las matrices U (s) son matrices diagonales tales que U (s) =(δnme

(n−1)θsi)∞n,m=1

,

siendo αs = |αs|eθsi.

Demostracion. Es consecuencia del Teorema 3.1.1 y del Corolario 3.5.2.

Definicion 3.3.2. Dado el SFI con probabilidades

Φ = φ1, φ2, . . . , φk; p1, p2, . . . , pk,

de semejanzas contractivas φs(z) = αsz+βs para s = 1, 2, . . . , k. Se define la siguiente

transformacion TΦ en el espacio de todas las matrices de Hessenberg asociadas a

medidas de probabilidad con soporte compacto en el plano complejo C como

TΦ(D(ν)) =k∑

s=1

ps [V(s)]⋆

[αs[U

(s)]⋆D(ν)U (s) + βsI]V (s),

donde U (s) y αs son como en el corolario anterior y V (s) como en el Corolario 3.5.2

para µs = µ φ−1s .

89

MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES

Observacion 3.3.3. Observamos que la transformacion TΦ esta bien definida porque

para cada matriz de Hessenberg D(ν), asociada a la medida ν, la transformacion

TΦ(D(ν)) es la matriz de Hessenberg de la medida sumam∑s=1

psν φ−1s como ya

habıamos probado anteriormente.

Teorema 3.3.4. Consideramos el SFI con probabilidades

Φ = φ1, φ2, . . . , φk; p1, p2, . . . , pk,

de semejanzas contractivas φs(z) = αsz+βs para s = 1, 2, . . . , k. Sea µ la correspon-

diente medida autosemejante y sea TΦ la transformacion anterior.

Entonces, para cada matriz de Hessenberg D(ν) asociada a una medida ν, se tiene

que la sucesion TnΦ(D(ν)) converge elemento a elemento a la matriz de Hessenberg

D(µ), donde TnΦ denota la n-esima composicion de TΦ.

Demostracion. Sea la medida ν y sea D(ν) la matriz de Hessenberg asociada. La

sucesion de matrices TnΦ(D(ν)) se corresponde unıvocamente con la sucesion de ma-

trices de momentos dadas por la iteracion del operador de Markov. Esta sucesion de

matrices de momentos converge a la matriz de momentos de la medida autosemejante

µ como vimos en el capıtulo anterior. El siguiente diagrama muestra la convergencia.

ν −→ TΦ(ν) −→ T 2Φ(ν) · · · T n

Φ(ν) −→ µ

M(ν) −→ TΦ(M(ν)) −→ T 2Φ (M(ν)) · · · T n

Φ (M(ν)) −→ Mµ

D(ν) −→ TΦ(D(ν)) −→ T2Φ(D(ν)) · · · Tn

Φ(D(ν)) −→ D(µ)

La velocidad de convergencia se deduce de resultados probados en el capıtulo

anterior y la estabilidad numerica del algoritmo de [Ma00]. Los ejemplos y calculos

de la siguiente seccion muestran estos resultados.

90

3.4 Comparativa de algoritmos y ejemplos

Observacion 3.3.5. El teorema anterior nos permite obtener valores aproximados

de las secciones de la matriz de Hessenberg de una medida autosemejante. Por otro

lado, la formula recurrente para los momentos de medidas autosemejantes dada en

el Teorema 2.2.1 nos permiten obtener, de forma exacta, los momentos de medidas

autosemejantes, mediante calculo simbolico. Utilizando las formulas (1.3), podemos

obtener la seccion n-esima exacta de la deseada matriz de Hessenberg de la medida

autosemejante. Este calculo simbolico tiene un alto coste computacional, pues las

expresiones de los momentos como vimos en el capıtulo anterior son inmanejables.

Sin embargo, si se utiliza el calculo numerico en las mismas formulas (1.3), el metodo

no es estable.

3.4. Comparativa de algoritmos y ejemplos

A lo largo de esta seccion llamaremos Algoritmo II al metodo que consiste en

aplicar el Teorema 3.3.4 para aproximar la matriz de Hessenberg asociadas a medidas

autosemejantes.

Por otro lado, llamaremos Algoritmo I al metodo que consiste en aplicar el pro-

ceso iterativo para matrices de momentos de medidas autosemejantes descritas en

el capıtulo anterior y recuperar la matriz de Hessenberg usando la factorizacion de

Cholesky (1.3).

En esta seccion aplicaremos estos dos algoritmos a cuatro ejemplos de medidas

autosemejantes, usando 10 dıgitos de precision y compararemos los resultados obte-

nidos con la matriz real de Hessenberg que podemos calcular a partir de la formula

(1.3) que, para secciones pequenas, se pueden calcular de forma simbolica a partir

de la matriz de momentos cuyas formulas se dan en el Teorema 2.2.1.

Ejemplo I. Consideramos la medida de Lebesgue normalizada en el intervalo [−1, 1]

91

MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES

que, como sabemos, es la medida invariante asociada al SFI con probabilidades

Φ =

φ1(x) =

1

2x− 1

2, φ2(x) =

1

2x+

1

2; p1 = p2 =

1

2

.

Algoritmo I. En el ejemplo 2.2.4. vimos que si iteramos 20 veces la transformacion

TΦ(M(ν)) =2∑

i=1

1

2AH

φiM(ν)Aφi

, comenzando con la matriz identidad de orden 6,

obtenemos una matriz que aproxima, con diez dıgitos de precision, la seccion de orden

seis de la bien conocida matriz de momentos de la medida de Lebesgue. Aplicando

la formula (1.3), tenemos la siguiente aproximacion de la seccion de orden 5 de la

matriz de Jacobi J5(L)

0,0 0,5773502693 0,0 0,0 0,0

0,5773502691 0,0 0,5163977795 0,0 −0,7577722133 · 10−9

0,0 0,5163977796 0,0 0,5070925551 0,0

0,3023715782 · 10−9 0,0 0,5070925521 0,0 0,5039526136

0,0 −0,2639315569 · 10−8 0,0 0,5039526419 0,0

.

Algoritmo II. Comenzando con la seccion 5 de la matriz S del shift right, y haciendo

30 iteraciones de la transformacion TΦ(D) =m∑i=1

pi [V(i)]⋆

[αi[U

(i)]⋆DU (i) + βiI]V (i)

del Teorema 3.3.4 obtenemos la siguiente matriz

0,0 0,5773502692 0,0 −0,2133333332 · 10−9 0,0

0,5773502691 0,0 0,5163977796 0 −0,1 · 10−9

0,0 0,5163977796 0,0 0,5070925526 0,0

0,0 0,0 0,5070925529 0,0 0,5039526304

0,0 0,0 0,0 0,5039526307 0,0

.

Estas dos matrices coinciden, con 6 y 9 dıgitos de precision respectivamente, con la

seccion de orden 5 de la conocida matriz de Jacobi de esta medida que viene dada

por

dn+1,n = dn,n+1 =n+ 1√

4(n+ 1)2 − 1.

92

3.4 Comparativa de algoritmos y ejemplos

Ejemplo II. Consideramos la medida autosemejante para el SFI dado por

Φ =

φ1(z) =

z

2− 1

2, φ2(z) =

z

2+

1

2, φ3(z) =

z

2+

√3i

2; pi =

1

3

,

que como vimos en el Ejemplo 2.6.9. es la medida uniforme sobre el triangulo de

Sierpinski.

Algoritmo I. Con 30 iteraciones, comenzando con la matriz identidad, obtenemos

una aproximacion de la seccion de orden 4 de la matriz de Hessenberg de la medida:0,5773502693i 0,3 · 10−9 −0,4182428890i −0,2457739408 · 10−8

0,6666666673 0,5773502691i 0,1267731382 · 10−8 −0,3487499915i

0 0,7888106373 0,5773502706i 0,1292460659 · 10−8

−0,406877 · 10−9 0,279363 · 10−9i 0,7737179471 0,5773502588i

.

Algoritmo II. Comenzando con la seccion de orden 4 de la matriz del shift right,

y haciendo 20 iteraciones de TΦ(D) obtenemos la siguiente matriz.

0,5773497186 i −0,2 · 10−9 −0,4182428884 i −1,3 · 10−10 + 2,09 · 10−43 i

0,6666666668 0,5773497190 i 10−9 − 5,2 · 10−43 i 3,2 · 10−42 − 0,3487499858 i

0 0,7888106377 −1,5 · 10−42 + 0,5773497186 i −3,3 · 10−10 − 10−41 i

0 0 0,7737179434− 3,1 · 10−54 i −1,4 · 10−41 + 0,5773497189 i

.

Estas dos matrices coinciden en 8 dıgitos de precision (Algoritmo I) y 6 dıgitos de

precision (Algoritmo II) con la seccion de orden 4 de la matriz de Hessenberg de la

medida.

0,5773502693 i 0,0 −0,4182428886 i 0,0

0,6666666667 0,5773502693 i 0,0 −0,3487499856 i

0,0 0,7888106375 0,5773502693 i 0,0

0,0 0,0 0,7737179430 0,5773502693 i

.

Ejemplo III. Si en el SFI anterior consideramos ahora las probabilidades p1 =

1

10, p2 =

1

5, p3 =

7

10, se tiene una medida no uniforme sobre el triangulo de Sierpinski,

como se muestra en la figura.

93

MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES

Algoritmo I. En este ejemplo cambiaremos el numero de iteraciones ya que la falta

de simetrıa de la medida incrementa el coste computacional significativamente.

Iterando 7 veces la transformacion TΦ, comenzando con la matriz identidad, ob-

tenemos una aproximacion de la seccion 4 de la matriz de Hessenberg de la medida

0,0992 + 1,2029i −0,2046− 0,1459i −1,799 · 10−6 − 0,3176i −0,0123 + 0,0555i

0,5538 + 1,3 · 10−10i 0,1439 + 0,8415i 0,0208− 0,0718i −0,0396− 0,3027i

5,68 · 10−10 + 1,7 · 10−21i 0,6848 + 5,36 · 10−10i 0,0390 + 0,7027i 0,0117− 0,0461i

5,39 · 10−9 + 8,09 · 10−10i 7,12 · 10−9 − 2,64 · 10−10i 0,7116− 2,39 · 10−10i 0,07365 + 0,6745i

.

Algoritmo II. Comenzando con la seccion cuarta de la matriz S del shift right, y

haciendo 7 iteraciones de TΦ(S) obtenemos la siguiente matriz0,099218 + 1,202963i −0,204629− 0,145941i −0,0000179− 0,317680i −0,012314 + 0,055542i

0,5538131313 0,143933 + 0,841541i 0,020889− 0,0718614i −0,039695− 0,302772i

0 0,684812 + 2,05958 · 10−12i 0,0390029 + 0,702786i 0,011747− 0,046155i

0 0 0,711680 + 1,54964 · 10−12i 0,0736565 + 0,674541i

.

En este caso la precision es peor para ambos algoritmos ya que no se aproxima

ni el primer dıgito, como se puede ver comparando con la matriz de Hessenberg de

la medida

0,0625 + 0,1082531755i 0,0021374549 − 0,003702180487i 0,04874098508 − 0,2610232725i 0,1007995886 − 0,002813009752i

0,4061164311 0,1017659280 + 0,4526242191i −0,07918289508 − 0,08407913301i −0,005267584405 − 0,3789834853i

0,0 0,6472315398 0,07376706430 + 0,4160651343i 0,01865543829 + 0,01575640500i

0,0 0,0 0,6863040829 −0,01522931965 + 0,4338707470i

94

3.4 Comparativa de algoritmos y ejemplos

Ejemplo IV. Consideramos la medida autosemejante para el SFI con probabili-

dades dado por

Φ = φ1(z) =1

4z +

1 + i

2, φ2(z) =

1

4z +

1− i

2,

φ3(z) =1

4z +

−1 + i

2, φ4(z) =

1

4z +

−1− i

2; pi =

1

4

que es la medida uniforme sobre el conjunto de Cantor plano.

Algoritmo I. Iterando TΦ 10 veces comenzando con la matriz identidad, obtenemos

una aproximacion de la seccion de orden 5 de la matriz de Hessenberg de la medida

0 0 0 −0,5534617900 0

0,7302967432 0 0 0 −0,1728136409

0 0,7720611578 0 0 0

0 0 0,8042685429 0 0

0 0 0 0,6168489579 0

.

Algoritmo II. Comenzando con la seccion de orden 5 de la matriz del shift right,

y haciendo 10 iteraciones de TΦ(D) obtenemos la siguiente matriz

0,0 + 0,0 i 0,0 + 0,0 i 0,0 + 0,0 i −0,5534617900 + 0,0 i 0,0 + 0,0 i

0,7302967435 0,0 + 0,0 i 0,0 + 0,0 i 0,0 + 0,0 i −0,1728136412 + 0,0 i

0,0 0,7720611574 0,0 + 0,0 i 0,0 + 0,0 i 4,0× 10−11 + 0,0 i

0,0 0,0 0,8042685430 0,0 + 0,0 i 0,0 + 0,0 i

0,0 0,0 0,0 0,6168489588 0,0 + 0,0 i

.

95

MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES

Estas dos matrices coinciden con 8 dıgitos de precision con la matriz de orden 5

de la matriz de Hessenberg de la medida.

0,0 0,0 0,0 −0,5534617899

0,7302967432 0,0 0,0 0,0

0,0 0,7720611580 0,0 0,0

0,0 0,0 0,8042685432 0,0

.

Observamos que ambos metodos sirven para aproximar la matriz de Hessenberg de

medidas autosemejantes y por tanto la sucesion de polinomios ortogonales asociados

a la medida autosemejante. En los ejemplos hemos obtenido resultados similares sin

embargo el algoritmo II es estable.

3.5. Matriz de Hessenberg asociada a una suma

de matrices HDP

En la seccion 3.2 se presentaba un metodo para calcular la matriz de Hessen-

berg asociada a la suma de medidas a partir de las matrices de Hessenberg de las

medidas componentes. A lo largo de esta seccion veremos que es posible generalizar

esta operacion para matrices de Hessenberg acotadas con subdiagonal estrictamente

positiva y no necesariamente subnormales y que, por tanto, no estan necesariamente

asociados a una medida.

Para extender el concepto de matrices de Hessenberg asociadas a una suma de

medidas, definiremos una operacion algebraica entre matrices acotadas de Hessen-

berg. Esta operacion consiste en obtener la matriz de Hessenberg asociada a la matriz

hermitiana definida positiva dada por la suma convexa de las matrices hermitianas

asociadas a las matrices de Hessenberg componentes. Ya que esta operacion esta re-

lacionada con la matriz hermitiana que usualmente denotamos por M , llamaremos

a esta operacion m-suma.

96

3.5 Matriz de Hessenberg asociada a una suma de matrices HDP

Finalmente, en la ultima seccion, obtenemos la formula explıcita para la m-suma

de un shift con pesos. Utilizaremos los resultados Stampfli [Sta66] con el fin de

estudiar que propiedades de subnormalidad e hiponormalidad se conservan bajo lam-

suma. En particular, se construye un interesante ejemplo de una matriz de Hessenberg

subnormal que es la m-suma de dos matrices que no son subnormales.

3.5.1. m-Suma de matrices de Hessenberg

En esta seccion definimos una operacion algebraica entre matrices acotadas de

Hessenberg con subdiagonal real y positiva. Estudiaremos esta operacion que llama-

remos m-suma y probamos algunas de sus propiedades. Obtenemos una expresion

que involucra los factores de Cholesky de las correspondientes matrices hermitianas

definidas positivas asociadas a las Hessenberg componentes. Por otra parte, obser-

vamos que el algoritmo dado en el Teorema 3.2.7 para calcular secciones finitas de

la suma de las matrices de Hessenberg se puede aplicar a la m-suma de matrices

Hessenberg no necesariamente subnormales. Daremos algunos ejemplos de m-suma

obteniendo el valor exacto de las secciones finitas de la matriz Hessenberg.

Definicion 3.5.1. Sea D(i)mi=1 una familia de matrices de Hessenberg superiores

acotadas con subdiagonal estrictamente positiva y M (i)mi=1 la familia de matrices

hermitianas definidas positivas asociadas. SeaM =m∑i=1

pi M(i) con

m∑i=1

pi = 1 y pi > 0

la matriz HDP suma. Definimos la m-suma de las matrices D(i) con probabilidades

(p1, p2, . . . , pm) como la matriz de Hessenberg D asociada con M . Denotaremos a

esta operacion por

D = D(1)p1

· · ·D(m)pm .

Teorema 3.5.2. Sea D(i)mi=1 una familia de matrices de Hessenberg superiores

acotadas con subdiagonal estrictamente positiva. Sea D = D(1)p1 · · · D

(m)pm la m-

suma para el vector de probabilidad (p1, p2, . . . , pm). Entonces D se puede expresar

97

MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES

de la forma

D =m∑i=1

pi [V(i)]⋆D(i)V (i),

siendo

V (i) = [T (i)]⋆(T ∗)−1, i = 1, . . . ,m,

donde T (i) y T son los factores de Cholesky de M (i) y M , respectivamente.

Demostracion. Consideramos

M ′ =m∑i=1

piM′(i). (3.16)

ya que V (i) = [T (i)]⋆(T ∗)−1, entonces (T ∗)−1 = ([T (i)]∗)−1V (i) y T−1 = [V (i)]⋆[T (i)]−1.

Multiplicando (3.16) por T−1 and (T ∗)−1 tenemos

D = T−1M ′(T ∗)−1 =m∑i=1

piT−1[M ′](i)(T ∗)−1

=m∑i=1

pi[V(i)]⋆[T (i)]−1[M ′](i)([T (i)]∗)−1V (i)

=m∑i=1

pi[V(i)]⋆D(i)V (i).

Esto finaliza la prueba del teorema.

Proposicion 3.5.3. Sea D(i)mi=1 con probabilidades (p1, p2, . . . , pm) como antes.

Sea D = D(1)p1 · · · D

(m)pm la m-suma. Entonces, V

(i)j = Pj(D

(i))e0, donde Pn es

la SPON asociada a D.

Demostracion. Observamos que la j-esima columna de (T ∗)−1 es justamente el vector

de coordenadas de Pj respecto de la base algebraica zk. Entonces tenemos que:

(T ∗)−1ej =

a0j...

ajj

0

...

=

j∑k=0

ajk ek =

j∑k=0

ajk [S]ke0,

98

3.5 Matriz de Hessenberg asociada a una suma de matrices HDP

donde Pj(z) =

j∑k=0

akjzk y S es la matriz del shift right.

Puesto que D(i) = [T (i)]⋆S([T (i)]∗)−1, entonces [D(i)]k = [T (i)]⋆[S]k([T (i)]∗)−1, para

todo k = 0, 1, 2, . . ., de aquı que [D(i)]k[T (i)]⋆ = [T (i)]⋆[S]k.

Por lo tanto,

V(i)j = [T (i)]⋆(T ∗)−1ej = [T (i)]⋆

j∑k=0

ajk[S]ke0

=

j∑k=0

ajk([T (i)]⋆[S]k

)e0 =

j∑k=0

ajk([D(i)]k[T (i)]⋆

)e0

=

j∑k=0

ajk[D(i)]ke0 = Pj(D

(i))e0,

donde hemos usado la identidad [T (i)]⋆e0 = e0

Observacion 3.5.4. Las formulas del Teorema [3.2.7] siguen siendo ciertas para la

m-suma. Estas formulas nos permiten definir un algoritmo recursivo para calcular

las secciones de orden n, Dn, de la m-suma D, partiendo de las secciones de orden n

de las matrices componentes D(i)n .

Observacion 3.5.5. Sabemos que a toda matriz D de Hessenberg superior infinita

con subdiagonal estrictamente positiva le corresponde una unica matriz del producto

escalar M , hermitiana definida positiva infinita (salvo una constante multiplicativa

positiva) y viceversa.

Llamaremos D al conjunto de las matrices de Hessenberg superiores infinitas con

subdiagonal estrictamente positiva, acotadas como operadores en ℓ2(N0), subnorma-

les o no. La seccion anterior nos permite definir en dicho conjunto una operacion

binaria D(1) D(2) = D, donde D es la matriz de Hessenberg correspondiente a

M = M (1) +M (2).

Propiedades 3.5.6. Las siguientes propiedades de la m-suma son inmediatas.

a) Dp D1−p = D (Idempotencia).

99

MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES

b) D(1)p D

(2)q = D

(2)q D

(1)p ∀D(1), D(2) ∈ D (Conmutativa).

c) D(1)p1

[D

(2)p2 D

(3)p3

]=[D

(1)p1 D

(2)p2

]D

(3)p3 ∀D(1), D(2), D(3) ∈ D (Asociativa).

d) Si D(1) y D(2) son subnormales, entonces la m-suma es subnormal.

e) Si D(1) y D(2) son matrices de Jacobi, entonces la m-suma es tambien de Jacobi.

Es interesante estudiar el comportamiento de otras propiedades de la m-suma pa-

ra diferentes tipos de matrices de operadores, en particular en relacion al caracter hi-

ponormal o subnormal de los operadores. Usaremos algunas definiciones y resultados

de teorıa de operadores que se pueden encontrar en el capıtulo 1 y en [Con85, Hal84].

Recordemos que un operador A es hiponormal si A∗A−AA∗ ≥ 0 y que todo operador

subnormal es hiponormal.

Veamos ahora algunos ejemplos en los que se calcula la m-suma de matrices de

Hessenberg.

En la proxima seccion analizamos el comportamiento de la m-suma en relacion al

caracter de hiponormalidad y subnormalidad de los operadores para un tipo especial

de operadores.

Ejemplo 3.5.7. Sea D(1) y D(2) las matrices de Hessenberg asociadas con las matri-

ces hermitianas definidas positivas cuyas entradas vienen definidas por los numeros

binomiales:

c(1)ij =

(i+ j − 2

i− 1

)· i · j y c

(2)ij =

(i+ j − 2

i− 1

)(i+ j − 1),

respectivamente. Entonces las correspondientes matrices de Hessenberg son

100

3.5 Matriz de Hessenberg asociada a una suma de matrices HDP

D(1) =

2 −1

2

1

3· · · (−1)n+1

n· · ·

2 1 0 · · · 0 · · ·

03

21 · · · 0 · · ·

0 04

3· · · 0 · · ·

......

......

0 0 0 · · · 1 · · ·

0 0 0 · · · n+ 1

n· · ·

......

......

. . .

, n ≥ 2,

y

D(2) =

2−√2

2

√3

3. . .

(−1)n√n

n. . .

√2 1 0 . . . 0 . . .

0

√2√3

21 . . . 0 . . .

0 0

√3√4

3. . . 0 . . .

.

.....

.

.....

0 0 0 . . . 1 . . .

0 0 0 . . .

√n(n+ 1)

n. . .

.

.....

.

.....

. . .

, n ≥ 2.

Entonces las secciones finitas Dn de la matriz de Hessenberg de la m-suma

D = D(1)12

D(2)12

pueden ser calculadas por el algoritmo definido en [EGST11]. En

particular la seccion de orden 6 de D es:

2 −√3

3

√6

6−√10

10

√15

15−√21

21√3 1 0 0 0 0

0√2 1 0 0 0

0 0

√5√3

31 0 0

0 0 0

√3√2

21 0

0 0 0 0

√5√7

51

.

101

MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES

Es facil probar que la m-suma es la siguiente matriz infinita:

D =

2−√3

3

√6

6. . .

(−1)n√2n2 + 6n+ 4

n2 + 3n+ 2. . .

√3 1 0 . . . 0 . . .

0

√3√6

31 . . . 0 . . .

0 0

√10√6

6. . . 0 . . .

......

......

0 0 0 . . . 1 . . .

0 0 0 . . .

√2n2 + 10n+ 12

2n2 + 6n+ 4. . .

......

......

. . .

n ≥ 1.

En este ejemplo, las matrices D(1) y D(2) definen operadores que no son sub-

normales y es facil comprobar que la m-suma no es hiponormal y por tanto no es

subnormal.

Ejemplo 3.5.8. Sea M (1) =1

2I, y

M (2) =

1

2a 0 0 · · ·

a a2 +1

2a 0 · · ·

0 a a2 +1

2a · · ·

......

......

. . .

.

Entonces, D(1) = S, y

D(2) =

a −a2 a3 . . . (−1)n+1an . . .

1 0 0 . . . 0 . . .

0 1 0 . . . 0 . . .

0 0 1 . . . 0 . . .

......

......

. . .

, n ≥ 1,

102

3.5 Matriz de Hessenberg asociada a una suma de matrices HDP

donde a < 1, para que D(2) sea acotada. Entonces, la m-suma es

D = D(1)12

D(2)12

=

1 a 0 0 · · ·

a a2 + 1 a 0 · · ·

0 a a2 + 1 a · · ·

......

......

. . .

.

En este segundo ejemplo, la matriz D(1) = S define un operador subnormal. En

este caso, como la m-suma no es hiponormal, podemos asegurar que la matriz D(2)

no define un operador subnormal.

Hay que destacar que la subnormalidad de un operador de Hessenberg (que como

ya hemos visto equivale a que el problema de los momentos tenga o no solucion) no

es facil de estudiar, por lo que la m-suma nos proporciona una nueva herramienta

para atacar este problema.

3.5.2. m-Suma de shifts con pesos

Uno de los ejemplos mas sencillos de analizar es aquel en que la matriz M del

producto escalar es diagonales. Cuando esta matriz es de momentos, la medida co-

rrespondiente tiene simetrıa concentrica respecto del origen. La matriz de Hessenberg

asociada a una matriz HDP diagonal es un shifts con pesos y sera subnormal cuan-

do M sea de momentos. Consideramos el espacio de Hilbert P 2(M) con la SPON

Pn∞n=0. Siguiendo a Stampfli [Sta66], diremos que S es un shift si verifica que

SPn = anPn+1. Diremos que S es un shift monotono cuando la sucesion de pesos

an es no decreciente y acotada. Stampfli probo que el shift monotono es hipo-

normal y estudio cuando es subnormal. Usaremos los resultados de Stampfli para

construir los siguientes ejemplos.

Proposicion 3.5.9. Sean an∞n=1 y bn∞n=0 dos sucesiones acotadas de numeros

103

MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES

reales positivos. Sean Da y Db los correspondientes shifts con pesos

Da =

0 0 0 0 0 0

a1 0 0 0 0 0

0 a2 0 0 0 0

0 0 a3 0 0 0

0 0 0 a4 0 0

0 0 0 0 a5 0

, Db =

0 0 0 0 0 0

b1 0 0 0 0 0

0 b2 0 0 0 0

0 0 b3 0 0 0

0 0 0 b4 0 0

0 0 0 0 b5 0

.

Entonces la m-suma D = Da,p Db,q es un shift con pesos, con sucesion de pesos

dada por la siguiente formula

dn =

√√√√p

n∏k=1

a2k + q

n∏k=1

b2k√√√√pn−1∏k=1

a2k + qn−1∏k=1

b2k

, para n ≥ 1, (3.17)

donde el producto sobre el conjunto vacıo se considera igual a 1.

Demostracion. La matriz hermitiana definida positiva asociada a un shift con pesos,

es una matriz diagonal. Las entradas de Ma en funcion de Da son

cnn =n∏

k=1

a2k para n ≥ 1 y c00 = 1.

Por la definicion de la m-suma, se tiene que pMa + qMb = M(D) donde M(D) es la

matriz HDP asociada a m-suma de Da y Db.

En este caso los vectores auxiliares que se construyen en el proceso seran

v(a)0 = e0 y v(a)n =

n∏k=1

ak√√√√p

n∏k=1

a2k + q

n∏k=1

b2k

en, n = 1, 2, . . .

donde en∞n=0 son los vectores de la base canonica de ℓ2(N0).

104

3.5 Matriz de Hessenberg asociada a una suma de matrices HDP

Ejemplo 3.5.10 (Una matriz de Hessenberg subnormal obtenida como

m-suma de dos matrices de Hessenberg que no son subnormales). Con-

sideramos los shifts con pesos Da y Db correspondientes a las sucesiones

an | a1 =

1

2, a2 = a, an = 1 para todo n ≥ 3

y bn | b1 =

1

2, b2 = b, bn = 1 para todo n ≥ 3

,

respectivamente.

Entonces, usando (3.17) tenemos que m-suma D = Da,1/2Db,1/2 es un shift con

pesos, con sucesion

dn | d1 =

1

2, d2 =

√a2 + b2√

2, dn = 1 para todo n ≥ 3

.

Usaremos el resultado de Stampfli en [Sta66], que afirma que si Sr es un shift con

pesos monotono con sucesionrn | r1 = 1

2, r2 = r; rn = 1 para todo n ≥ 1

, entonces,

Sr es subnormal si y solo si r2 = 1. Ademas, todo shift con pesos es hiponormal si y

solo si es monotono [Con91].

Observamos que en este ejemplo los tres shifts con pesos Da, Db y D tienen vienen

definidos por el mismo tipo de sucesion a1 = b1 = d1 = 12, a2 = a, b2 = b, d2 = d y

an = bn = dn = 1 para todo n ≥ 3.

Analizaremos, siguiendo los resultados de Stampfli, las propiedades de hiponor-

malidad y subnormalidad para los diferentes valores de los parametros de a y b de

acuerdo a la siguiente figura. El analisis se estructura en tres casos atendiendo al

caracter subnormal, hiponormal pero no subnormal y no hiponormal.

105

MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES

12

1√2

1√2

D hiponormal no subnormal, y

+: Da y Db ambos hiponormales

×: no hiponormales

: uno hiponormal y otro no hiponormal

D no hiponormal, y

⊗: uno hiponormal y otro no hiponormal

⊕: ambos no hiponormales⊕

×

×

+

1. La m-suma D = Da, 12Db, 1

2es subnormal. La matriz D es subnormal si solo si

d2 = 1, que corresponde a la circunferencia

a2 + b2 = 2.

Analicemos los siguientes casos sobre la circunferencia:

a) Un caso trivial. Si una de las matrices Da o Db es subnormal, se tiene que la

otra tambien y que Db = Da = D.

Supongamos que Da es subnormal, por tanto a = 1 y como a2 + b2 = 2, se

tiene que b = 1. Por tanto Db es subnormal y ademas, Db = Da = D.

b) Ninguna de las dos matrices Da y Db es subnormal. Para encontrar Da y Db

no subnormales es suficiente tomar a y b, diferentes de 1, en la circunferencia

de radio√2. Se observa que en este caso o bien Da o bien Db es hiponormal

y no se da el caso en el que las dos sean hiponormales.

Este es un caso sorprendente que no tiene analogo en el caso real: Sumamos

dos matrices HDP que no son de momentos y por tanto no existe medida

asociada a ninguna de ellas ([Hal84, Con85]), sin embargo, obtenemos como

resultado de la suma una matriz de momentos con media asociada. En este

caso, la medida asociada es la medida de Lebesgue en la circunferencia unidad

mas un atomo en el origen. Sin embargo, en el caso real todas las matrices

106

3.5 Matriz de Hessenberg asociada a una suma de matrices HDP

de Jacobi son autoadjuntas y por tanto subnormales, de forma que siempre

hay medida asociada.

2. La m-suma D = Da, 12Db, 1

2es hiponormal pero no subnormal.

Debido a que todo shift monotono es hiponormal, podemos tomar en este ca-

so 12≤ d2 < 1, para mantener la monotonıa y evitar la subnormalidad. Como

consecuencia nos encontramos en la region comprendida entre las circunferencias

1

2≤ a2 + b2 < 2.

En la figura esta region esta marcada con los sımbolos +, and ×, que se corres-

ponden con las siguientes posibilidades.

a) Las matrices Da y Db son ambas hiponormales. Este caso esta marcado en

la figura con + y se corresponde con la region

1

2≤ a ≤ 1 y

1

2≤ b ≤ 1.

Tomando a = 1, conseguimos que Da sea subnormal y Db no lo sea y vice-

versa.

b) Una de las matrices Da o Db es hiponormal y la otra no. Este caso se corres-

ponde con la region marcada con en la figura.

c) Ninguna de las matrices Da y Db son hiponormales. Este caso se corresponde

con la region marcada con × en la figura.

3. La m-suma D = Da, 12Db, 1

2no es hiponormal.

Esta region se corresponde con los valores d2 < 12o d2 > 1, es decir, con las

regiones

a2 + b2 <1

2y a2 + b2 > 2,

que estan marcadas en la figura con los sımbolos ⊗ y ⊕, dando lugar a los si-

guientes casos.

107

MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES

a) Una de las matrices Da o Db es hiponormal y la otra no. Este caso se corres-

ponde con la region marcada con ⊗ en la figura.

Observamos que en esta region, cuando tomamos a = 1 o b = 1, tenemos

que una de las matrices Da o Db es subnormal.

b) Ninguna de las matrices Da o Db es hiponormal. La region correspondiente

a este caso esta marcada en la figura con ⊕.

108

Capıtulo 4

AUTOVALORES MINIMOS DE

MATRICES DE MOMENTOS

A lo largo de este capıtulo se considera una matriz infinita hermitiana definida

positiva M , asociada a una medida µ con soporte compacto en C y se estudia el

impacto del comportamiento asintotico del autovalor mınimo λn de la submatriz

principal de tamano (n+1)× (n+1) y algunos topicos relacionados con el problema

de los momentos en el plano complejo, en el caso acotado.

En particular se prueba que si los polinomios son densos en L2(µ), entonces el

autovalor mınimo λn de la seccion n+1 de la matriz M tiende a cero cuando n tiende

a infinito. Cuando el soporte de µ es el disco unidad obtenemos algunos resultados.

Consideraremos a lo largo de este capıtulo, para mayor comodidad de las expresiones

que apareceran en el desarrollo del mismo, la segunda expresion del producto interior

vista en la Observacion 1.2.1 y denotaremos porMn la seccion de orden (n+1)×(n+1)

de la matriz HDP de momentos M = (cij)∞i,j=0.

De esta forma, podemos expresar el producto interior definido porM en el espacio

vectorial de P[z] en la siguiente forma: si p(z) =∑n

k=0 akzk y q(z) =

∑mk=0 bkz

k

109

AUTOVALORES MINIMOS DE MATRICES DE MOMENTOS

entonces

⟨p, q⟩ =(a0 a1 . . . an 0 . . .

)c00 c01 c02 . . .

c10 c11 c12 . . .

......

.... . .

b0

b1...

bm

0

...

. (4.1)

Sea Pn(z)∞n=0, donde Pn(z) =1

vn,nPn(z), denota la sucesion de polinomios monicos,

donde Pn(z) =∑n

k=0 vk,nzk denota el polinomio ortonormal. Recordemos que, para

cada n ∈ N, n-nucleo z, w ∈ C se define como Kn(z, w) =∑n

k=0 Pk(z)Pk(w).

Denotamos por λn el autovalor mınimo de Mn. Es facil ver que la sucesion λn∞n=0

es una sucesion de numeros positivos no creciente y por lo tanto lımn→∞ λn existe.

En el caso de matrices HDP de Hankel, que son matrices de momentos de medi-

das sobre R, el comportamiento asintotico de λn ha sido estudiado en los artıculos

clasicos de Szego [Sze36] y Widom y Wilf [WW66]. Mas recientemente, Berg, Chen

y Ismail [BCI02] han probado que una medida µ sobre R es determinada, lo que

significa que µ es la unica medida con soporte real que tiene los mismos momentos

que µ, si y solo si λn → 0 cuando n tiende a infinito. Este nuevo criterio para la

determinacion de una medida ha motivado el estudio de este comportamiento en el

caso de medidas con soporte compacto en C. En este contexto la situacion es com-

pletamente diferente puesto que es conocido que cada medida con soporte compacto

en C es siempre determinada. Por otro lado, para la medida de Lebesgue normali-

zada en la circunferencia unidad, m, la matriz de momentos asociada es la matriz

identidad I y obviamente λn = 1 para todo n ∈ N. El proposito del presente capıtulo

es relacionar el comportamiento asintotico del autovalor mınimo λn con el problema

de aproximacion por polinomios, esto es, determinar cuando P 2(µ) = L2(µ), donde

P 2(µ) es el cierre de P[z] en L2(µ).

110

La siguiente seccion esta dedicada a la prueba del principal resultado que establece

que si µ es una medida de Borel en C con soporte compacto e infinitos puntos de

crecimiento efectivo tal que L2(µ) = P 2(µ), entonces lımn→∞ λn = 0. El resultado

recıproco no es cierto, como veremos en el ejemplo.

En la segunda seccion, obtenemos varios resultados en el caso de medidas con soporte

en el disco unidad cerrado D. Se descubre que para tales medidas, el comportamiento

asintotico de la norma de los polinomios ortogonales monicos y el del autovalor

mınimo dependen solamente del correspondiente comportamiento de la restriccion

de la medida a la circunferencia unidad T. Esto no es cierto para la asintotica de los

n-nucleos en 0. Terminamos con algunas condiciones necesarias para aproximacion

polinomial en el espacio L2(µ) en terminos de esta asintotica.

Primero, introducimos alguna notacion y terminologıa. Sea Mn una matriz HDP de

orden n+ 1 y denotamos por e0, . . . , en la base canonica en Cn+1. Denotamos por

v0, . . . , vn la unica base ortonormal de Cn+1 con respecto al producto interior in-

ducido por Mn de forma que vi = (v0,i, . . . , vi,i, 0, . . . , 0) con vi,i > 0. Denotamos

por ∥v∥ la norma inducida por este producto, i.e., ∥v∥2 = vMnv∗. El espacio vec-

torial Pn[z] de todos los polinomios de grado menor o igual puede ser obviamente

identificado con Cn+1. Considerando Mn como la seccion (n + 1) de la matriz de

momentos M(µ) asociada a µ, si p(z) = a0 + · · · + anzn, q(z) = b0 + · · · + bnz

n,

a = (ai)ni=0, b = (bi)

ni=0 ∈ Cn+1, tenemos

aMnb∗ =

∫p(z)q(z)dµ.

En particular, si q(z) = 1+w1z+ · · ·+wnzn, denotamos por (1, w) ≡ (1, w1, . . . , wn).

Con esta notacion, (1 w

)Mn

1

w∗

=

∫|q(z)|2dµ.

Dada una matriz HDP Mn de orden n + 1 denotamos por ∥Mn∥ la norma de Mn

como aplicacion lineal de Cn+1 en Cn+1 con la norma euclıdea ∥v∥2. En este caso, se

111

AUTOVALORES MINIMOS DE MATRICES DE MOMENTOS

tiene que

∥Mn∥ = sup∥Mnv∥2 : ∥v∥2 = 1, v ∈ Cn+1 = supvMnv∗ : v ∈ Cn+1, ∥v∥2 = 1 = βn,

donde βn es el maximo autovalor de Mn.

Por otro lado,

λn = ınfvMnv∗ : v ∈ Cn+1, ∥v∥2 = 1.

Sean M1,M2 matrices HDP de tamano n × n. Diremos que M1 ≤ M2 si vM1v∗ ≤

vM2v∗, para cada v ∈ Cn. Para matrices infinitas HDP el orden es definido de forma

analoga sustituyendo Cn por el espacio C00 de todas las sucesiones complejas con

un numero finito de terminos no nulos.

4.1. Aproximacion polinomial en L2(µ) y compor-

tamiento asintotico del autovalor mınimo λn

Para probar el principal resultado necesitamos algunos lemas previos. El siguiente

lema establece un resultado para cierto problema de minimizacion para matrices

infinitas hermitianas que puede ser de interes independiente.

Lema 4.1.1. Sea M una matriz HDP y sea Mn la seccion de orden (n + 1). Sea

v0, . . . , vn la base ortonormal de Cn+1 con respecto al producto interior inducido

por Mn con vi = (v0,i, . . . , vi,i, 0, . . . , 0) para i = 0, . . . , n y vi,i > 0. Entonces,

1∑ni=0 |v0,i|2

= ınf(1 w

)Mn

1

w∗

: w ∈ Cn =1

e0M−1n e∗0

, (4.2)

y

1∑∞i=0 |v0,i|2

= ınf(1 w

)M

1

w∗

: w ∈ c00, (4.3)

donde el lado izquierdo es cero si∑∞

i=0 |v0,i|2 = ∞.

112

4.1 Aproximacion polinomial en L2(µ) y comportamiento asintotico delautovalor mınimo λn

Demostracion. Cada vector (1, w) ∈ Cn+1 puede ser expresado como (1, w) =∑n

i=0 aivi,

con la condicion∑n

i=0 aiv0,i = 1. De aquı,

ınf(1 w

)Mn

1

w∗

: w ∈ Cn = ınf

(n∑

i=0

aivi

)Mn

(n∑

i=0

aivi

)∗

:n∑

i=0

aiv0,i = 1,

y puesto que viMnv∗j = δi,j para i, j ≤ n,

ınfn∑

i=0

|ai|2 :n∑

i=0

aiv0,i = 1 =1∑n

i=0 |v0,i|2.

Esto demuestra la igualdad izquierda en (4.2). Para probar la igualdad derecha en

(4.2), consideramos αi =vivi,i

= (α0,i, α1,i, . . . , 1, 0, . . . , 0), luego α0,i =v0,ivi,i

= ∥αi∥v0,i.

Sea Cn la matriz dada por

Cn =

1 α0,1 . . . α0,n

0 1 . . . α1,n

......

. . ....

0 0 . . . 1

.

Es claro que |Cn| = 1 y C−1n existe. Por otro lado, si denotamos porD(∥α0∥2, . . . , ∥αn∥2)

la matriz diagonal de orden (n+1)×(n+1) con entradas ∥αi∥2, i = 0, . . . , n, entonces:

C∗nMnCn = D(∥α0∥2, . . . , ∥αn∥2).

Por tanto Mn = (C∗n)

−1D(∥α0∥2, . . . , ∥αn∥2)C−1n y ası M−1

n se puede expresar como:

M−1n = CnD(

1

∥α0∥2, . . . ,

1

∥αn∥2)C∗

n.

Por lo tanto

e0M−1n e∗0 = e0CnD(

1

∥α0∥2, . . . ,

1

∥αn∥2)C∗

ne∗0 =

n∑k=0

|α0,k|2

∥αk∥2,

ası

1∑ni=0 |v0,i|2

=1

e0M−1n e∗0

.

La version infinita (4.3) es ahora una consecuencia facil.

113

AUTOVALORES MINIMOS DE MATRICES DE MOMENTOS

Si M es una matriz de momentos, el Lema 4.1.1 puede ser aplicado para obtener las

propiedades extremales de los n-nucleos en 0 (ver p.e. [Ass97]).

Corolario 4.1.2. Sea M(µ) una matriz de momentos HDP asociada a la medida

µ con soporte en C y sea Pk(z)∞k=0 la sucesion de los polinomios ortonormales

respecto a µ. Entonces, para cada n ∈ N:

1∑nk=0 |Pk(0)|2

= mın∫

|qn(z)|2dµ : qn(z) ∈ Pn[z], qn(0) = 1 =1

e0M−1n e∗0

.

Demostracion. Observamos que, usando la notacion matricial introducida antes, te-

nemos:

mın∫

|qn(z)|2dµ : qn(z) ∈ Pn[z], qn(0) = 1 = ınf(1 w

)Mn

1

w∗

: w ∈ Cn.

El resultado es una consecuencia del Lema 4.1.1, y el hecho de que v0,k = Pk(0), para

cada k.

El siguiente resultado extiende a matrices HDP un resultado para matrices Hankel

en [BS11].

Lema 4.1.3. Sea M(µ) una matriz de momentos infinita HDP asociada a una medi-

da µ con soporte en C, λn el autovalor mınimo de Mn y sea z0 con |z0| < 1. Entonces

λn ≤ (∑n

k=0 |z0|2k) (∑n

k=0 |Pk(z0)|2)−1, para cada n ∈ N. Como consecuencia,

lımn→∞

λn ≤

((1− |z0|2)

∞∑k=0

|Pk(z0)|2)−1

.

Demostracion. Puesto que Mn es hermitiana, tenemos que λn =1

∥M−1n ∥

. Por otro

lado, si |z0| < 1 y v = (1, z0, . . . , zn0 ), por algunos resultados analogos en [Bre80]

(pag. 52) y [Sze75] (pag. 377), tenemos

n∑k=0

|Pk(z0)|2 = Kn(z0, z0) = vM−1n v∗ ≤ 1

λn

(n∑

k=0

|z0|2k).

Por tanto λn ≤ (∑n

k=0 |z0|2k) (∑n

k=0 |Pk(z0)|2)−1. Tomando lımites cuando n tiende

a infinito se prueba el resultado.

114

4.1 Aproximacion polinomial en L2(µ) y comportamiento asintotico delautovalor mınimo λn

Observacion 4.1.4. Si M es una matriz de momentos, en general no es cierto que

lımn→∞ λn = ((1− |z0|2)∑∞

k=0 |Pk(z0)|2)−1. En efecto, sea η la medida de Lebesgue

en el disco (medida uniforme) D; es bien conocido que la matriz de momentos aso-

ciada a η es la matriz diagonal con entradas cnn =π

n+ 1y Pn(z) =

√n+1πzn. En

consecuencia

lımn→∞

λn = lımn→∞

cnn = 0 =

((1− |z0|2)

∞∑k=0

|Pk(z0)|2)−1

.

El siguiente resultado extiende el resultado en [BCI02] y [BD06] para el caso de medi-

das en R. Esto es, el mismo resultado es cierto cuando las medidas son consideradas

sobre C. La incluimos aquı en aras de completar informacion.

Lema 4.1.5. Sea M(µ) una matriz HDP asociada a una medida positiva µ en C y

sea m la medida normalizada de Lebesgue T. Entonces las siguientes afirmaciones

son equivalentes:

1. lımn→∞ λn > 0.

2. Existe c > 0 tal que, para cada p(z),∫|p(z)|2dµ ≥ c

∫T|p(z)|2dm.

Demostracion. Observamos que, si p(z) = a0+ · · ·+anzn y a = (a0, . . . , an), entonces∫

|p(z)|2dµ = aMna∗ ≥ λn

n∑k=0

|ak|2 = λn

∫T|p(z)|2dm,

y de esto se sigue el resultado.

Lema 4.1.6. Sea r ∈ (0, 1) y sea M(µ) una matriz de momentos asociada a la

medida µ en D(0; r). Entonces, para cada n ∈ N, se tiene que

∥Mn∥ ≤ µ(D(0; r))1

1− r2.

115

AUTOVALORES MINIMOS DE MATRICES DE MOMENTOS

Demostracion. Observamos que si βn es el mayor autovalor de Mn = (cij)ni,j=0 enton-

ces:

∥Mn∥ = βn ≤ Traza(Mn) =n∑

i=0

ci,i =

n∑i=0

∫D(0;r)

zizidµ ≤ µ(D(0; r))n∑

i=0

r2i ≤ µ(D(0; r))1

1− r2.

Siguiendo las ideas en [ST43] tenemos:

Lema 4.1.7. Sea µ una medida con soporte compacto en C. Supongamos z0 /∈

Supp(µ), entonces

1

D2∑∞

k=0 |Pk(z0)|2≤ dis2

(1

z − z0,P[z]

)≤ 1

d2∑∞

k=0 |Pk(z0)|2,

donde d = mın|z − z0| : z ∈ Supp(µ), D = max|z − z0| : z ∈ Supp(µ).

Demostracion. Tenemos que

dis2(1

z − z0, P 2(µ)) = lım

n→∞ınf

qn(z)∈Pn[z]

∫| 1

z − z0− qn(z)|2dµ

= lımn→∞

ınfqn(z)∈Pn[z]

∫|1− (z − z0)qn(z)|2

|z − z0|2

= lımn→∞

ınfqn+1(z)∈Pn+1[z],qn+1(z0)=1

∫|qn+1(z)|2

|z − z0|2.

Por las propiedades extremales del n-nucleo en z0 (ver [Ass97]) tenemos que

1∑n+1k=0 |Pk(z0)|2

= ınfqn+1(z)∈Pn+1[z],qn+1(z0)=1

∫|qn+1(z)|2dµ,

de donde se sigue el resultado.

Como una consecuencia del Lema 4.1.7 tenemos el siguiente corolario.

Corolario 4.1.8. Sea µ una medida con infinitos puntos en su soporte compacto en

C. Supongamos que z0 /∈ Supp(µ), entonces las siguientes afirmaciones son equiva-

lentes:

116

4.1 Aproximacion polinomial en L2(µ) y comportamiento asintotico delautovalor mınimo λn

1. La funcion1

z − z0∈ P 2(µ).

2.∑∞

n=0 |Pn(z0)|2 = ∞.

Probaremos ahora el principal resultado.

Teorema 4.1.9. Sea M(µ) la matriz de momentos asociada a una medida µ con

soporte compacto en C e infinitos puntos de crecimiento efectivo. Si los polinomios

son densos en L2(µ), es decir, P 2(µ) = L2(µ), entonces

lımn→∞

λn = 0,

donde λn es el autovalor mınimo de la seccion de orden (n+ 1) de M(µ).

Demostracion. Sea R > 0 tal que Ω = Supp(µ) ⊂ z ∈ C : |z| ≤ R. Para probar el

resultado consideramos varios casos:

Primer caso: 0 /∈ Supp(µ). Puesto que 1/z ∈ P 2(µ), se sigue, por el Corolario 4.1.8,

que∑∞

n=0 |Pn(0)|2 = ∞ y entonces, por el Lema 4.1.3, lımn→∞ λn = 0.

Segundo caso: 0 ∈ Supp(µ) y µ(0) = 0. En este caso lımr→0 µ(D(0; r)) = 0. Su-

pongamos que P 2(µ) = L2(µ) y que existe λ > 0 tal que λn ≥ λ, para todo n ∈ N.

Consideramos r suficientemente pequeno para asegurar que µ(D(0; r)) 11−r2

≤ λ2. De-

notamos por µcr la restriccion al conjunto Ω\D(0; r) de la medida µ, y µr la restriccion

a D(0; r) de µ. Sea n ∈ N fijo y v = (v0, . . . , vn) ∈ Cn+1 con∑n

k=0 |vk|2 = 1. Puesto

que Mn(µ) = Mn(µr) +Mn(µcr) y ∥Mn(µr)∥ ≤ λ

2por el Lema 4.1.6, se sigue que:

vMn(µcr)v

∗ = vMn(µ)v∗ − vMn(µr)v

∗ ≥ vMn(µ)v∗ − λ

2.

Tomando ınfimos a ambos lados de la igualdad obtenemos

λn(M(µcr)) ≥ λn(M(µ))− λ

2≥ λ

2. (4.4)

117

AUTOVALORES MINIMOS DE MATRICES DE MOMENTOS

Por otro lado, teniendo en cuenta que L2(µ) = P 2(µ) tenemos tambien L2(µcr) =

P 2(µcr). Ahora, aplicando el primer caso a la medida µc

r obtenemos que

lımn→∞

λn(M(µcr)) = 0.

Esto contradice (4.4).

Tercer caso: 0 ∈ Supp(µ) y µ(0) > 0. Supongamos de nuevo que P 2(µ) = L2(µ) y

que existe λ > 0 tal que λn ≥ λ > 0 para todo n ∈ N. Por el Lema 4.1.5, para cada

polinomio p(z), tenemos que:∫|p(z)|2dµ ≥ λ

∫T|p(z)|2dm.

Sea Ω0 = Ω \ 0 y µ0 la restriccion de la medida µ a este conjunto. Sea q(z) un

polinomio, entonces:

R2

∫Ω0

|q(z)|2dµ0 ≥∫Ω

|zq(z)|2dµ ≥ λ

∫T|zq(z)|2dm = λ

∫T|q(z)|2dm.

Por tanto: ∫Ω0

|q(z)|2dµ0 ≥λ

R2

∫T|q(z)|2dm.

Esto significa que para todo n ∈ N tenemos:

λn(M(µ0)) ≥λ

R2.

Puesto que µ0 es una medida que satisface que µ0(0) = 0, aplicando el segundo caso

obtenemos que L2(µ0) = P 2(µ0). De nuevo, esto es imposible porque L2(µ) = P 2(µ).

Esto finaliza la prueba del teorema.

Observacion 4.1.10. El recıproco del Teorema 4.1.9 no es cierto. Para probar esto

mostraremos a continuacion dos ejemplos.

118

4.1 Aproximacion polinomial en L2(µ) y comportamiento asintotico delautovalor mınimo λn

Ejemplo 1. Consideramos la matriz de Pascal

M =

1 1 1 1 . . .

1 2 3 4 . . .

1 3 6 10 . . .

1 4 10 20 . . .

......

......

. . .

,

es decir, cij =(i+ji

). Como vimos en el ejemplo 2.1.4, M es la matriz de momentos

asociada a la medida normalizada de Lebesgue µ en la circunferencia, centrada en el

punto (1, 0) y radio 1. La sucesion de polinomios ortonormales viene dada Pn(z) =

(z − 1)n para todo n ∈ N0. Por tanto∑∞

n=0 |Pn(0)|2 = ∞ y, por el Lema 4.1.3, se

sigue que lımn→∞ λn = 0. Por otro lado, aplicando el Lema 4.1.7, se sigue que

dis2(1

z − 1, P 2(µ)) =

1∑∞n=0 |Pn(1)|2

= 1.

Por lo que1

z − 1∈ L2(µ) no puede ser aproximado por polinomios y en consecuencia

P 2(µ) = L2(µ).

Ejemplo 2. Sea M la matriz de Toeplitz

2 1 0 0 . . .

1 2 1 0 . . .

0 1 2 1 . . .

0 0 1 2 . . .

......

......

. . .

.

M es la matriz de momentos asociada a la medida µ en la circunferencia unidad

dada por dµ(eiθ) = (w(θ)/2π)dθ con

w(θ) =∞∑

k=−∞

cke−ikθ = eθi + 2e0 + e−iθ = 2 + 2 cos θ.

Usando los resultados en [GS55], se deduce facilmente que λn = 2+ 2 cos (n+1)πn+2

y de

aquı que lımn→∞ λn = 0. Por otro lado, mostramos que P 2(µ) no es denso en L2(µ).

119

AUTOVALORES MINIMOS DE MATRICES DE MOMENTOS

Para probarlo, usaremos induccion sobre n para mostrar que para cada n tenemos

|Mn| = n+ 2.

Si n = 1, entonces |M1| = 3. Supongamos que el resultado es cierto para n ≤ k.

Entonces, expandiendo el determinante obtenemos que

|Mk+1| = 2|Mk| − |Mk−1| = k + 3.

Puesto que lımn→∞ e0M−1n e∗0 = lımn→∞ |Mn−1|/|Mn| = 1, entonces, por el Corolario

4.1.2 y el Corolario 4.1.8, tenemos que1

z/∈ P 2(µ) y en consecuencia P 2(µ) no es

denso en L2(µ). Este resultado se puede probar utilizando el teorema de Szego (ver

[Con91]).

Observacion 4.1.11. El Teorema 4.1.9 es cierto para medidas con soporte com-

pacto en la recta real. Ademas, las medidas con soporte compacto en R son siem-

pre determinadas (o equivalentemente lımn→∞ λn = 0 por lo visto en [BCI02]) y

P 2(µ) = L2(µ).

Observacion 4.1.12. En el Teorema 4.1.9 no podemos prescindir de la hipotesis de

acotacion del soporte ya que hay medidas con soporte no acotado en la recta real

tal que P 2(µ) = L2(µ) y sin embargo lımn→∞ λn > 0. Dichas medidas son conocidas

como las medidas N -extremales (ver [Rie23]).

Proposicion 4.1.13. Sea µ una medida con soporte compacto en C tal que 0 /∈

Supp(µ). Las siguientes igualdades son equivalentes:

1.∑∞

n=0 |Pn(0)|2 = ∞.

2. P 2(µ) = [1, z,1

z, z2,

1

z2, . . . ].

Donde [1, z,1

z, z2,

1

z2, . . . ] es el cierre del subespacio generado por 1, z, 1

z, z2,

1

z2, . . . .

120

4.1 Aproximacion polinomial en L2(µ) y comportamiento asintotico delautovalor mınimo λn

Demostracion. Sea α > 0 y R > 0 tal que Supp(µ) ⊂ z ∈ C : α ≤ |z| ≤ R.

Probaremos primero que (1) implica (2). Por el Corolario 4.1.8 tenemos que (1)

es equivalente al hecho de que1

z∈ P 2(µ) y, por tanto, P 2(µ) = [

1

z, 1, z, z2, . . . ].

Entonces se tiene que

∫| 1z2

− v01

z− v1 − v2z − · · · − vnz

n−1|2dµ =

∫1

|z|2|1z− v0 − v1z − . . . vnz

n|2dµ

≤ 1

α2dis2(

1

z,Pn[z]).

Tomando ınfimos sobre v0, . . . , vn y n ∈ N tenemos que

dis2(1

z2, P 2(µ)) ≤ 1

α2dis2(

1

z, P 2(µ)).

Procediendo en la misma forma probamos que1

zk∈ P 2(µ) para k ∈ N.

(2) implica (1) es consecuencia del Corolario 4.1.8.

Observacion 4.1.14. La condicion de que 0 /∈ Supp(µ) no puede ser eliminada en la

Proposicion 4.1.13. De hecho, podemos considerar cualquier medida µ, con un atomo

en 0, µ(0) = d > 0, y tal que K = Supp(µ) sea un compacto con interior vacıo y

cuyo complementario en C, Kc, sea conexo. Por el Teorema de Mergelyan (ver por

ejemplo [Gai87]), los polinomios son densos en el espacio de las funciones continuas

sobre K con la norma uniforme y en consecuencia los polinomios son densos en

L2(µ), esto es, P 2(µ) = L2(µ) y por tanto (2) es cierta. Sin embargo, puesto que

M(µ) ≥ M(dδ0) por el Lema 4.1.1

1∑nk=0 |Pk(0)|2

≥ mınv∈Cn

(1 v

)Mn(dδ0)

1

v∗

= d > 0,

y por tanto∞∑k=0

|Pk(0)|2 < ∞.

121

AUTOVALORES MINIMOS DE MATRICES DE MOMENTOS

Terminamos esta seccion con un resultado que relaciona el comportamiento del auto-

valor mınimo λn con la norma de los polinomios monicos en relacion con un resultado

en [BS11]:

Lema 4.1.15. Sea µ una medida con soporte compacto en C. Para cada n ∈ N, sea

Pn(z) =∑n

j=0 vj,nzj el polinomio ortonormal de grado n. Si k ≤ n, entonces

λn ≤ 1∑kj=0 |vj,k|2

.

En particular, λn ≤ ∥Pn(z)∥2.

Demostracion. De la prueba del Lema 4.1.5,

λn ≤∫|p(z)|2dµ

12π

∫ 2π

0|p(eiθ)|2dθ

,

para cualquier polinomio p(z), no nulo y de grado ≤ n. En particular, si aplicamos

la anterior desigualdad a Pk(z) con k ≤ n:

λn ≤ 1∑kj=0 |vj,k|2

≤ 1

v2k,k.

Entonces, puesto que Pn(z) = vn,nPn(z), obtenemos trivialmente que λn ≤ ∥Pn(z)∥2.

Observacion 4.1.16. Si consideramos la matriz de orden (n+1)×(n+1), Bn = (vj,k)

con vj,k como en el Lema 4.1.1 si j ≤ k y vj,k = 0 si j > k, y definimos An = BnB∗n

entonces las entradas a(n)j,k de An son los coeficientes de la funcion nucleo

Kn(z, w) =n∑

k=0

Pk(z)Pk(w) =n∑

j,k=1

a(n)j,k z

jwk,

y del mismo modo que en [BS11] A−1n = Mn.

Observacion 4.1.17. En general, incluso para matrices de momentos, no es cierto

que lımn→∞ λn = lımn→∞ ∥Pn(z)∥2. Para mostrar esto es suficiente considerar el

122

4.2 Resultados relacionados para medidas en D

ejemplo 2 en la observacion 4.1.10. Para esta matriz de Toeplitz M , tenemos que

lımn→∞ λn = 0 y sin embargo,

lımn→∞

∥Pn(z)∥2 = lımn→∞

1

enM−1n e∗n

= lımn→∞

|Mn||Mn−1|

= 1 = 0.

Observacion 4.1.18. Hacemos la observacion de que en el caso de matrices M HDP

de Toeplitz, debido a que e0M−1n e∗0 = enM

−1n e∗n, se tiene

∥Pn(z)∥2 =1∑n

k=0 |Pk(0)|2,

y por tanto,

lımn→∞

∥Pn(z)∥2 = lımn→∞

1∑nk=0 |Pk(0)|2

.

4.2. Resultados relacionados para medidas en D

Consideramos medidas µ con infinito soporte en el disco unidad cerrado D. En este

caso ∥Pn + 1(z)∥ ≤ ∥Pn(z)∥ para todo n ∈ N. De hecho, por la propiedad extremal

de los polinomios monicos tenemos:

∥Pn + 1(z)∥2 ≤ ∥zPn(z)∥2 ≤ ∥Pn(z)∥2,

y por tanto lımn→∞ ∥Pn(z)∥ existe.

Podemos descomponer estas medidas µ en D como µ = η + ν donde η = µ/D y ν =

µ/T. Denotaremos por Pn(z;µ) y Pn(z; ν) los polinomios monicos correspondientes

a las medidas µ y ν, respectivamente. Probaremos que el comportamiento asintotico

de la norma de los polinomios monicos en D depende del comportamiento en T:

Proposicion 4.2.1. Sea µ una medida con infinito soporte en D y supongamos que

ν = µ/T tiene infinito soporte en T. Entonces:

lımn→∞

∥Pn(z;µ)∥ = lımn→∞

∥Pn(z; ν)∥.

123

AUTOVALORES MINIMOS DE MATRICES DE MOMENTOS

Demostracion. Puesto que Mn(ν) ≤ Mn(µ), tenemos vMn(ν)v∗ ≤ vMn(µ)v

∗. Enton-

ces

∥Pn(z; ν)∥2 = ınfv∈Cn

(v 1

)Mn(ν)

v∗

1

≤ ınfv∈Cn

(v 1

)Mn(µ)

v∗

1

= ∥Pn(z;µ)∥2.

Como consecuencia,

lımn→∞

∥Pn(z; ν)∥ ≤ lımn→∞

∥Pn(z;µ)∥.

Por tanto, si lımn→∞ ∥Pn(z;µ)∥ = 0, entonces lımn→∞ ∥Pn(z; ν)∥ = 0.

Por otro lado, supongamos que lımn→∞ ∥Pn(z;µ)∥ = c > 0. Puesto que la sucesion

∥Pn(z;µ)∥∞n=0 es no creciente, entonces ∥Pn(z;µ)∥ ≥ c para cada n ∈ N. Sea n fijo

y sea p(z) = zn + a1zn−1 + · · · + an cualquier polinomio monico de grado n. Si

Qk(z) = zkp(z), es un polinomio monico de grado n + k, por la propiedad extremal

de los monicos tenemos:

∫D|zkp(z)|2dη +

∫T|p(z)|2dν =

∫D|z|2k|p(z)|2dµ ≥ ∥Φn+k(z;µ)∥2 ≥ c2.

Tomando lımites cuando k → ∞, teniendo en cuenta que zkp(z) converge puntual-

mente a 0 en D, por el teorema de la convergencia dominada de Lebesgue:∫T|p(z)|2dν ≥ c2.

En consecuencia ∥Pn(z; ν)∥ ≥ c y tomando lımites cuando n → ∞ se sigue que

lımn→∞ ∥Pn(z; ν)∥ ≥ c. Por tanto,

lımn→∞

∥Pn(z; ν)∥ = lımn→∞

∥Pn(z;µ)∥

como querıamos ver.

En el siguiente resultado probamos un resultado analogo para el autovalor mınimo

de las secciones finitas de matrices de momentos.

124

4.2 Resultados relacionados para medidas en D

Proposicion 4.2.2. Sea µ una medida con infinito soporte en D, y sea ν = µ/T. Si

M(µ) y M(ν) son las matrices de momentos asociadas a µ y a ν, respectivamente,

entonces:

lımn→∞

λn(M(µ)) = lımn→∞

λn(M(ν)).

Demostracion. Como en la Proposicion 4.2.1 tenemos que Mn(ν) ≤ Mn(µ) para todo

n ∈ N. En consecuencia:

lımn→∞

λn(M(ν)) ≤ lımn→∞

λn(M(µ)).

Ademas, si lımn→∞ λn(M(µ)) = 0 entonces lımn→∞ λn(M(ν)) = 0. Supongamos

ahora lımn→∞ λn(M(µ)) = C > 0 para algun C > 0. Entonces, si η = µ/D, por

Lema 4.1.5, tenemos:∫D|p(z)|2dµ =

∫D|p(z)|2dη +

∫T|p(z)|2dν ≥ C

∫T|p(z)|2dm,

siendo p(z) un polinomio. Fijamos p(z), y consideramos el polinomio znp(z) entonces:

∫D|znp(z)|2dµ =

∫D|znp(z)|2dη +

∫T|p(z)|2dν ≥ C

∫T|p(z)|2dm.

De nuevo, procedemos como en la Proposicion 4.2.1, tomando lımites cuando n → ∞

tenemos

lımn→∞

∫D|znp(z)|2dη = 0,

de aquı que, ∫T|p(z)|2dν ≥ C

∫T|p(z)|2dm.

Entonces lımn→∞ λn(M(ν)) ≥ C, y por tanto,

lımn→∞

λn(M(ν)) = lımn→∞

λn(M(µ)).

125

AUTOVALORES MINIMOS DE MATRICES DE MOMENTOS

Observacion 4.2.3. No hay analogo del comportamiento asintotico del n-nucleo en

el 0. Para ver esto, consideramos una medida ν en T, que satisface que L2(ν) = P 2(ν),

por ejemplo una medida con soporte igual a una cantidad infinita de puntos atomicos

zn∞n=1 con pesos pn > 0 para n ≥ 0 tal que∑

n≥0 pn < ∞ y lımn→∞ zn = z0. Por

el teorema de Mergelyan (ver p.e. [Gai87]) los polinomios son densos en el espacio

de las funciones continuas en Supp(ν) = zn : n ∈ N ∪ z0 con la norma del

supremo, y por tanto P 2(ν) = L2(ν). Esto implica que1

z∈ P 2(ν) y por el Corolario

4.1.8, se sigue que∑∞

k=0 |Pn(0; ν)|2 = ∞. Consideramos ahora la medida µ = ν+dδ0

donde dδ0 es la medida con masa d concentrada unicamente en el punto 0 y las

sucesiones de polinomios Pn(z; ν)∞n=0 y Pn(z;µ)∞n=0. Para cada n ∈ N tenemos

Mn(µ) ≥ Mn(dδ0), y ademas por el Lema 4.1.1 tenemos:

1∑nk=0 |Pn(0;µ)|2

= mın(1 v

)Mn(µ)

1

v∗

: v ∈ Cn ≥

mın(1 v

)Mn(dδ0)

1

v∗

: v ∈ Cn = d.

Por tanto∞∑n=0

|Pn(0;µ)|2 ≤1

d< ∞.

Terminamos la seccion con varios resultados que relacionan la densidad polinomial

con el comportamiento de asintotico de los polinomios monicos y el de los n-nucleos:

Proposicion 4.2.4. Sea µ una medida con soporte en D y con Supp(µ/T) infinito,

tal que P 2(µ) = L2(µ). Entonces:

lımn→∞

∥Pn(z;µ)∥ = 0.

Demostracion. Supongamos que L2(µ) = P 2(µ). Entonces, si ν = µ/T tenemos que

L2(ν) = P 2(ν). Combinando el Lema 4.1.7 y la Obsevacion 4.1.18, se sigue que

0 =1∑∞

n=0 |Pn(0; ν)|2= lım

n→∞∥Pn(z; ν)∥2.

126

4.2 Resultados relacionados para medidas en D

Finalmente, por la Proposicion 4.2.1, tenemos:

lımn→∞

∥Pn(z;µ)∥2 = lımn→∞

∥Pn(z; ν)∥2 = 0.

Observacion 4.2.5. El recıproco de este resultado no es cierto. Es suficiente consi-

derar la medida de Lebesgue η en D. Entonces,

∥Pn(z)∥2 = mın(w 1

)Mn(η)

w∗

1

: w ∈ Cn =π

n+ 1

y lımn→∞ ∥Pn(z)∥2 = 0. Si embargo L2(η) = P 2(η), puesto que P 2(η) consiste en

todas las funciones analıticas∑∞

n=0 anzn tales que

∑∞n=0

|an|2n+1

< ∞.

127

Capıtulo 5

CONCLUSIONES Y LINEAS

FUTURAS DE INVESTIGACION

En este trabajo se ha abordado el estudio de medidas de equilibrio asociadas a

un sistema de semejanzas contractivas en el plano complejo a traves de las matrices

de momentos y de Hessenberg asociadas a estas medidas. Este enfoque matricial

ha permitido definir transformaciones tanto para matrices de momentos como pa-

ra matrices de Hessenbeg que trasladan propiedades de las medidas a ecuaciones

matriciales partiendo del SFI asociado a la medida.

En el capıtulo 2 se ha formalizado un teorema de punto fijo para matrices que

permite aproximar la matriz de momentos de la medida. Estos resultados han si-

do publicados en revistas incluidas en el Journal Citation Report(JCR), [EST06] y

[EST07], y citados en un trabajo posterior [JKS11], que avalan la investigacion y que

ponen de manifiesto que el marco teorico general en el que se formulan estos trabajos

tiene mucho interes para la comunidad cientıfica y en particular para aquellos que se

dedica al analisis sobre fractales. Otros resultados no incluidos en esta tesis relacio-

nados con este area se encuentran en [ER99] pero desde una perspectiva totalmente

distinta.

129

CONCLUSIONES Y LINEAS FUTURAS DE INVESTIGACION

Las nuevas expresiones recurrentes y explıcitas de los momentos de medidas au-

tosemejantes y en particular de la convolucion infinita de Bernoulli obtenidas en el

capıtulo 2, pueden ser analizadas en profundidad para obtener propiedades y quizas

responder a cuestiones sobre estas medidas que aun permanecen abiertas despues de

mas de 70 anos de estudio. Por otra parte, los resultados de este capıtulo permiten

obtener los polinomios ortogonales para medidas autosemejantes.

Asimismo, tambien nos proponemos explorar las transformaciones de matrices de

momentos para SFI mas generales formados por otro tipo de aplicaciones contracti-

vas.

Las formulas obtenidas en el capıtulo 2 de la inversa de una matriz triangular,

se pueden aplicar a cualquier formula recursiva, por tanto un trabajo interesante

a desarrollar serıa aplicar a la formula de recurrencia de los polinomios la misma

estrategia para explorar nuevas expresiones de estos en funcion de los coeficientes de

recurrencia. Por otro lado estas formulas tambien pueden ser aplicadas para calcular

la matriz, (T ∗)−1 en (1.2), cuyas columnas son los coeficientes de los polinomios

ortonormales respecto de la base canonica.

En relacion a los resultados del capıtulo 3, se han desarrollado algoritmos para

calcular la matriz de Hessenberg de una suma de medidas en el plano y tambien para

la obtencion de la medida autosemajante asociada a un SFI. Estos resultados han

sido publicados en revistas incluidas en el Journal Citation Report(JCR) [EGST11]

[EGST11b]. Nos proponemos profundizar en el analisis del comportamiento de la

matriz resultante en funcion de las medidas componentes, ası como la asintotica de

los polinomios para medidas mas generales que las medidas asociadas a shifts con

pesos.

En el capıtulo 4 se ha demostrado que en el caso de medidas con soporte com-

pacto en C, el comportamiento asintotico del autovalor mınimo de las secciones de

la matriz de momentos, esta relacionado con el problema de aproximacion por poli-

130

nomios, esto es, determinar cuando P 2(µ) = L2(µ), donde P 2(µ) es el cierre de P[z]

en L2(µ). Concretamente si los polinomios asociados son densos en L2(µ) entonces

necesariamente el autovalor mınimo de las secciones finitas de la matriz de momentos

de la medida tiende a cero. En este capıtulo se han obtenido resultados comparando

los problemas de minimizacion de la norma de los polinomios monicos, los n-nucleos

y el autovalor mınimo para medidas en el disco unidad. Estos resultados han sido

publicados en una revista incluida en el Journal Citation Report(JCR)[EGT11]. En

algunos de estos resultados la restriccion de la medida a la circunferencia unidad

tiene un caracter dominante y estamos interesados en explorar medidas con soportes

acotados mas generales, para ello podemos utilizar los resultados sobre transforma-

ciones de momentos que hemos estudiado en el capıtulo 2. Recientemente, en [BD06]

se ha caracterizado el ındice finito de determinacion de orden k de una medida en

terminos del comportamiento de los k menores autovalores de las secciones de la

matriz de Hankel asociada a dicha medida, uno de nuestros objetivos es obtener una

interpretacion de estos resultados en el caso hermitiano.

131

Bibliografıa

[AS72] M. Abramowitz and I. A. Stegun, Handbook of Mathematical Functions,

Dover, New York, 1972.

[Aki65] N. I. Akhiezer, The Classical Moment Problem, Oliver and Boyd, London,

1965.

[Atz75] A. Atzmon, A Moment Problem for Positive Measures on the Unit Disc,

Pacific J. Math. 59 (1975), pp. 317–325.

[Bar93] M. F. Barnsley, Fractals Everywhere. Academic Press, Cambridge, MA,

1993.

[BC04] B. Beckermann and M. Castro, On the determinacy of complex Jacobi

matrices. Math. Scand. 95 (2) (2004) pp. 285–298.

[BCR84] C. Berg, J.P.R. Christensen and P. Ressel, Harmonic Analysis on

Semigroups. Theory of Positive Definite and Related Functions, Graduate Texts

in Mathematics 100, Springer-Verlag, Berlin-Heidelberg-New York, 1984.

[BM84] C. Berg, P. Maserick, Exponentially bounded positive definite functions,

Illinois J. Math. 28 (1984) 162–179.

[BCI02] C. Berg, Y. Chen, M.E.H. Ismail, Small eigenvalues of large Hankel

matrices: The indeterminate case, Math. Scand. 91 (2002) 67–81.

133

BIBLIOGRAFIA

[BD06] C. Berg, A. J. Duran, Orthogonal polynomials and analytic functions

associated to positive definite matrices, J. Math. Anal. Appl. 315 (2006) 54–67.

[BS11] C. Berg, R. Szwarc, The smallest eigenvalue of Hankel matrices, Cons-

tructive Approximation 34 (2011) 107-133.

[Bot94] A. Bottcher, Infinite Matrices and Projection Methods, Lectures on Ope-

rator Theory and its Applications (Waterloo, ON, 1994), Fields Institute Mo-

nographs, Vol. 3, American Mathematical Society, Providence, RI, 1996.

[Blu898] O. Blumenthal, Uber dieEntwicklung einen willkurlichen Funktion nach

der Kettenbruches fur∫ 0

∞φ(ξ)dξ

z − ξ, Thesis, U. Gottingen, 1898.

[Bra55] J. Bram Subnormal Operators, Duke Math. J 22 (1955), 75-94.

[Bre80] C. Brezinski, Pade-Type Approximation and General Orthogonal Polyno-

mials, Birkhauser, Basel, 1980.

[Chi78] T. S. Chihara, An Introduction to Orthogonal Polynomials, vol. 13 of Mat-

hematics and its Applications, Gordon and breach, New York, 1978.

[Con85] J. B. Conway, A Curse in Functional Analysis, Graduate Texts in Mat-

hematics, 96 Springer-Verlag, New York, 1985.

[Con91] J. B. Conway , The Theory of Subnormal Operator.Mathematical Surveys

and Monographs, 36 Amer. Math. Soc., Providence, Rhode Island, 1991.

[Dom78] J. Dombrowski, Quasitriangular Matrices, Proceedings of de AMS, 69,

1978

[Dom80] J. Dombrowski, Spectral Properties of Real Parts of Weighted Shift Ope-

rators, Indiana University Mathematics Journal, 29, 1980.

134

BIBLIOGRAFIA

[Dom84] J. Dombrowski, Tridiagonal matrix representations of cyclic self-adjoint

operators, Pacific Journal of Mathematics,114, 1984.

[Dom85] J. Dombrowski, Tridiagonal matrix representations of cyclic self-adjoint

operators. II, Pacific Journal of Mathematics, 120, 1985

[DN86] J. Dombrowski and P. Nevai, Orthogonal polynomials and recurrence

relations, Siam. J. Math. Anal., 17, 1986.

[Dom87] J. Dombrowski, Cyclic operators, commutators and absolutely continuous

measures, Proceedings of de AMS, 100, 1987.

[Erd39] P. Erdos, On a family of symmetric Bernoulli convolutions, Amer. J.

Math., 61 (1939), pp. 974–976.

[Erd40] P. Erdos, On smoothness properties of a family Bernoulli convolutions,

Amer. J. Math., 62 (1940), pp. 180-186.

[Edg98] G. A. Edgar, Integral, Probability and Fractal Measures, Springer-Verlag,

New York, (1998)

[EGK92] S. Elhay, G. H. Golub and J. Kautsky, Jacobi matrices for sums of

weight functions, BIT 32 (1992) 143–166.

[ER99] C. Escribano and M. Reyes, Analysis of Functions Defined on Fractal

Sets, Fractals, 7 n2 (1999), pp. 197 – 204.

[EST03] C. Escribano, M. A. Sastre and E. Torrano, Moments of infinite

convolutions of symmetric Bernoulli distributions, J. Comput. Appl. Math., 153

(2003), pp. 191–199.

[EST06] C. Escribano, M. A. Sastre and E. Torrano, Moment matrix of

self-similar measures, Electronic Transactions on Numerical Analysis (ETNA),

24 (2006), 79-87

135

BIBLIOGRAFIA

[EST07] C. Escribano, M.A. Sastre and E. Torrano, A fixed point theorem

for moment matrices of self-similar measures, J. Comput. Appl. Math., 207 n2

(2007), pp. 352 – 359.

[EGST11] C. Escribano, A. Giraldo, M. A. Sastre and E. Torrano, Com-

puting the Hessenberg matrix associated with a self-similar measure, Journal of

Approximation Theory, 163, (2011), pp. 49 – 64.

[EGST11b] C. Escribano, A. Giraldo, M. A. Sastre and E. Torrano,

Hessenberg matrix for sums of Hermitian positive definite matrices and weighted

shifts, Journal of Computational and Applied Mathematics, 236 (2011), pg. 98-

106.

[EGT11] C. Escribano, R. Gonzalo and E. Torrano, Small eigenvalues of

large Hermitian moment matrices, Journal of Mathematical Analysis and Ap-

plications, 374 n 2(2011), pp. 470 – 480.

[Fal90] K. J. Falconer, Fractal Geometry, John Wiley and Sons, New York, 1990.

[Fal97] K. J. Falconer, Techniques in Fractal Geometry, John Wiley and Sons,

Chichester, 1997.

[Fis95] H. J. Fischer, On the paper “asymptotics for the moments of singular

distributions”, J. of Approx. Theory, 82 (1995), pp. 362–374.

[Fre61] G. freud, Orthogonal polynomials, Consultants Bureau, New York, 1961.

[Gai87] D. Gaier, Lectures on complex approximation, Birkhauser, Boston, 1987.

[Gar62] A. Garsia, Arithmetic properties of Bernoulli convolutions, Trans. Amer.

Math. Soc., 102 ,(1962), pp. 409-432.

[Gar63] A. Garsia, Entropy and singularity of infinity convolutions, J. Math., 13

(1963), pp. 1159–1169.

136

BIBLIOGRAFIA

[Gau82] W. Gautschi, On generating orthogonal polynomials, SIAM J. Sci. Statist.

Comput., 3 (1982) 289–317.

[GW93] W. Goh and J. Wimp, Asymptotics for the moments of singular distri-

butions, J. Approx. Theory, 74 (1993), pp. 301–334.

[GV96] G. H. Golub and F. Van Loan, Matrix computations, Johns Hopkings

University Press, 1996.

[GS55] U. Grenander, G. Szego, Toeplitz forms and their applications. Chelsea

Publishing Company, New York, 1955.

[GT93] R. Guadalupe and E. Torrano , On the moment problem in the boun-

ded case, J. Comput. Appl. Math., 49 n2 1-3 (1993), pp. 263–269.

[Hal84] P.R. Halmos, A Hilbert Space Problem Book, Springer Verlag, New York,

1984.

[HOS11] S. M. Heiman, P. Owrutsky and R. S. Strichartz, Orthogonal Poly-

nomials with Respect to Self-Similar Measures, Experiment. Math. 20 (2011),

no. 3, 238-259.

[Hu97] T. J. Hu, The local dimension of the Bernoulli convolution associated with

the golden number, Trans. Amer. Math. Soc., 349 (1997), pp. 2917–2940.

[Hut81] J. Hutchinson, Fractal and self-similarity, Indiana Univ. Math. J., 30

(1981), pp. 713–747.

[JW35] B. Jessen and A. Wintner, Distribution functions and the Riemann zeta

function, Trans. Amer. Math. Soc., 38 (1935), pp. 48–88.

[Jar01] H. Jarchow, Special Operators on Classical Banach Spaces of Analytic

Funntions Extrct. Mathematicae. 19 (1) pp. 21–3, 2001.

137

BIBLIOGRAFIA

[JKS11] P. Jorgensen,K. Kornelson and K. Shuman, Iterated function

systems, moments, and transformations of infinite matrices, Memoirs of the

American Mathematical Society, vol. 213 , n 1003.(2011)

[JKS07] P. Jorgensen and K. Shuman, Harmonic Analysis of Iterated Function

Systems with Overlap, Journal of Mathematical Physics, vol. 48 (2007), no. 8,

083511.

[Lan87] H. J. Landau, Classical background of the moment problem, Moments in

mathematics, Proc. Sympos. Appl. Math., vol. 37 (1987), pp. 1-15.

[Man77] B. B. Mandelbrot, The fractal geometry of nature, W. H. Freeman &

Co., San Francisco, 1977.

[Ma96] G. Mantica, A stable technique for computing orthogonal polynomials and

jacobi matrices associated with a class of singular measures, Contr. Approx., 12

(1996), pp. 509–530.

[Ma00] G. Mantica, On computing Jacobi matrices associated with recurrent and

Mobius iterated function systems, J. Comp. Appl. Math. 115 (2000) 419–431.

[Mat95] P. Mattila, Geometry of Sets and Measures in Euclidean Spaces, Cam-

bridge University Press, 1995.

[Mer03] R. Merris, Combinatorics, Wiley , Wiley Series in Discrete Mathematics

and Optimization, 67, (2003).

[PS96] Y. Peres and B. Solomyak, Absolute continuity of bernoulli convolutions,

a simple proof, Math. Research Letters, 3 (1996), pp. 231–239.

[Rak83] E. A. Rakhmanov, On the asymtotics of the ratio of orthogonal polyno-

mials II, Math. USSR Sbornik, 46, 1983.

138

BIBLIOGRAFIA

[Rak87] E. A. Rakhmanov, On the asymtotics of of polynomials orthogonal on the

unit circle with weights not satisfying Szego’s condition, Math. USSR Sbornik,

46, 1983.

[Rie23] M. Riesz, Sur le probleme des moments et le theoreme de Parseval corres-

pondant, Acta Litt. Ac. Sci. Szeged. 1 (1923) 209-225.

[Sal44] , R. Salem, A remarkable class of algebraic integers. Proof of a conjecture

of Vijayaraghavan, Duke Math. J., 11, 1944

[Sas03] M. A. Sastre, Medidas autosemejantes con solapamiento: dimension, mo-

mentos y aproximacion, Tesis doctoral, Universidad Politecnica de Madrid, Ma-

drid, 2003.

[Sch94] A. Schief, Separation properties for self-similar sets., Proc. Amer. Math.

Soc., pages 111–115, 1994.

[ST43] J.A. Shohat, J.D. Tamarkin, The Problem of moments, Mathematical

Surveys, vol 1, Amer. Math. Soc., New York, 1943.

[Sim05] B. Simon, Orthogonal polynomials on the unit circle. Part 1: Classical

Theory, Amer. Math. Soc. Colloq. Publ. 54. Part 1, AMS, Providence, RI, 2005.

[Sol98] B. Solomyak, Measure and dimension for some fractal families, Math.

Proc. Cambridge Phil. Soc., 124 (1998), pp. 531–546.

[Sta66] J. G. Stampfli,Which Weighted Shifts are Subnormal, Pacific J. Math. 17

(1966) 367–379.

[Sto32] M. H. Stone, Linear Transformations in Hilbert Space and their applica-

tions to analysis, AMS Colloquium publications, 15 American Mathematical

Society, Providence, 1932.

139

BIBLIOGRAFIA

[Sza81] F.H. Szafraniec, Boundedness of the shift operator related to definite

positive forms: an application to moment problem, Ark. Math. 19 (1981) 251–

259.

[Sze36] G. Szego, On some Hermitian forms associated two given curves of the

complex plane, Trans. Amer. Math. Soc. 40 (1936) 450-461.

[Sze75] G. Szego, Orthogonal Polynomials, vol. 32 of AMS Colloquium publica-

tions, American Mathematical Society, Providence, RI, 1975.

[Tom04] V. Tomeo, Subnormalidad de la matriz de Hessenberg asociada a los poli-

nomios ortogonales en el caso hermitiano. Tesis doctoral. UPM, 2004.

[Tor87] E. Torrano, Interpretacion matricial de los polinomios ortogonales en el

campo complejo Tesis doctoral, Universidad de Cantabria, Santander 1987.

[TT11] V. Tomeo and E. Torrano, Two applications of the subnormality of the

Hessenberg matrix related to general orthogonal polynomials, Linear Algebra and

its Applications, 435, n 9, (2011) pp. 2314-2320.

[Ass93] W. Van Assche, Analytic aspects of orthogonal polynomials. Katholieke

Universiteit Leuven, 1993.

[Ass97] W. Van Assche, Orthogonal Polynomials in the Complex Plane and on

the real line, Fields Inst. Commun. 14 (1997) 211-245.

[Ass10] W. Van Assche, Orthogonal polynomials and approximation theory: some

open problems in Recent Trends in Orthogonal Polynomials and Approximation

Theory eds. J. Arvesu, F. Marcellan, A. Martınez-Finkelshtein, Contemporary

Mathematics 507 (2010), 287-298.

[WW66] H. Widom and H. Wilf, Small eigenvalues of large Hankel matrices,

Proc. Amer. Math. Soc. 17 (1966) 338-344.

140