Introducción al curso

IE3041 - Sistemas de Control 2


¿Por qué otro curso de control?

consideremos una aplicación contemporánea en control...
consideremos una aplicación contemporánea en control...
¿Cómo logramos esto con control clásico?
consideremos una aplicación contemporánea en control...
¿Cómo logramos esto con control clásico?
Resulta que esta no es la pregunta adecuada


¿Qué debe hacer cada servo actuador en las juntas del robot?
Capa de nivel bajo
\(\to\) Teoría de control clásica


¿Cómo coordina el robot el movimiento de sus patas y su cuerpo?
Capa de nivel medio
\(\to\) Teoría de control moderna

¿Cómo navega el robot en el entorno? Capa de nivel alto
- Planificación de movimiento.
- Optimización.
- Inteligencia artificial.
En resumen
- El control clásico presenta limitantes (escalabilidad y computación).
- Herramientas adecuadas a los niveles de abstracción.
- Las aplicaciones contemporáneas requieren de métodos computacionales.
Un approach bottom-up:
- Control clásico ✓
-
Control moderno
- Modelado y simulación.
- Análisis.
- Diseño de control.
-
Optimización
- Fundamentos.
- Generación de trayectorias y control.
¿Cómo lo haremos?
- Desarrollo de competencias teóricas - 60%
- Ejercicios en clase* (15%): enfocados en desarrollar destrezas básicas.
- Casos de estudio (30%): aplicaciones interesantes, enfatizando la parte computacional.
- Evaluaciones (15%): exámenes cortos* y course exit survey.
-
Laboratorio - 40%
- Prácticas semanales: iniciando con la culminación de Control 1.
¿Control moderno?


¿De dónde surge?
Control clásico
dominio de frecuencia
teoría ingenieril
SISO
LTI
técnicas analíticas simples
Control moderno
dominio de tiempo
teoría matemática
MIMO
no lineal
herramientas numéricas
Control clásico
dominio de frecuencia
teoría ingenieril
SISO
LTI
técnicas analíticas simples
Sistemas dinámicos como modelo fundamental
Sistemas dinámicos como modelo fundamental
dispositivo, máquina, proceso o fenómeno que evoluciona a través del tiempo.
el concepto fundamental surge de las observaciones de Newton en su estudio de la mecánica de cuerpos celestes
"El movimiento futuro de los planetas puede predecirse únicamente con los valores actuales de cantidades fundamentales como la posición y la velocidad"
"El movimiento futuro de los planetas puede predecirse únicamente con los valores actuales de cantidades fundamentales como la posición y la velocidad"
en conjunto se denominan el estado del sistema
El estado de un sistema dinámico es una colección de variables o cantidades físicas que caracteriza completamente (en la ausencia de excitaciones externas) el comportamiento actual del sistema y puede usarse para predecir su comportamiento futuro
la intuición de Newton colapsa entonces al siguiente modelo "simple"
Sistema dinámico autónomo continuo en el tiempo
Sistema dinámico autónomo continuo en el tiempo
vector de estado
condiciones iniciales
dinámica
(campo vectorial)
Sistema dinámico autónomo continuo en el tiempo
Sistema de control no lineal en el espacio de estados
Sistema de control no lineal en el espacio de estados
esta notación simple esconde una gran complejidad
variables de estado
entradas o controles
salidas o mediciones
variables de estado
entradas o controles
salidas o mediciones
el espacio \(n\)-dimensional cuyos ejes están conformados por las variables de estado se denomina espacio de estados
la notación compacta esconde un sistema (vectorial) de ecuaciones diferenciales y algebráicas no lineales
la notación compacta esconde un sistema (vectorial) de ecuaciones diferenciales y algebráicas no lineales
¿Qué herramientas necesitamos para poder trabajar con estos sistemas?
Álgebra lineal y cálculo vectorial
Vectores
un vector \(\mathbf{v}\) es una lista ordenada de números reales (escalares) \(v_1,v_2,...,v_n\) apilados verticalmente de la forma:
puede emplearse la transpuesta para obtener un vector fila a partir de un vector columna.
gráficamente, puede representarse a un vector como una flecha dirigida desde el origen hasta el punto situado en las coordenadas dadas por los elementos del vector

gráficamente, puede representarse a un vector como una flecha dirigida desde el origen hasta el punto situado en las coordenadas dadas por los elementos del vector

sin embargo, puede considerarse también al vector como un objeto (el punto mismo) dentro de algún espacio \(n\)-dimensional
Escalamiento
se reparte el escalar, \(\alpha\in\mathbb{R}\), elemento por elemento

Escalamiento
se reparte el escalar, \(\alpha\in\mathbb{R}\), elemento por elemento

si \(\alpha>0\) entonces la operación sólo cambia el tamaño del vector, mientras que si \(\alpha<0\) también le cambia el sentido
Suma y resta
elemento por elemento, sólo está definida entre vectores de la misma dimensión
claramente \(\mathbf{v}+\mathbf{w}\) no está definido, sin embargo

Producto interno
se define como la suma de los productos, elemento por elemento, de dos vectores \(\mathbf{v}, \mathbf{w} \in \mathbb{R}^n\) de la misma dimensión
Norma
el producto interno de un vector consigo mismo brinda una noción de magnitud denominada norma, la más común es la norma Euclideana (longitud del vector) y se denota como
existen otras normas además de la Euclideana y se emplea el sub-índice para diferenciarlas entre sí
norma del valor absoluto:
norma uniforme (o del supremo):
Propiedades del producto interno
\(\mathbf{v} \cdot \mathbf{w}=\mathbf{w} \cdot \mathbf{v}\)
\(\mathbf{v} \cdot (\alpha\mathbf{w})=\alpha(\mathbf{v} \cdot \mathbf{w})\)
\(\mathbf{u} \cdot (\mathbf{v}+\mathbf{w})=\mathbf{u} \cdot \mathbf{v}+\mathbf{u} \cdot \mathbf{w}\)
\( \|\mathbf{v} + \mathbf{w}\|^2 = \|\mathbf{v}\|^2+2(\mathbf{v}\cdot\mathbf{w})+\|\mathbf{w}\|^2\)
\( \|\mathbf{v} + \mathbf{w}\|\le \|\mathbf{v}\|+\|\mathbf{w}\|\)
\(\mathbf{v} \cdot \mathbf{w}=\|\mathbf{v}\|\|\mathbf{w}\|\cos\theta\)

Ortogonalidad
si \(\mathbf{v}\in\mathbb{R}^n\) presenta \(\|\mathbf{v}\|=1\) entonces se conoce como vector unitario y puede denotarse como \(\hat{\mathbf{v}}\)
puede obtenerse un vector unitario a partir de cualquier vector mediante la normalización \(\hat{\mathbf{w}}=\mathbf{w}/\|\mathbf{w}\|\)
Ortogonalidad
si el producto interno entre dos vectores es cero, entonces se dice que estos son ortogonales
si, adicionalmente, dos vectores ortogonales tienen norma unitaria se dice que estos son ortonormales

ortogonales más no ortonormales
ortonormales

Matrices
se define una matriz como un arreglo rectangular de elementos con \(m\) filas y \(n\) columnas, estas pueden considerarse como una generalización para los vectores
para cada elemento: \(a_{ij}\in\mathbb{R}\)
si \(m=n\) se dice que la matriz es cuadrada
si ya sea \(n=1\) o \(m=1\) entonces se obtiene un vector columna o fila respectivamente
las operaciones de suma, resta y escalamiento funcionan igual para matrices que con vectores
la operación de transposición intercambia las filas con las columnas de la matriz
si \(\mathbf{A}\in\mathbb{R}^{m \times n}\) entonces \(\mathbf{A}^\top\in\mathbb{R}^{n \times m}\) y recibe el nombre de la transpuesta de \(\mathbf{A}\)
Multiplicación de matrices
se define la multiplicación \(\mathbf{A}\mathbf{B}\) entre matrices como
es decir, se efectúa el producto interno de cada fila de \(\mathbf{A}\) con cada columna de \(\mathbf{B}\)
por lo tanto, para que la multiplicación entre matrices esté definida, el número de columnas de \(\mathbf{A}\) debe ser igual al número de filas de \(\mathbf{B}\)
de esto se concluye que la multiplicación entre matrices no es conmutativa
por ejemplo, si se tienen las matrices

claramente \(\mathbf{C}\mathbf{D}\) no está definida, sin embargo
Inversa
"división entre matrices" pero bajo la definición de un recíproco o inverso multiplicativo, que cumple con
donde \(\mathbf{A}^{-1}\) se denomina la inversa de \(\mathbf{A}\)
dado que la multiplicación por la inversa es conmutativa, se concluye que esta existe sólo para matrices cuadradas
Inversa
"división entre matrices" pero bajo la definición de un recíproco o inverso multiplicativo, que cumple con
donde \(\mathbf{A}^{-1}\) se denomina la inversa de \(\mathbf{A}\)
sin embargo, no toda matriz cuadrada posee inversa y se refiere a ellas como singulares
en general, los procedimientos analíticos para encontrar la inversa de una matriz son tediosos y complicados, especialmente para matrices de dimensiones superiores
por esta razón, a menos que se trate de una matriz de \(2 \times 2\), se acudirá frecuentemente a métodos numéricos para determinarla
Matrices cuadradas de importancia
matriz cero
matriz identidad
matrices diagonales
matrices simétricas
matrices antisimétricas
matrices ortogonales
matrices triangulares superiores
matrices triangulares inferiores
Determinante
permite obtener un escalar a partir de una matriz cuadrada
se emplea en la solucion de sistemas de ecuaciones lineales, para definir una fórmula general para invertir matrices y para determinar el factor de escalamiento de una transformación lineal
no existe una fórmula general para el determinante ya que la complejidad de determinar el mismo depende de la dimensión de la matriz, sin embargo, existen las siguientes fórmulas
Algunas identidades
\(\mathbf{A}+\mathbf{B}=\mathbf{B}+\mathbf{A}\).
\(\mathbf{A}\mathbf{B}\ne \mathbf{B}\mathbf{A}\).
\(\mathbf{A}+(\mathbf{B}+\mathbf{C})=(\mathbf{A}+\mathbf{B})+\mathbf{C}\).
\(\mathbf{A}(\mathbf{B}\mathbf{C})=(\mathbf{A}\mathbf{B})\mathbf{C}\).
\((\mathbf{A}+\mathbf{B})^\top=\mathbf{A}^\top+\mathbf{B}^\top\).
\((\mathbf{A}\mathbf{B})^\top=\mathbf{B}^\top\mathbf{A}^\top\).
\((\mathbf{A}+\mathbf{B})^{-1}\ne \mathbf{A}^{-1}+\mathbf{B}^{-1}\).
\((\mathbf{A}\mathbf{B})^{-1}=\mathbf{B}^{-1}\mathbf{A}^{-1}\).
\(\left(\mathbf{A}^{-1}\right)^{-1}=\mathbf{A}\).
\(\mathrm{det}(\mathbf{A}\mathbf{B})=\mathrm{det}(\mathbf{A})\mathrm{det}(\mathbf{B})\).
\(\mathrm{det}\left(\mathbf{A}^\top\right)=\mathrm{det}(\mathbf{A})\).
\(\mathrm{det}\left(\mathbf{A}^{-1}\right)=1/\mathrm{det}(\mathbf{A})\).
Eigenvalores y eigenvectores
para una matriz \(\mathbf{A}\in\mathbb{R}^{n\times n}\) su polinomio característico está dado por
los eigenvalores de \(\mathbf{A}\) son las soluciones de la ecuación característica
son por lo general complejos y \(\mathbf{A}\) (en este caso) siempre tendrá \(n\) eigenvalores (puede que algunos se repitan)
se llama espectro de \(\mathbf{A}\) al conjunto formado por todos los eigenvalores de \(\mathbf{A}\) y se denota como
los eigenvalores resuelven el problema de eigenvalores en álgebra lineal
donde \(\mathbf{v}_i\in\mathbb{R}^n\) se conocen como eigenvectores y hay uno asociado a cada eigenvalor de \(\mathbf{A}\)
en otras palabras, los eigenvectores son aquellos a los cuales la aplicación de la matriz \(\mathbf{A}\) es equivalente a un escalamiento de magnitud igual a los eigenvalores
Cálculo vectorial y matricial
sea \(\mathbf{x}\in \mathbb{R}^n\), una función escalar multivariable está definida como \(f:\mathbb{R}^n \to \mathbb{R}\), tal que
donde \(x_i\) corresponde a los elementos de \(\mathbf{x}\)
se define el gradiente de la función escalar como el vector columna dado por
un campo vectorial (o función vectorial) está definido como \(\mathbf{f}:\mathbb{R}^n \to \mathbb{R}^m\), tal que
en donde \(f_1,f_2,...,f_m\) son funciones escalares multivariable
se define el jacobiano del campo vectorial como la matriz
el jacobiano es, efectivamente, la derivada del campo vectorial
si \(\mathbf{A}(t)\) es una matriz que depende del tiempo
entonces se define
¿Muy complicado a mano?
MATLAB
x = [1; 2; 3]
v = [-1, 0, 1, 2]
w = [0.5, -8, 1]'
x(2)
x(1:2)
x(end)
x + w
x' * w
norm(x, 2)
A = [1, 0, -1; -2, 3, 0; 0, 0, -0.5]
A(2, 3)
A(:, 2:end)
A'
det(A)
I = eye(3)
zeros(2, 5)
A^(-1)
I/A
inv(A)
A * I
eig(A)
syms x1 x2 x3
f(x1, x2, x3) = x1^2 + cos(x2) - exp(-x3)
g = gradient(f)
syms x1 x2 x3
f(x1, x2, x3) = [ 2*x1 - sin(x2) - exp(-x3);
x1^2 + cos(x2) - x3 ]
Df = jacobian(f, [x1, x2, x3])
syms t
A(t) = [t^2, cos(t); exp(-t), 1 / t]
dAdt = diff(A)
intA = int(A)
IE3041 - Lecture 0 (2025)
By Miguel Enrique Zea Arenales
IE3041 - Lecture 0 (2025)
- 137