massimi e minimi in due variabili

In questa pagina vediamo definizioni e dimostrazioni su Massimi e minimi in due variabili o in n variabili, partiremo dalle definizioni di massimo e minimo relativi ed assoluti, parleremo dei punti critici, perché è lì in genere che si vanno a cercare eventuali massimi e minimi, per poi capire come si catalogano come punti di massimo, minimo o di sella tramite lo studio della matrice Hessiana.

Vedremo anche alcune dimostrazioni, e approfondiremo il concetto di matrice Hessiana, vista come una forma quadratica della quale valutando se è definita positiva o negativa, o altro, possiamo fare deduzione sulla natura dei punti critici. Vedremo vari metodi per lo studio della matrice Hessiana, che diventa più difficile quando si è in più di due variabili.

Parleremo inoltre di insiemi compatti su cui la continuità della funzione e la chiusura dell’insieme ci garantiscono l’esistenza di un massimo e minimo assoluti. E concluderemo con i moltiplicatori di Lagrange che si applicano a quelle situazioni in cui la ricerca di massimi è minimi si concentra su vincoli, che in due variabili possono essere rappresentati semplicemente da curve chiuse definite in forma esplicita da equazioni.

Definizioni di massimo e minimo relativi ed assoluti per funzioni di più variabili reali

Prima di dare la definizione di massimo e minimo relativi di una funzione è importante definire prima che si intende per palla di raggio $\rho$ centrata in un punto ${\mathbf{x}}_0 \in {\mathbb{R}}^n$, indicata con $B_\rho({\mathbf{x}}_0)$, è l’insieme di tutti i punti $\mathbf{x} \in {\mathbb{R}}^n$ la cui distanza da ${\mathbf{x}}_0$ è minore di $\rho$. In formula, si esprime come:

$B_\rho({\mathbf{x}}_0) = \{\mathbf{x} \in {\mathbb{R}}^n : \|{\mathbf{x} – \mathbf{x}}_0\| < \rho\}$

dove $\|\cdot\|$ denota la norma euclidea in ${\mathbb{R}}^n$.

Avendo chiarito questo, possiamo definire i concetti di massimo e minimo (assoluti e relativi) in termini di palle in ${\mathbb{R}}^n$:

– Un punto ${\mathbf{x}}_{0}$ si dice massimo assoluto su un insieme $A$ se $f(\mathbf{x}) \le f({\mathbf{x}}_{0})$ per ogni $\mathbf{x} \in A$.

– Un punto ${\mathbf{x}}_{0}$ si dice minimo assoluto su $A$ se $f(\mathbf{x}) \ge f({\mathbf{x}}_{0})$ per ogni $\mathbf{x} \in A$.

– Un punto ${\mathbf{x}}_{0}$ si dice massimo relativo su $A$ se esiste un $\delta > 0$ tale che $f(\mathbf{x}) \le f({\mathbf{x}}_{0})$ per ogni $\mathbf{x}$ appartenente all’intersezione tra $A$ e una palla di raggio $\delta$ centrata in ${\mathbf{x}}_{0}$, ovvero per ogni $\mathbf{x} \in B_\delta({\mathbf{x}}_{0}) \cap A$.

– Un punto ${\mathbf{x}}_{0}$ si dice minimo relativo su $A$ se esiste un $\delta > 0$ tale che $f(\mathbf{x}) \ge f({\mathbf{x}}_{0})$ per ogni $\mathbf{x}$ appartenente all’intersezione tra $A$ e una palla di raggio $\delta$ centrata in ${\mathbf{x}}_{0}$, ovvero per ogni $\mathbf{x} \in B_\delta({\mathbf{x}}_{0}) \cap A$.

Questa spiegazione mette in evidenza il concetto di “vicinanza” tramite le palle in ${\mathbb{R}}^n$, che è centrale per comprendere la nozione di massimi e minimi relativi, in quanto questi ultimi dipendono dai valori che la funzione assume in una “vicinanza” del punto considerato.

Teorema di Fermat in R²

Sia $f:A\to \mathbb{R}$ una funzione derivabile in un punto ${{\mathbf{x}}_{0}}$ interno ad $A$ . Se ${{\mathbf{x}}_{0}}$ è un punto di massimo o di minimo relativo per $f$ su $A$ , allora $\nabla f\left( {{\mathbf{x}}_{0}} \right)=\mathbf{0}$

Punti critici (punti stazionari)

Sia $f:A\to \mathbb{R}$ con $A\subseteq {{\mathbb{R}}^{n}}$ aperto, si chiamano punti stazionari i punti in cui si annulla il gradiente di $f$ . Per il teorema di Fermat i punti di massimo e di minimo relativo per $f$ vanno cercati tra i punti critici se $f$ è derivabile, mentre tutti i punti in cui la funzione non è derivabile sono da considerarsi possibili punti di massimo o minimo relativi.

Non tutti i punti critici sono massimi o minimi relativo, tali punti si chiamano punti di Sella.

Catalogazione dei punti critici in R²

Quasi dimostrazione della formula di Taylor:

Consideriamo la restrizione della funzione $f$ alla retta uscente da $\left( {{x}_{0}},{{y}_{0}} \right)$ nella direzione $\mathbf{v}=\left( {{v}_{1}},{{v}_{2}} \right)$ . Supponiamo che $f$ sia di classe ${{C}^{2}}$ .

Consideriamo la funzione $F\left( t \right)=f\left( {{x}_{0}}+{{v}_{1}}t,{{y}_{0}}+{{v}_{2}}t \right)$ . Per il teorema di derivazione di funzioni composte $F$ è derivabile (in un intorno del punto) e si ha:

$ F'(t) = v_1 f_x’\left( x_0 + v_1 t, y_0 + v_2 t \right) + v_2 f_y’\left( x_0 + v_1 t, y_0 + v_2 t \right) $

Siccome $f$ è di classe ${{C}^{2}}$ allora si può derivare di nuovo, e otteniamo:

$ F”(t) = v_1^2 f_{xx}”(x_0 + v_1 t, y_0 + v_2 t) + 2 v_1 v_2 f_{xy}”(x_0 + v_1 t, y_0 + v_2 t) + v_2^2 f_{yy}”(x_0 + v_1 t, y_0 + v_2 t) $

In questa espressione:

– $f_{xx}”$ è la derivata seconda di $f$ rispetto a $x$.

– $f_{xy}”$ è la derivata mista seconda di $f$, prima rispetto a $x$ e poi rispetto a $y$.

– $f_{yy}”$ è la derivata seconda di $f$ rispetto a $y$.

Quindi $F$ è derivabile due volte in un intorno di ${{t}_{0}}=0$ , e a partire dalle sue derivate è possibile costruire lo sviluppo di Mc Laurin al secondo ordine con resto di Peano.

Ecco il testo formattato correttamente:

$F(t) = F(0) + t \cdot F'(0) + \frac{t^2}{2} \cdot F”(0) + o(t^2) $

Quindi:

$ f(x_0 + v_1 t, y_0 + v_2 t) = f(x_0, y_0) + t ( v_1 f_x'(x_0, y_0) + v_2 f_y'(x_0, y_0) )+ \frac{t^2}{2}( v_1^2 f_{xx}”(x_0, y_0) + 2 v_1 v_2 f_{xy}”(x_0, y_0) + v_2^2 f_{yy}”(x_0, y_0) ) + o(t^2) $

Introducendo ora due variabili ausiliarie:

$h=t{{v}_{1}}$, $k=t{{v}_{2}}$

$ f(x_0 + h, y_0 + k) = f(x_0, y_0) + \left( h f_x'(x_0, y_0) + k f_y'(x_0, y_0) \right) + \frac{1}{2} ( h^2 f_{xx}”(x_0, y_0) + 2hk f_{xy}”(x_0, y_0) + k^2 f_{yy}”(x_0, y_0) + o(t^2) $

L’ultimo passaggio $o\left( {{t}^{2}} \right)\ne o\left( {{h}^{2}}+{{k}^{2}} \right)$ , ma la formula di Taylor arrestata al secondo ordine ci dice che:

Alcuni esercizi svolti sul calcolo di massimi e minimi di funzioni di due variabili

Formula di Taylor in R² arrestata al secondo ordine

Sia $f:A\to \mathbb{R}$ una funzione di classe ${{C}^{2}}$ su un aperto $A\subseteq {{\mathbb{R}}^{2}}$ e sia $\left( {{x}_{0}},{{y}_{0}} \right)$ un punto di $A$ .

Allora per $\left( h,k \right)\to \left( 0,0 \right)$, ovvero un intorno circolare di $\left( {{x}_{0}},{{y}_{0}} \right)$:

$ f(x_0 + h, y_0 + k) = f(x_0, y_0) + \left( h \, f_x'(x_0, y_0) + k \, f_y'(x_0, y_0) \right) + \frac{1}{2} \left( h^2 \, f_{xx}”(x_0, y_0) + 2 \, h \, k \, f_{xy}”(x_0, y_0) + k^2 \, f_{yy}”(x_0, y_0) \right) + o(h^2 + k^2) $

La formula di Taylor può essere riscritta in forma matriciale:

$ f(x_0 + h, y_0 + k) = f(x_0, y_0) + \nabla f(x_0, y_0) \cdot \begin{pmatrix} h \\ k \end{pmatrix} + \frac{1}{2} \begin{pmatrix} h & k \end{pmatrix} \mathbf{H}_f(x_0, y_0) \begin{pmatrix} h \\ k \end{pmatrix} + o(h^2 + k^2) $

$P_0=(x_0, y_0)$ è un punto di minimo se in un intorno $f(x_0 + h, y_0 + k) \textcolor{red}{\ge} f(x_0, y_0)$ per ogni valore di $h$ e $k$ che mantengono $f(x,y)$ all’interno di quell’intorno. Viceversa si tratta di un punto di massimo se la disequazione vale nello stesso intorno con il segno opposto $f(x_0 + h, y_0 + k) \textcolor{red}{\le} f(x_0, y_0)$.

Fatta questa osservazione possiamo dedurre che per catalogare un punto critico come massimo o minimo, dobbiamo studiare la positività della funzione $\boxed{f(x_0 + h, y_0 + k) – f(x_0, y_0)}$

Bisogna osservare inoltre che se $(x_0,y_0)$ è un punto critico, $\textcolor{red}{\nabla f(x_0, y_0)=0}$ e tornando alla forma non matriciale, si ottiene la seguente espressione:

$ \boxed{f(x_0 + h, y_0 + k) – f(x_0, y_0)} = \frac{1}{2} \textcolor{red}{[ h^2 f_{xx}”(x_0, y_0) + 2hk f_{xy}”(x_0, y_0) + k^2 f_{yy}”(x_0, y_0) ]} + o(h^2 + k^2) $

Quindi, se l’intorno è abbastanza piccolo, possiamo trascurare l’o-piccolo e il segno di $\boxed{f(x_0 + h, y_0 + k) – f(x_0, y_0)}$ dipende esclusivamente da $q(h,k)= \textcolor{red}{[ h^2 f_{xx}”(x_0, y_0) + 2hk f_{xy}”(x_0, y_0) + k^2 f_{yy}”(x_0, y_0) ]}$ e in particolare si tratta di :

• un punto di minimo se $ q(h,k) \ge 0$ per ogni $h$, $k$ appartenente all’intorno considerato ,

punto di massimo se $ q(h,k) \le 0$ per ogni $h$, $k$ appartenente all’intorno considerato.

punto di Sella se non è verificata nessuna delle precedenti.

Studio del segno della matrice Hessiana

A questo punto dimostriamo che questo studio può essere fatto direttamente a partire dalla matrice Hessiana.

${{\mathbf{H}}_{f}}\left( {{x}_{0}},{{y}_{0}} \right)=\left( \begin{matrix}{{f}_{xx}} &{{f}_{xy}} \\{{f}_{xy}} & {{f}_{yy}} \\\end{matrix} \right)$

Se $\det {{\mathbf{H}}_{f}}\left( {{x}_{0}},{{y}_{0}} \right)>0\,\,\,\Rightarrow \,\,\det {{\mathbf{H}}_{f}}\left( {{x}_{0}},{{y}_{0}} \right)={{f}_{xx}}{{f}_{yy}}-{{f}_{xy}}^{2}>0$ allora ${{f}_{xx}}\ne 0$ e risulta

$ q(h,k) = h^2 f_{xx}^2 + 2 h k f_{xy} f_{xx} + k^2 f_{yy} f_{xx} $

$ = h^2 f_{xx}^2 + 2 h k f_{xy} f_{xx} + k^2 f_{xy}^2 – k^2 f_{xy}^2 + k^2 f_{yy} f_{xx} $

$ = \left( h f_{xx} + k f_{xy} \right)^2 + \left( f_{yy} f_{xx} – f_{xy}^2 \right) k^2 $

$ = \left( h f_{xx} + k f_{xy} \right)^2 + \det \mathbf{H}_f \cdot k^2 > 0 \quad \forall (h,k) \ne (0,0) $

Quindi $q\left( h,k \right)$ e ${{f}_{xx}}$ hanno lo stesso segno e si ha quindi:

$\det {{\mathbf{H}}_{f}}\left( {{x}_{0}},{{y}_{0}} \right)>0,\,\,\,\,\,{{f}_{xx}}>0\,\,\Rightarrow \,\,\,\,\,q\left( h,k \right)>0\,\,\,\,\,\,\,\Rightarrow \,\,\,\,\left( {{x}_{0}},{{y}_{0}} \right)\,\,punto\,\,di\,\,\,\min $

$\det {{\mathbf{H}}_{f}}\left( {{x}_{0}},{{y}_{0}} \right)>0,\,\,\,\,\,{{f}_{xx}}<0\,\,\Rightarrow \,\,\,\,\,q\left( h,k \right)<0\,\,\,\,\,\,\,\Rightarrow \,\,\,\,\left( {{x}_{0}},{{y}_{0}} \right)\,\,punto\,\,di\,\,\,\max $

Se $\det {{\mathbf{H}}_{f}}\left( {{x}_{0}},{{y}_{0}} \right)<0\,\,\Rightarrow \,\,\det {{\mathbf{H}}_{f}}\left( {{x}_{0}},{{y}_{0}} \right)={{f}_{xx}}{{f}_{yy}}-{{f}_{xy}}^{2}<0$ si distinguono i seguenti casi:

Caso 1. ${{f}_{xx}}=0\,\,\Rightarrow \,\,{{f}_{xy}}\ne 0\,\,\Rightarrow \,\,q\left( h,k \right)=k\left( 2{{f}_{xy}}h+{{f}_{yy}}k \right)$

Basta porre:

$q\left( k,k \right)=k\left( 2{{f}_{xy}}k+{{f}_{yy}}k \right)={{k}^{2}}\left( 2{{f}_{xy}}+{{f}_{yy}} \right)$

$q\left( k,-k \right)=k\left( 2{{f}_{xy}}k+{{f}_{yy}}k \right)=-{{k}^{2}}\left( 2{{f}_{xy}}+{{f}_{yy}} \right)$

E osservando che $q(k,k)$ e $q(k,-k)$ $\forall k\in \mathbb{R}$ sono discordi, si può dire che il punto critico $\left( {{x}_{0}},{{y}_{0}} \right)$ è di Sella.

Caso 2.

$ q(h,k) = h^2 f_{xx} + 2hk f_{xy} + k^2 f_{yy} $

$ = k^2 \left( \left( \frac{h}{k} \right)^2 f_{xx} + 2 \left( \frac{h}{k} \right) f_{xy} + f_{yy} \right) $

$ = k^2 \left( f_{xx} z^2 + 2 f_{xy} z + f_{yy} \right) $

dove $ z = \frac{h}{k} $

Nella parentesi tonda c’è un equazione di secondo grado nella variabile $z=\frac{h}{k}$ . Si tratta di un punto di Sella se l’equazione contiene intervalli di $z$ dove risulta positiva e intervalli dove risulta negativa, ovvero$\Delta >0$. Si tratterebbe di un punto di Sella perché$\,\,q\left( h,k \right)$ risulterebbe positivo o negativo a seconda del rapporto che c’è tra $h$ e $k$ .

$\Delta >0\,\,\Rightarrow \,\,4{{f}_{xy}}^{2}-4{{f}_{xx}}{{f}_{yy}}>0\,\,\,\Rightarrow \,\,{{f}_{xx}}{{f}_{yy}}-{{f}_{xy}}^{2}<0\,\,\,\Rightarrow \,\,\det {{\mathbf{H}}_{f}}\left( {{x}_{0}},{{y}_{0}} \right)<0\,$

Si ritorna cioè all’ipotesi di partenza. Quindi anche in questo secondo caso si tratta di un punto di Sella.

$\det {{\mathbf{H}}_{f}}\left( {{x}_{0}},{{y}_{0}} \right)<0\,\,\,\,\,\,\Rightarrow \,\,\,\,\left( {{x}_{0}},{{y}_{0}} \right)\,\,punto\,\,di\,\,\,sella$

L’ultimo caso è invece quando il determinante della matrice Hessiana risulta nulla, in questo caso si dice che la matrice Hessiana risulta degenere.

$\det {{\mathbf{H}}_{f}}\left( {{x}_{0}},{{y}_{0}} \right)=0\,\,\,\,\,\,\Rightarrow \,\,\,\,non\,si\,pu\grave{o}\,concludere\,nulla$

Allora, come ci si comporta quando il determinante della matrice Hessiana risulta nullo?

In questo caso, per capire la natura del punto critico bisogna applicare direttamente la definizione di massimo e minimo relativo, cioè studiare direttamente il segno di $\boxed{f(x_0 + h, y_0 + k) – f(x_0, y_0)}$ in un intorno del punto $(x_0,y_0)$

esercizi su massimi e minimi

Catalogazione dei punti critici in R^n

Sia $f:A\to \mathbb{R}$ una funzione di classe ${{C}^{2}}$ su un aperto $A\subseteq {{\mathbb{R}}^{2}}$ e sia $\left( {{x}_{0}},{{y}_{0}} \right)$ un punto di $A$ in cui $\nabla f=0$, ovvero un punto stazionario . Lo sviluppo di Taylor arrestato al secondo ordine è dato dalla formula:
$f\left( {{\mathbf{x}}_{0}}+\mathbf{h} \right)=f\left( {{\mathbf{x}}_{0}} \right)+\nabla f\centerdot \mathbf{h}+{{\mathbf{h}}^{T}}\mathbf{H}\,\mathbf{h}+o\left( {{\left\| \mathbf{h} \right\|}^{2}} \right)$
Considerato che $\nabla f=0$, allora scompare il termine del primo ordine.


$f\left( {{\mathbf{x}}_{0}}+\mathbf{h} \right)=f\left( {{\mathbf{x}}_{0}} \right)+{{\mathbf{h}}^{T}}\mathbf{H}\,\mathbf{h}+o\left( {{\left\| \mathbf{h} \right\|}^{2}} \right)$
Per cui in un intorno sferico definito da $\mathbf{h}\to \mathbf{0}$ si ha che il segno di $f\left( {{\mathbf{x}}_{0}}+\mathbf{h} \right)-f\left( {{\mathbf{x}}_{0}} \right)$è definito da $p\left( \mathbf{h} \right)={{\mathbf{h}}^{T}}\mathbf{H}\,\mathbf{h}$, che rappresenta una forma quadratica, considerato che la matrice Hessiana $\mathbf{H}$ è una matrice simmetrica. In pratica i punti vengono catalogati studiando le concavità.
Si osserva che $\mathbf{H}$ essendo una matrice simmetrica ammette sicuramente $n$ autovalori reali.

Studio del segno di una forma quadratica

– Una forma quadratica è definita positiva se ${{\mathbf{h}}^{T}}\mathbf{H}\,\mathbf{h}>0\,\,\,\,\forall \mathbf{h}$, e questo si verifica se tutti gli autovalori di $\mathbf{H}$  sono strettamente positivi. In questo caso il punto  ${{\mathbf{x}}_{0}}$ è un punto di minimo.

– Una forma quadratica è definita negativa se ${{\mathbf{h}}^{T}}\mathbf{H}\,\mathbf{h}<0\,\,\,\,\forall \mathbf{h}$, e questo si verifica se tutti gli autovalori di $\mathbf{H}$sono strettamente negativi. In questo caso il punto  ${{\mathbf{x}}_{0}}$ è un punto di massimo.

– Una forma quadratica è indefinita se esistono almeno due vettori ${{\mathbf{h}}_{1}}$ e ${{\mathbf{h}}_{2}}$  per cui ${{\mathbf{h}}_{1}}^{T}\mathbf{H}\,{{\mathbf{h}}_{1}}>0$e ${{\mathbf{h}}_{2}}^{T}\mathbf{H}\,{{\mathbf{h}}_{2}}<0$. Questo si verifica se almeno due autovalori di $\mathbf{H}$ hanno segno opposto.

– Una forma quadratica è semidefinita positiva, se ha tutti gli autovalori positivi o nulli, mentre è semidefinita negativa se tutti gli autovalori sono negativi o nulli. In questi casi si dice che la matrice Hessiana è degenere. Il determinante della matrice Hessiana in questi casi è nullo, $\det \mathbf{H}=0$ essendo esso il prodotto degli autovalori. $\det \mathbf{H}=\prod{{{\lambda }_{i}}}$ .

In pratica, significa che esistono direzioni lungo le quali la derivata seconda si annulla e non è possibile studiarne la concavità. In questi casi, teoricamente, se si volessero trarre conclusioni attraverso lo studio delle derivate successive sarebbe necessario derivare oltre il secondo ordine.

Osservazione: Una forma quadratica ha segno costante lungo qualunque retta passante per l’origine definita da $\lambda \mathbf{h}$ . Infatti $p\left( \lambda \,\mathbf{h} \right)=\lambda {{\mathbf{h}}^{T}}\mathbf{H}\,\lambda \mathbf{h}={{\lambda }^{2}}{{\mathbf{h}}^{T}}\mathbf{H}\,\mathbf{h}$, qualunque sia $\lambda $ , la forma quadratica viene moltiplicata sempre per una quantità positiva.

Talvolta il calcolo esplicito degli autovalori della matrice Hessiana può risultare scomodo.  Per questo si possono utilizzare delle tecniche alternative che sono il criterio di Sylvester oppure il metodo di Cartesio per determinare il segno degli autovalori e quindi la segnatura della forma quadratica.

Metodo dei minori nord-ovest (minori principali di testa)

Il metodo dei minori nord-ovest fornisce una via per determinare la natura di una matrice quadrata $ \mathbf{H} $ esaminando i determinanti dei suoi minori nord-ovest. Ecco come funziona:

Si definiscono $ d_i $ i determinanti dei minori nord-ovest ottenuti tagliando le ultime $ n – i $ righe e le ultime $ n – i $ colonne della matrice $ \mathbf{H} $.

Se invece tutti i determinanti $ d_i $ sono diversi da zero per $ i = 1, \ldots, n $, allora:

  1. Criterio di Sylvester (matematico britannico): La matrice $ \mathbf{H} $ è definita positiva se tutti i determinanti dei minori nord-ovest sono strettamente positivi. In questo caso, si tratta di un minimo locale.
  2. Criterio di Sylvester esteso: La matrice $ \mathbf{H} $ è definita negativa se il segno dei determinanti dei minori nord-ovest alterna secondo il pattern $ (-1)^i d_i > 0 $. In questo caso, si tratta di un massimo locale.
  3. Se si verifica un cambiamento di segno qualunque tra due minori nord-ovest consecutivi che nega il caso 1 e 2 allora la matrice $ \mathbf{H} $ è indefinita (anche se c’è qualche minore nord-ovest nullo).
  4. Nei restanti casi la matrice è semidefinita positiva o semidefinita negativa o comunque non si può concludere nulla.

Ad esempio, considera la matrice:

$ \mathbf{H} = \left( \begin{matrix} a & b & c \\ d & e & f \\ g & h & i \end{matrix} \right) $

I determinanti dei minori nord-ovest sono $ d_3 = \det(\mathbf{H}) $, $ d_2 = \det \left( \begin{matrix} a & b \\ d & e \end{matrix} \right) $, $ d_1 = \det(a) = a $.

La tabella riportata in seguito può essere utilizzata in maniera molto comoda per applicare il metodo dei minori di testa nel caso 3×3, perché tiene conto di tutte le casistiche possibili.

$d_1$$d_2$$d_3$$\mathbf{H}$
+++Definita Positiva
+Definita Negativa
//Indefinita
+/Indefinita
Applicazione del criterio dei minori Nord-Ovest al caso di matrice 3×3

Per tutti i casi esclusi da questa tabella non si può concludere niente sul segno della matrice H. Nelle caselle contrassegnate da una “/” vuol dire che è indifferente se il minore di testa ha determinante positivo, negativo o nullo.

Se tutti i determinanti sono diversi da zero, possiamo applicare il criterio sopra descritto per determinare la natura della matrice $ \mathbf{H} $.

Metodo di Cartesio per lo studio del segno degli autovalori

Teorema di Cartesio : Sia $p\left( x \right)={{a}_{n}}{{x}^{n}}+{{a}_{n-1}}{{x}^{n-1}}+…+{{a}_{k}}{{x}^{k}}$ , un polinomio di grado $n$ con tutte le radici reali. ${{a}_{k}}$ è l’ultimo coefficiente non nullo associato al polinomio (quindi ${{a}_{k-1}}=….={{a}_{1}}={{a}_{0}}=0$ ).
Senza calcolare esplicitamente le radici si ha che: Questo teorema si può sempre

  • ${{R}_{0}}=k$ è il numero delle radici nulle
  • ${{R}_{+}}=$ numero di radici positive corrisponde con il numero di variazioni di segno nei coefficienti.
  • ${{R}_{-}}=$ numero di radici negative corrisponde con il numero di permanenze di segno.

Questo teorema si può sempre applicare, perché il polinomio caratteristico di una matrice simmetrica ammette senz’altro $n$ radici reali. E’ decisamente la tecnica migliore per decidere la segnatura perché funziona in tutti i casi e soprattutto evita di calcolare esplicitamente gli autovalori (radici del polinomio caratteristico).

Massimi e minimi vincolati

Consideriamo $f:A\to \mathbb{R}$ con $A\subseteq {{\mathbb{R}}^{n}}$ aperto e $B\subseteq A$ . Diremo che ${{\mathbf{x}}_{0}}$ è un punto di massimo o di minimo sul vincolo $B$ se ${{\mathbf{x}}_{0}}$è di massimo o di minimo per la restrizione di $f$ a $B$ .
Consideriamo due tipi di vincoli unidimensionali

  • $B$ è il grafico di una funzione di x o di y (esempio y=g(x))
  • $B$ è il sostegno di una curva nel piano $\varphi \left( t \right)=\left( x\left( t \right)\,\,\,\,y\left( t \right) \right)$ con $t\in I$ .


In entrambi i casi si sta cercando il massimo e il minimo di una funzione percorrendola lungo una curva. Nel primo caso basta porre h(x)=f(x,g(x)) per ottenere una funzione in una sola variabile e si studiano massimi e minimi di h(x) al variare di x nell’insieme di definizione. Nel secondo si pone $h\left( t \right)=f\left( \varphi \left( t \right) \right)$ e si cercano al variare di $t$ nell’intervallo $I$ i massimi e minimi. Nel secondo caso bisogna fare attenzione al verso di percorrenza indotto dalla parametrizzazione.

Massimi e minimi su insiemi compatti

Consideriamo $f:A\to \mathbb{R}$ con $A\subseteq {{\mathbb{R}}^{n}}$ aperto e $C\subseteq A$ insieme compatto.

Per il teorema di Weierstrass $f$ ammette sicuramente massimo e minimo assoluti su $C$ .
Per individuarli bisogna usare questa procedura:

  • Si pone $\nabla f=\mathbf{0}$ e bisogna individuare eventuali punti stazionari all’interno del compatto.
  • Studiare la funzione lungo il bordo e individuare i punti di massimo e minimo lungo il bordo dell’insieme $C$.
  • Confrontare tutti i punti individuati (interni e bordo) e cercare selezionare il più grande e il più piccolo rispettivamente.

Metodo dei moltiplicatori di Lagrange

Massimi e minimi di funzioni $f$  di $I$ variabili e $J$ vincoli di frontiera $\vec{g}\left( {\vec{x}} \right)=\vec{0}$ . E’ possibile ridurre i punti stazionari a quelli di una terza funzione detta Lagrangiana definita da:
$\Lambda \left( \vec{x},\vec{\lambda } \right)=f\left( {\vec{x}} \right)+\vec{\lambda }\centerdot \vec{g}\left( {\vec{x}} \right)=f\left( {\vec{x}} \right)+\sum\limits_{j=1}^{J}{{}}{{\lambda }_{j}}\centerdot {{g}_{j}}\left( {\vec{x}} \right)$
Si introducono tante variabili ${{\lambda }_{j}}$ scalari per quanti sono i vincoli.

Nel caso particolare $g\left( x,y \right)=0$ e $f:{{\mathbb{R}}^{2}}\to \mathbb{R}$ , si ha:

$\Lambda (x,y,\lambda )=f\left( x,y \right)+\lambda g\left( x,y \right)$

I punti di massimo e minimo vanno cercati annullando il gradiente della funzione Lagrangiana.

$\nabla \Lambda =\,\,\,\,\begin{pmatrix} {{f}_{x}}+\lambda {{g}_{x}} \\ {{f}_{x}}+\lambda {{g}_{x}} \\ \,\,\,\,\,\,g \end{pmatrix} =0 $

Il sistema risultante è:

$ \begin{cases} {{f}_{x}}=-\lambda {{g}_{x}} \\ {{f}_{y}}=-\lambda {{g}_{y}} \\ g=0 \end{cases} $

Per concludere è possibile catalogare i punti individuati annullando il gradiente della funzione Lagrangiana, studiano il segno della relativa matrice Hessiana, definita da:

${{\mathbf{H}}_{\Lambda }}=\left( \begin{matrix}{{f}_{xx}}+\lambda {{g}_{xx}} &{{f}_{xy}}+\lambda {{g}_{xy}} & \lambda {{g}_{x}} \\{{f}_{xy}}+\lambda {{g}_{xy}} & {{f}_{xx}}+\lambda {{g}_{xx}} & \lambda {{g}_{y}} \\\lambda {{g}_{x}} & \lambda{{g}_{y}} & 0 \\\end{matrix} \right)$

Bibliografia

Materiale consultato per la scrittura di questa pagina:

Lezioni a cura di Massimo Gobbino dell’università di Pisa.

Dispense professoressa Stefania Perrotta dell’università di Modena

Lezioni di Analisi Matematica 2