Home | Develop | Download | Contact
Namespaces
Funciones en el namespace Pds::Probability

Funciones para trabajar con "Probability": Pds::Probability::MGaussian(), etc. Más...

Namespaces

namespace  Pds
 Nombre de espacio para Pds (Procesamiento Digital de Senales)
 
namespace  Pds::Probability
 Nombre de espacio para Probability.
 

Probability of Gaussian

Pds::Vector Pds::Probability::MGaussian (const Pds::Matrix &X, const Pds::Vector &Mu, const double &Sigma)
 Evalua la "probability density function" $p(\mathbf{x};\mathbf{\mu},\mathbf{\sigma})$ de la funcion gaussiana multivariada, usando $\mathbf{\mu}=Mu.T()$, la variable $\mathbf{\sigma}=Sigma$ y $N=X.Ncol()$. Más...
 
Pds::Vector Pds::Probability::MGaussian (const Pds::Matrix &X, const Pds::Vector &Mu, const Pds::Matrix &Sinv)
 Evalua la "probability density function" $p(\mathbf{x};\mathbf{\mu},\mathbf{\sigma})$ de una funcion gaussiana multivariada, usando $\mathbf{\mu}=Mu.T()$, la matriz $\mathbf{\Sigma}=Sigma$ y $N=X.Ncol()$. Más...
 
Pds::Vector Pds::Probability::MGaussian (const Pds::Matrix &X, const Pds::Vector &Mu, const Pds::Matrix &Sinv, double det)
 Evalua la "probability density function" $p(\mathbf{x};\mathbf{\mu},\mathbf{\sigma})$ de una funcion gaussiana multivariada, usando $\mathbf{\mu}=Mu.T()$, la matriz $\mathbf{\Sigma}=Sigma$ y $N=X.Ncol()$. Más...
 

Probability of Gaussian Mixture Model

Pds::Vector Pds::Probability::GMMDensity (const Pds::Matrix &X, const std::vector< double > &Pi, const std::vector< Pds::Vector > &Mu, const std::vector< Pds::Matrix > &Sinv)
 Retorna el vector $\mathbf{p}$. Con este fin, evalua la "Gaussian mixture probability density function" $\phi(\mathbf{x}_l;\lambda)$ usando $\lambda=\left\{\bigcup\limits_k\pi_k,\bigcup\limits_k\mu_k,\bigcup\limits_k\Sigma_k\right\}$, donde $ k=0,1,...,K-1$. Más...
 
Pds::Vector Pds::Probability::GMMDensity (const Pds::Matrix &X, const std::vector< double > &Pi, const std::vector< Pds::Vector > &Mu, const std::vector< Pds::Matrix > &Sinv, const std::vector< double > &Det)
 Retorna el vector $\mathbf{p}$. Con este fin, evalua la "Gaussian mixture probability density function" $\phi(\mathbf{x}_l;\lambda)$ usando $\lambda=\left\{\bigcup\limits_k\pi_k,\bigcup\limits_k\mu_k,\bigcup\limits_k\Sigma_k\right\}$, donde $ k=0,1,...,K-1$. Más...
 
Pds::Vector Pds::Probability::GMMDensity (const Pds::Matrix &X, const Pds::DataGMM &Dat)
 Retorna el vector $\mathbf{p}$. Con este fin, evalua la "Gaussian mixture probability density function" $\phi(\mathbf{x}_l;\lambda)$ usando $\lambda=\left\{\bigcup\limits_k\pi_k,\bigcup\limits_k\mu_k,\bigcup\limits_k\Sigma_k\right\}$, donde $ k=0,1,...,K-1$. Más...
 
Pds::Matrix Pds::Probability::GMMPartial (const Pds::Matrix &X, const std::vector< double > &Pi, const std::vector< Pds::Vector > &Mu, const std::vector< Pds::Matrix > &Sinv)
 Retorna una Matriz $\mathbf{P}$. Con este fin, evalua la "Gaussian mixture model partial probability density function" $\gamma(\mathbf{x};\mathbf{\lambda}_k)$ usando $\mathbf{\lambda}_k=\{\pi_k,\mu_k,\Sigma_k\}\qquad \forall k=0,1,...,K-1$. Más...
 
Pds::Matrix Pds::Probability::GMMPartial (const Pds::Matrix &X, const std::vector< double > &Pi, const std::vector< Pds::Vector > &Mu, const std::vector< Pds::Matrix > &Sinv, const std::vector< double > &Det)
 Retorna una Matriz $\mathbf{P}$. Con este fin, evalua la "Gaussian mixture model partial probability density function" $\gamma(\mathbf{x};\mathbf{\lambda}_k)$ usando $\mathbf{\lambda}_k=\{\pi_k,\mu_k,\Sigma_k\}\qquad \forall k=0,1,...,K-1$. Más...
 
Pds::Matrix Pds::Probability::GMMPartial (const Pds::Matrix &X, const Pds::DataGMM &Dat)
 Retorna una Matriz $\mathbf{P}$. Con este fin, evalua la "Gaussian mixture model partial probability density function" $\gamma(\mathbf{x};\mathbf{\lambda}_k)$ usando $\mathbf{\lambda}_k=\{\pi_k,\mu_k,\Sigma_k\}\qquad \forall k=0,1,...,K-1$. Más...
 

Probability of Parzen Window Classifier

Pds::Vector Pds::Probability::PWCDensity (const Pds::Matrix &X, const Pds::Matrix &C, const Pds::Matrix &Sinv, double h=0.1)
 Retorna un vector $\mathbf{p}$. Con este fin, evalua la "Parzen Window Classifier probability density function" $\phi(\mathbf{x};\mathbf{C},\Sigma^{-1},h)$. Más...
 
Pds::Vector Pds::Probability::PWCDensity (const Pds::Matrix &X, const Pds::Matrix &C, const Pds::Matrix &Sinv, double h, double det)
 Retorna un vector $\mathbf{p}$. Con este fin, evalua la "Parzen Window Classifier probability density function" $\phi(\mathbf{x};\mathbf{C},\Sigma^{-1},h)$. Más...
 

Descripción detallada

Funciones para trabajar con "Probability": Pds::Probability::MGaussian(), etc.

#include <Pds/FuncProbability>

Documentación de las funciones

◆ MGaussian() [1/3]

Pds::Vector Pds::Probability::MGaussian ( const Pds::Matrix &  X,
const Pds::Vector &  Mu,
const double &  Sigma 
)

Evalua la "probability density function" $p(\mathbf{x};\mathbf{\mu},\mathbf{\sigma})$ de la funcion gaussiana multivariada, usando $\mathbf{\mu}=Mu.T()$, la variable $\mathbf{\sigma}=Sigma$ y $N=X.Ncol()$.

\[ \mathbf{X}= \left( \begin{matrix} \mathbf{x}_{0}^T\\ \mathbf{x}_{1}^T\\ \vdots\\ \mathbf{x}_{l}^T\\ \vdots\\ \mathbf{x}_{L-1}^T\\ \end{matrix} \right) \qquad \rightarrow \qquad \mathbf{Y}= \left( \begin{matrix} p(\mathbf{x}_{0};\mathbf{\mu},\mathbf{\sigma})\\ p(\mathbf{x}_{1};\mathbf{\mu},\mathbf{\sigma})\\ \vdots\\ p(\mathbf{x}_{l};\mathbf{\mu},\mathbf{\sigma})\\ \vdots\\ p(\mathbf{x}_{L-1};\mathbf{\mu},\mathbf{\sigma})\\ \end{matrix} \right) \]

\[ p(\mathbf{x};\mathbf{\mu},\mathbf{\sigma})= \frac{ \exp \left( -\frac {1}{2 {\boldsymbol{\sigma }}^{2}}({\mathbf{x}}-{\boldsymbol{\mu}})^{\mathrm {T}}({\mathbf {x} }-{\boldsymbol {\mu }}) \right) }{\sqrt {(2\pi )^{N}|{\boldsymbol{\sigma}^2}|}} \]

Pds::Probability::MGaussian
Parámetros
[in]XMatriz con los vectores de datos (muestras de tamaño $N$) en las $L$ lineas.
[in]MuVector $\mathbf{\mu}$, valor medio de las columnas, Mu tiene $1$ linea y $N$ columans.
[in]SigmaDesvio padrao de X. $\mathbf{\sigma}$ tiene $N$ linea y $N$ columans.
Devuelve
Retorna un vector $\mathbf{Y}$ con la PDF $p(\mathbf{x};\mathbf{\mu},\mathbf{\sigma})$ para una entrada $\mathbf{x}$.
Ejemplos
example_probability_gaussian.cpp, example_probability_gaussian2.cpp y example_probability_gaussian3.cpp.

◆ MGaussian() [2/3]

Pds::Vector Pds::Probability::MGaussian ( const Pds::Matrix &  X,
const Pds::Vector &  Mu,
const Pds::Matrix &  Sinv 
)

Evalua la "probability density function" $p(\mathbf{x};\mathbf{\mu},\mathbf{\sigma})$ de una funcion gaussiana multivariada, usando $\mathbf{\mu}=Mu.T()$, la matriz $\mathbf{\Sigma}=Sigma$ y $N=X.Ncol()$.

\[ \mathbf{X}= \left( \begin{matrix} \mathbf{x}_{0}^T\\ \mathbf{x}_{1}^T\\ \vdots\\ \mathbf{x}_{l}^T\\ \vdots\\ \mathbf{x}_{L-1}^T\\ \end{matrix} \right) \qquad \rightarrow \qquad \mathbf{Y}= \left( \begin{matrix} p(\mathbf{x}_{0};\mathbf{\mu},\mathbf{\Sigma})\\ p(\mathbf{x}_{1};\mathbf{\mu},\mathbf{\Sigma})\\ \vdots\\ p(\mathbf{x}_{l};\mathbf{\mu},\mathbf{\Sigma})\\ \vdots\\ p(\mathbf{x}_{L-1};\mathbf{\mu},\mathbf{\Sigma})\\ \end{matrix} \right) \]

\[ p(\mathbf{x};\mathbf{\mu},\mathbf{\Sigma})= \frac{ \exp \left( -\frac {1}{2}({\mathbf{x}}-{\boldsymbol{\mu}})^{\mathrm {T}}{\boldsymbol{\Sigma }}^{-1}({\mathbf {x} }-{\boldsymbol {\mu }}) \right) }{\sqrt {(2\pi )^{N}|{\boldsymbol {\Sigma }}|}} \]

Pds::Probability::MGaussian
Atención
Las constantes $mu$ y $\Sigma$ pueden ser calculadas desde una matriz de entrenamiento $\mathbf{\hat{X}}$ mediante la siguiente función: $\Sigma=\mathbf{\hat{X}}.CovMatrix(\mu);$
Parámetros
[in]XMatriz con los vectores de datos (muestras de tamaño $N$) en las $L$ lineas.
[in]MuVector $\mathbf{\mu}$, valor medio de las columnas, Mu tiene $1$ linea y $N$ columans.
[in]SinvMatriz $\mathbf{\Sigma}^{-1}$ de correlacion cruzada entre las columnas de X. $\mathbf{\Sigma}$ tiene $N$ linea y $N$ columans.
Devuelve
Retorna un vector $\mathbf{Y}$ con la PDF $p(\mathbf{x};\mathbf{\mu},\mathbf{\Sigma})$ para una entrada $\mathbf{x}$.

◆ MGaussian() [3/3]

Pds::Vector Pds::Probability::MGaussian ( const Pds::Matrix &  X,
const Pds::Vector &  Mu,
const Pds::Matrix &  Sinv,
double  det 
)

Evalua la "probability density function" $p(\mathbf{x};\mathbf{\mu},\mathbf{\sigma})$ de una funcion gaussiana multivariada, usando $\mathbf{\mu}=Mu.T()$, la matriz $\mathbf{\Sigma}=Sigma$ y $N=X.Ncol()$.

\[ \mathbf{X}= \left( \begin{matrix} \mathbf{x}_{0}^T\\ \mathbf{x}_{1}^T\\ \vdots\\ \mathbf{x}_{l}^T\\ \vdots\\ \mathbf{x}_{L-1}^T\\ \end{matrix} \right) \qquad \rightarrow \qquad \mathbf{Y}= \left( \begin{matrix} p(\mathbf{x}_{0};\mathbf{\mu},\mathbf{\Sigma})\\ p(\mathbf{x}_{1};\mathbf{\mu},\mathbf{\Sigma})\\ \vdots\\ p(\mathbf{x}_{l};\mathbf{\mu},\mathbf{\Sigma})\\ \vdots\\ p(\mathbf{x}_{L-1};\mathbf{\mu},\mathbf{\Sigma})\\ \end{matrix} \right) \]

\[ p(\mathbf{x};\mathbf{\mu},\mathbf{\Sigma})= \frac{ \exp \left( -\frac {1}{2}({\mathbf{x}}-{\boldsymbol{\mu}})^{\mathrm {T}}{\boldsymbol{\Sigma }}^{-1}({\mathbf {x} }-{\boldsymbol {\mu }}) \right) }{\sqrt {(2\pi )^{N}|{\boldsymbol {\Sigma }}|}} \]

Pds::Probability::MGaussian
Atención
Las constantes $mu$ y $\Sigma$ pueden ser calculadas desde una matriz de entrenamiento $\mathbf{\hat{X}}$ mediante la siguiente función: $\Sigma=\mathbf{\hat{X}}.CovMatrix(\mu);$
Parámetros
[in]XMatriz con los vectores de datos (muestras de tamaño $N$) en las $L$ lineas.
[in]MuVector $\mathbf{\mu}$, valor medio de las columnas, Mu tiene $1$ linea y $N$ columans.
[in]SinvMatriz $\mathbf{\Sigma}^{-1}$ de correlacion cruzada entre las columnas de X. $\mathbf{\Sigma}$ tiene $N$ linea y $N$ columans.
[in]detDeterminante de $\Sigma$.
Devuelve
Retorna un vector $\mathbf{Y}$ con la PDF $p(\mathbf{x};\mathbf{\mu},\mathbf{\Sigma})$ para una entrada $\mathbf{x}$.

◆ GMMDensity() [1/3]

Pds::Vector Pds::Probability::GMMDensity ( const Pds::Matrix &  X,
const std::vector< double > &  Pi,
const std::vector< Pds::Vector > &  Mu,
const std::vector< Pds::Matrix > &  Sinv 
)

Retorna el vector $\mathbf{p}$. Con este fin, evalua la "Gaussian mixture probability density function" $\phi(\mathbf{x}_l;\lambda)$ usando $\lambda=\left\{\bigcup\limits_k\pi_k,\bigcup\limits_k\mu_k,\bigcup\limits_k\Sigma_k\right\}$, donde $ k=0,1,...,K-1$.

\[ \mathbf{X}= \left( \begin{matrix} \mathbf{x}_{0}^T\\ \mathbf{x}_{1}^T\\ \vdots\\ \mathbf{x}_{l}^T\\ \vdots\\ \mathbf{x}_{L-1}^T\\ \end{matrix} \right) \qquad \rightarrow \qquad \mathbf{p}= \left( \begin{matrix} \phi(\mathbf{x}_{0};\mathbf{\lambda})\\ \phi(\mathbf{x}_{1};\mathbf{\lambda})\\ \vdots\\ \phi(\mathbf{x}_{l};\mathbf{\lambda})\\ \vdots\\ \phi(\mathbf{x}_{L-1};\mathbf{\lambda})\\ \end{matrix} \right) \]


\[ \phi(\mathbf{x};\mathbf{\lambda})=\sum\limits_{k}^{K}\pi_k~p(\mathbf{x};\mathbf{\mu}_k,\mathbf{\Sigma}_k) \]

\[ p(\mathbf{x};\mathbf{\mu}_k,\mathbf{\Sigma}_k)= \frac{ \exp \left( -\frac {1}{2}({\mathbf{x}}-{\boldsymbol{\mu_k}})^{\mathrm {T}}{\boldsymbol{\Sigma }}_k^{-1}({\mathbf {x} }-{\boldsymbol {\mu_k }}) \right) }{\sqrt {(2\pi )^{N}|{\boldsymbol {\Sigma}_k}|}} \]

p=Pds::Probability::GMMDensity()
Parámetros
[in]XMatriz con los vectores de datos (muestras de tamaño $N$) en las $L$ lineas.
[in]PiVector con mixture Weights $\{\pi_0, ...,\pi_{K-1}\}$. Donde $\pi_{k}\equiv p(c=k|\lambda)$.
[in]MuVector con $\{\mu_0, ...,\mu_{K-1}\}$.
[in]SinvVector con $\{\Sigma_0^{-1}, ...,\Sigma_{K-1}^{-1}\}$.
Devuelve
Retorna un vector $\mathbf{p}$.
Ejemplos
example_funcgmm_probability.cpp.

◆ GMMDensity() [2/3]

Pds::Vector Pds::Probability::GMMDensity ( const Pds::Matrix &  X,
const std::vector< double > &  Pi,
const std::vector< Pds::Vector > &  Mu,
const std::vector< Pds::Matrix > &  Sinv,
const std::vector< double > &  Det 
)

Retorna el vector $\mathbf{p}$. Con este fin, evalua la "Gaussian mixture probability density function" $\phi(\mathbf{x}_l;\lambda)$ usando $\lambda=\left\{\bigcup\limits_k\pi_k,\bigcup\limits_k\mu_k,\bigcup\limits_k\Sigma_k\right\}$, donde $ k=0,1,...,K-1$.

\[ \mathbf{X}= \left( \begin{matrix} \mathbf{x}_{0}^T\\ \mathbf{x}_{1}^T\\ \vdots\\ \mathbf{x}_{l}^T\\ \vdots\\ \mathbf{x}_{L-1}^T\\ \end{matrix} \right) \qquad \rightarrow \qquad \mathbf{p}= \left( \begin{matrix} \phi(\mathbf{x}_{0};\mathbf{\lambda})\\ \phi(\mathbf{x}_{1};\mathbf{\lambda})\\ \vdots\\ \phi(\mathbf{x}_{l};\mathbf{\lambda})\\ \vdots\\ \phi(\mathbf{x}_{L-1};\mathbf{\lambda})\\ \end{matrix} \right) \]


\[ \phi(\mathbf{x};\mathbf{\lambda})=\sum\limits_{k}^{K}\pi_k~p(\mathbf{x};\mathbf{\mu}_k,\mathbf{\Sigma}_k) \]

\[ p(\mathbf{x};\mathbf{\mu}_k,\mathbf{\Sigma}_k)= \frac{ \exp \left( -\frac {1}{2}({\mathbf{x}}-{\boldsymbol{\mu_k}})^{\mathrm {T}}{\boldsymbol{\Sigma }}_k^{-1}({\mathbf {x} }-{\boldsymbol {\mu_k }}) \right) }{\sqrt {(2\pi )^{N}|{\boldsymbol {\Sigma}_k}|}} \]

p=Pds::Probability::GMMDensity()
Parámetros
[in]XMatriz con los vectores de datos (muestras de tamaño $N$) en las $L$ lineas.
[in]PiVector con mixture Weights $\{\pi_0, ...,\pi_{K-1}\}$. Donde $\pi_{k}\equiv p(c=k|\lambda)$.
[in]MuVector con $\{\mu_0, ...,\mu_{K-1}\}$.
[in]SinvVector con $\{\Sigma_0^{-1}, ...,\Sigma_{K-1}^{-1}\}$.
[in]DetVector con las determinantes $\{|\Sigma_0|, ...,|\Sigma_{K-1}|\}$.
Devuelve
Retorna un vector $\mathbf{p}$.

◆ GMMDensity() [3/3]

Pds::Vector Pds::Probability::GMMDensity ( const Pds::Matrix &  X,
const Pds::DataGMM Dat 
)

Retorna el vector $\mathbf{p}$. Con este fin, evalua la "Gaussian mixture probability density function" $\phi(\mathbf{x}_l;\lambda)$ usando $\lambda=\left\{\bigcup\limits_k\pi_k,\bigcup\limits_k\mu_k,\bigcup\limits_k\Sigma_k\right\}$, donde $ k=0,1,...,K-1$.

\[ \mathbf{X}= \left( \begin{matrix} \mathbf{x}_{0}^T\\ \mathbf{x}_{1}^T\\ \vdots\\ \mathbf{x}_{l}^T\\ \vdots\\ \mathbf{x}_{L-1}^T\\ \end{matrix} \right) \qquad \rightarrow \qquad \mathbf{p}= \left( \begin{matrix} \phi(\mathbf{x}_{0};\mathbf{\lambda})\\ \phi(\mathbf{x}_{1};\mathbf{\lambda})\\ \vdots\\ \phi(\mathbf{x}_{l};\mathbf{\lambda})\\ \vdots\\ \phi(\mathbf{x}_{L-1};\mathbf{\lambda})\\ \end{matrix} \right) \]


\[ \phi(\mathbf{x};\mathbf{\lambda})=\sum\limits_{k}^{K}\pi_k~p(\mathbf{x};\mathbf{\mu}_k,\mathbf{\Sigma}_k) \]

\[ p(\mathbf{x};\mathbf{\mu}_k,\mathbf{\Sigma}_k)= \frac{ \exp \left( -\frac {1}{2}({\mathbf{x}}-{\boldsymbol{\mu_k}})^{\mathrm {T}}{\boldsymbol{\Sigma }}_k^{-1}({\mathbf {x} }-{\boldsymbol {\mu_k }}) \right) }{\sqrt {(2\pi )^{N}|{\boldsymbol {\Sigma}_k}|}} \]

p=Pds::Probability::GMMDensity()
Parámetros
[in]XMatriz con los vectores de datos (muestras de tamaño $N$) en las $L$ lineas.
[in]DatBloque de datos con $\{\pi_k,\mu_k,\Sigma_k^{-1},|\Sigma_k|\}$.
Devuelve
Retorna un vector $\mathbf{p}$.

◆ GMMPartial() [1/3]

Pds::Matrix Pds::Probability::GMMPartial ( const Pds::Matrix &  X,
const std::vector< double > &  Pi,
const std::vector< Pds::Vector > &  Mu,
const std::vector< Pds::Matrix > &  Sinv 
)

Retorna una Matriz $\mathbf{P}$. Con este fin, evalua la "Gaussian mixture model partial probability density function" $\gamma(\mathbf{x};\mathbf{\lambda}_k)$ usando $\mathbf{\lambda}_k=\{\pi_k,\mu_k,\Sigma_k\}\qquad \forall k=0,1,...,K-1$.

\[ \mathbf{X}= \left( \begin{matrix} \mathbf{x}_{0}^T\\ \mathbf{x}_{1}^T\\ \vdots\\ \mathbf{x}_{l}^T\\ \vdots\\ \mathbf{x}_{L-1}^T\\ \end{matrix} \right) \qquad \rightarrow \qquad \mathbf{P}=\{\mathbf{p}_0,\mathbf{p}_1, ...,\mathbf{p}_{K-1}\} \qquad \rightarrow \qquad \mathbf{p}_k= \left( \begin{matrix} \gamma(\mathbf{x}_{0};\mathbf{\lambda}_k)\\ \gamma(\mathbf{x}_{1};\mathbf{\lambda}_k)\\ \vdots\\ \gamma(\mathbf{x}_{l};\mathbf{\lambda}_k)\\ \vdots\\ \gamma(\mathbf{x}_{L-1};\mathbf{\lambda}_k)\\ \end{matrix} \right) \]


\[ \gamma(\mathbf{x};\mathbf{\lambda}_k)=\pi_k~p(\mathbf{x};\mathbf{\mu}_k,\mathbf{\Sigma}_k) \]

\[ p(\mathbf{x};\mathbf{\mu}_k,\mathbf{\Sigma}_k)= \frac{ \exp \left( -\frac {1}{2}({\mathbf{x}}-{\boldsymbol{\mu_k}})^{\mathrm {T}}{\boldsymbol{\Sigma }}_k^{-1}({\mathbf {x} }-{\boldsymbol {\mu_k }}) \right) }{\sqrt {(2\pi )^{N}|{\boldsymbol {\Sigma}_k}|}} \]

p=K*Pds::Probability::GMMPartial().MeanInRows();
Parámetros
[in]XMatriz con los vectores de datos (muestras de tamaño $N$) en las $L$ lineas.
[in]PiVector con mixture Weights $\{\pi_0, ...,\pi_{K-1}\}$. Donde $\pi_{k}\equiv p(c=k|\lambda)$.
[in]MuVector con $\{\mu_0, ...,\mu_{K-1}\}$.
[in]SinvVector con $\{\Sigma_0^{-1}, ...,\Sigma_{K-1}^{-1}\}$.
Devuelve
Retorna una Matriz $\mathbf{P}=\{\mathbf{p}_0,\mathbf{p}_1, ...,\mathbf{p}_{K-1}\}$.
Ejemplos
example_funcgmm_probability.cpp.

◆ GMMPartial() [2/3]

Pds::Matrix Pds::Probability::GMMPartial ( const Pds::Matrix &  X,
const std::vector< double > &  Pi,
const std::vector< Pds::Vector > &  Mu,
const std::vector< Pds::Matrix > &  Sinv,
const std::vector< double > &  Det 
)

Retorna una Matriz $\mathbf{P}$. Con este fin, evalua la "Gaussian mixture model partial probability density function" $\gamma(\mathbf{x};\mathbf{\lambda}_k)$ usando $\mathbf{\lambda}_k=\{\pi_k,\mu_k,\Sigma_k\}\qquad \forall k=0,1,...,K-1$.

\[ \mathbf{X}= \left( \begin{matrix} \mathbf{x}_{0}^T\\ \mathbf{x}_{1}^T\\ \vdots\\ \mathbf{x}_{l}^T\\ \vdots\\ \mathbf{x}_{L-1}^T\\ \end{matrix} \right) \qquad \rightarrow \qquad \mathbf{P}=\{\mathbf{p}_0,\mathbf{p}_1, ...,\mathbf{p}_{K-1}\} \qquad \rightarrow \qquad \mathbf{p}_k= \left( \begin{matrix} \gamma(\mathbf{x}_{0};\mathbf{\lambda}_k)\\ \gamma(\mathbf{x}_{1};\mathbf{\lambda}_k)\\ \vdots\\ \gamma(\mathbf{x}_{l};\mathbf{\lambda}_k)\\ \vdots\\ \gamma(\mathbf{x}_{L-1};\mathbf{\lambda}_k)\\ \end{matrix} \right) \]


\[ \gamma(\mathbf{x};\mathbf{\lambda}_k)=\pi_k~p(\mathbf{x};\mathbf{\mu}_k,\mathbf{\Sigma}_k) \]

\[ p(\mathbf{x};\mathbf{\mu}_k,\mathbf{\Sigma}_k)= \frac{ \exp \left( -\frac {1}{2}({\mathbf{x}}-{\boldsymbol{\mu_k}})^{\mathrm {T}}{\boldsymbol{\Sigma }}_k^{-1}({\mathbf {x} }-{\boldsymbol {\mu_k }}) \right) }{\sqrt {(2\pi )^{N}|{\boldsymbol {\Sigma}_k}|}} \]

p=K*Pds::Probability::GMMPartial().MeanInRows();
Parámetros
[in]XMatriz con los vectores de datos (muestras de tamaño $N$) en las $L$ lineas.
[in]PiVector con mixture Weights $\{\pi_0, ...,\pi_{K-1}\}$. Donde $\pi_{k}\equiv p(c=k|\lambda)$.
[in]MuVector con $\{\mu_0, ...,\mu_{K-1}\}$.
[in]SinvVector con $\{\Sigma_0^{-1}, ...,\Sigma_{K-1}^{-1}\}$.
[in]DetVector con $\{|\Sigma_0|, ...,|\Sigma_{K-1}|\}$.
Devuelve
Retorna una Matriz $\mathbf{P}=\{\mathbf{p}_0,\mathbf{p}_1, ...,\mathbf{p}_{K-1}\}$.

◆ GMMPartial() [3/3]

Pds::Matrix Pds::Probability::GMMPartial ( const Pds::Matrix &  X,
const Pds::DataGMM Dat 
)

Retorna una Matriz $\mathbf{P}$. Con este fin, evalua la "Gaussian mixture model partial probability density function" $\gamma(\mathbf{x};\mathbf{\lambda}_k)$ usando $\mathbf{\lambda}_k=\{\pi_k,\mu_k,\Sigma_k\}\qquad \forall k=0,1,...,K-1$.

\[ \mathbf{X}= \left( \begin{matrix} \mathbf{x}_{0}^T\\ \mathbf{x}_{1}^T\\ \vdots\\ \mathbf{x}_{l}^T\\ \vdots\\ \mathbf{x}_{L-1}^T\\ \end{matrix} \right) \qquad \rightarrow \qquad \mathbf{P}=\{\mathbf{p}_0,\mathbf{p}_1, ...,\mathbf{p}_{K-1}\} \qquad \rightarrow \qquad \mathbf{p}_k= \left( \begin{matrix} \gamma(\mathbf{x}_{0};\mathbf{\lambda}_k)\\ \gamma(\mathbf{x}_{1};\mathbf{\lambda}_k)\\ \vdots\\ \gamma(\mathbf{x}_{l};\mathbf{\lambda}_k)\\ \vdots\\ \gamma(\mathbf{x}_{L-1};\mathbf{\lambda}_k)\\ \end{matrix} \right) \]


\[ \gamma(\mathbf{x};\mathbf{\lambda}_k)=\pi_k~p(\mathbf{x};\mathbf{\mu}_k,\mathbf{\Sigma}_k) \]

\[ p(\mathbf{x};\mathbf{\mu}_k,\mathbf{\Sigma}_k)= \frac{ \exp \left( -\frac {1}{2}({\mathbf{x}}-{\boldsymbol{\mu_k}})^{\mathrm {T}}{\boldsymbol{\Sigma }}_k^{-1}({\mathbf {x} }-{\boldsymbol {\mu_k }}) \right) }{\sqrt {(2\pi )^{N}|{\boldsymbol {\Sigma}_k}|}} \]

p=K*Pds::Probability::GMMPartial().MeanInRows();
Parámetros
[in]XMatriz con los vectores de datos (muestras de tamaño $N$) en las $L$ lineas.
[in]DatBloque de datos con $\{\pi_k,\mu_k,\Sigma_k^{-1},|\Sigma_k|\}$.
Devuelve
Retorna una Matriz $\mathbf{P}=\{\mathbf{p}_0,\mathbf{p}_1, ...,\mathbf{p}_{K-1}\}$.

◆ PWCDensity() [1/2]

Pds::Vector Pds::Probability::PWCDensity ( const Pds::Matrix &  X,
const Pds::Matrix &  C,
const Pds::Matrix &  Sinv,
double  h = 0.1 
)

Retorna un vector $\mathbf{p}$. Con este fin, evalua la "Parzen Window Classifier probability density function" $\phi(\mathbf{x};\mathbf{C},\Sigma^{-1},h)$.

\[ \mathbf{X}= \left( \begin{matrix} \mathbf{x}_{0}^T\\ \mathbf{x}_{1}^T\\ \vdots\\ \mathbf{x}_{l}^T\\ \vdots\\ \mathbf{x}_{L-1}^T\\ \end{matrix} \right) \qquad \rightarrow \qquad \mathbf{p}= \left( \begin{matrix} \phi(\mathbf{x}_{0};\mathbf{C},\Sigma^{-1},h)\\ \phi(\mathbf{x}_{1};\mathbf{C},\Sigma^{-1},h)\\ \vdots\\ \phi(\mathbf{x}_{l};\mathbf{C},\Sigma^{-1},h)\\ \vdots\\ \phi(\mathbf{x}_{L-1};\mathbf{C},\Sigma^{-1},h)\\ \end{matrix} \right) \]


\[ \phi(\mathbf{x};\mathbf{C},\Sigma^{-1},h)=\frac{1}{K}{}\sum\limits_{k}^{K}p(\mathbf{x};\mathbf{c}_k,\mathbf{\Sigma}^{-1}/h^2) \]

\[ p(\mathbf{x};\mathbf{c}_k,\mathbf{\Sigma}^{-1}/h^2)= \frac{ \exp \left( -\frac {1}{2h^2}({\mathbf{x}}-{\mathbf{c}_k})^{\mathrm {T}}{\boldsymbol{\Sigma }}^{-1}({\mathbf {x} }-{\mathbf{c}_k}) \right) }{h^n\sqrt {(2\pi )^{N}|{\boldsymbol{\Sigma}}|}} \]

p=K*Pds::Probability::PWCDensity();
Parámetros
[in]XMatriz de $L$ lineas con vectores $\mathbf{x}_l$ de tamaño $N$ a testar.
[in]CMatriz de $K$ lineas con los centroides $\mathbf{c}_k$ de tamaño $N$ de las $K$ gausianas. $\mathbf{C}$ en verdad es una matriz con TODAS las muestras de la clase, por eso los $K$ centroides tem peso $1/K$; así, cada muestra contribuye con una gausiana con peso $1/K$.
[in]SinvMatriz $\Sigma^{-1}$ (de tamaño $N\times N$). Este valor puede ser $\Sigma^{-1}=\left[CovMatrix\{C\}\right]^{-1}$, o cualquier otra simplificación.
[in]hFactor de suma. Es como cambiar $\sigma_n \leftarrow h \sigma_n $, donde $\sigma_n $ es el desvio de la distribucion en el eje $n$.
Devuelve
Retorna un vector $\mathbf{p}$.
Ejemplos
example_funcpwc_probability.cpp.

◆ PWCDensity() [2/2]

Pds::Vector Pds::Probability::PWCDensity ( const Pds::Matrix &  X,
const Pds::Matrix &  C,
const Pds::Matrix &  Sinv,
double  h,
double  det 
)

Retorna un vector $\mathbf{p}$. Con este fin, evalua la "Parzen Window Classifier probability density function" $\phi(\mathbf{x};\mathbf{C},\Sigma^{-1},h)$.

\[ \mathbf{X}= \left( \begin{matrix} \mathbf{x}_{0}^T\\ \mathbf{x}_{1}^T\\ \vdots\\ \mathbf{x}_{l}^T\\ \vdots\\ \mathbf{x}_{L-1}^T\\ \end{matrix} \right) \qquad \rightarrow \qquad \mathbf{p}= \left( \begin{matrix} \phi(\mathbf{x}_{0};\mathbf{C},\Sigma^{-1},h)\\ \phi(\mathbf{x}_{1};\mathbf{C},\Sigma^{-1},h)\\ \vdots\\ \phi(\mathbf{x}_{l};\mathbf{C},\Sigma^{-1},h)\\ \vdots\\ \phi(\mathbf{x}_{L-1};\mathbf{C},\Sigma^{-1},h)\\ \end{matrix} \right) \]


\[ \phi(\mathbf{x};\mathbf{C},\Sigma^{-1},h)=\frac{1}{K}{}\sum\limits_{k}^{K}p(\mathbf{x};\mathbf{c}_k,\mathbf{\Sigma}^{-1}/h^2) \]

\[ p(\mathbf{x};\mathbf{c}_k,\mathbf{\Sigma}^{-1}/h^2)= \frac{ \exp \left( -\frac {1}{2h^2}({\mathbf{x}}-{\mathbf{c}_k})^{\mathrm {T}}{\boldsymbol{\Sigma }}^{-1}({\mathbf {x} }-{\mathbf{c}_k}) \right) }{h^n\sqrt {(2\pi )^{N}|{\boldsymbol{\Sigma}}|}} \]

p=K*Pds::Probability::PWCDensity();
Parámetros
[in]XMatriz de $L$ lineas con vectores $\mathbf{x}_l$ de tamaño $N$ a testar.
[in]CMatriz de $K$ lineas con los centroides $\mathbf{c}_k$ de tamaño $N$ de las $K$ gausianas. $\mathbf{C}$ en verdad es una matriz con TODAS las muestras de la clase, por eso los $K$ centroides tem peso $1/K$; así, cada muestra contribuye con una gausiana con peso $1/K$.
[in]SinvMatriz $\Sigma^{-1}$ (de tamaño $N\times N$). Este valor puede ser $\Sigma^{-1}=\left[CovMatrix\{C\}\right]^{-1}$, o cualquier otra simplificación.
[in]hFactor de suma. Es como cambiar $\sigma_n \leftarrow h \sigma_n $, donde $\sigma_n $ es el desvio de la distribucion en el eje $n$.
[in]detDeterminante de $\Sigma$.
Devuelve
Retorna un vector $\mathbf{p}$.

Enlaces de interés

HomePage Bazaar Download Bug report Ayuda Developer Feed