lunes, 28 de enero de 2008

CAPITULO VIII

NUMEROS INDICE


NUMEROS INDICE SIMPLES: se denomina así al número que puede utilizarse para medir la variación de solamente una variable, de acuerdo al tiempo en transcurso, de esta manera se demostrara la variabilidad de algunos elementos que influyen dentro del ámbito comercial y económico.

Es importante convertir los datos en índice debido a la tanta información recopilada que debe ser aclarada, en lo que concierne en cuanto a precios, ya que de esta manera se podrá informar a todos quienes lo requieran.

Para calcular el índice es necesario tomar en cuenta tanto el año en el que se este realizando el análisis en lo que concierne a producción económica y el de otro periodo, en los que puede existir muchas fluctuaciones en lo que concierne a los precios, de ahí que se estaría dividiendo el precio de dicho año con el actual .

LOS INDICES PONDERADOS: nos muestran la clara combinación que podemos realizar mediante los elementos de los cuales podríamos estudiar. y de los mismos sacar un promedio simple de índices de precios, por medio de comparación de productos que en un año tendrían un nivel de costo y para otro año que vendría con otro nivel de costo, de esta manera podemos ver como se promedian dichos índices simples.

INDICE DE AGREGADO SIMPLE: consiste en sumar todos aquellos precios de un producto que se dio en un periodo y la suma de aquellos que se dio en otro periodo. Lo cual nos lleva a realizar una división, entre los que arrojara una cantidad que otorgue verificaciones en cuanto a su disminución o crecimiento.

INDICES PONDERADOS: Estos índices requieren de dichos elementos para que se puedan calcular, entre los cuales están:
- metodo de paasche
- metodo de laspeyres

Los índices de Paasche y Laspeyres son utilizados frecuentemente para el calculo del Índice de precios de cantidades, por lo general ofrecen diferentes resultados, esto se debe a la diferencia en los pesos.
METODO DE PAASCHE: es el índice que consiste en Utilizar como coeficientes de ponderación el valor de las transacciones, con las cantidades del periodo de comparación y los precios del periodo base. Las ponderaciones son por ello variables.
Tiene la ventaja de que los pesos relativos de los distintos componentes se actualizan cada periodo.
METODO DE LASPEYRES: este índice de precios Utiliza como coeficientes de ponderación el valor de las transacciones en el periodo base. Es decir este método utiliza las cantidades consumidas durante ese periodo. Es el más usado, debido a que requiere medidas de cantidades de únicamente un período.
Una ventaja que tiene este método es la comparabilidad de un índice con otro. El uso de la misma cantidad de período base nos permite hacer comparaciones de manera directa.
INDICE IDEAL DE FISHER: Este índice de precios es la media geométrica de los números índices de Laspeyres y de Paasche. El índice ideal de Fisher satisface los criterios de inversión temporal y de inversión de factores, lo que concede una ventaja teórica sobre otros números índice.

INDICE DE VALOR: es aquel que mide los cambios generales en el valor total de alguna variable. Como el valor de este índice está determinado tanto por el precio como por la cantidad, un índice de valor mide los efectos combinados de los cambios de precios y cantidad.

INDICE DE PRECIOS AL CONSUMIDOR: Es el más importante de los índices de precios. Se calcula con la finalidad de encontrar un indicador del “coste de vida” entendido este como la evolución de los precios de los bienes y servicios que configuran la estructura básica de gasto de una familia. Mediante este índice los consumidores podrán prescribir los precios en cuanto a sus ingresos.

martes, 15 de enero de 2008

CAPITULO VII

METODOS NO PARAMETRICOS
Aplicaciones de ji cuadrada

La prueba chi cuadrado consiste en la comparación entre la frecuencia observada en un intervalo de clase y la frecuencia esperada en dicho intervalo, calculada de acuerdo con la hipótesis nula formulada. Es decir, se quiere determinar si las frecuencias observadas en la muestra están lo suficientemente cerca de las frecuencias esperadas bajo la hipótesis nula.
Para realizar el cálculo de ji cuadrada se siguen los siguientes pasos:


-Determinar las diferencias entre fo y fe. La suma de estas diferencias es cero.

- Elevar al cuadrado cada una de las diferencias observadas entre fo y fe. Esto es (fo - fe)2

- Dividir los resultados de la columna 2 entre la frecuencia esperada y sumar estos valores. La suma es el valor de ji cuadrada.

Prueba de bondad de ajuste
Frecuencias esperadas iguales
La prueba de bondad de ajuste se dice que es una de las pruebas no paramétricas más utilizadas. Esta prueba se puede usar para datos de cualquier nivel. Este tipo de pruebas se utilizan para ver que tan bien se ajusta un conjunto de datos observados a un conjunto de datos esperados.

Si no hay una diferencia significativa entre las frecuencias observadas y las frecuencias esperadas, se supondría que las frecuencias observadas fueran iguales o aproximadamente iguales.
En este caso cualquier diferencia observada entre el conjunto de frecuencias observadas y esperadas, podría atribuirse al muestreo o a la casualidad.

Prueba de bondad de ajuste

Frecuencias esperadas diferentes

La prueba de ji cuadrada se puede usar cuando las frecuencias esperadas no son iguales. Es decir en el caso de que existan una diferencia entre una frecuencia observada y una frecuencia esperada.

Limitaciones de la ji cuadrada

Cuando en una celda o en algunas se tiene una frecuencia esperada demasiado pequeña La ji cuadrada nos llevara a determinaciones equivocas. Esto puede ocurrir porque las frecuencias esperadas aparecen en el denominador de la fórmula, y al dividir entre un número muy pequeño se obtiene un cociente muy grande. Existen dos reglas generales en relación con las celdas con frecuencias muy pequeñas:

a) Si sólo hay dos celdas (tablas de 2 X 2), la frecuencia esperada en cada celda debe ser de 5 o más. De otro modo no se puede utilizar la ji cuadrada.

b) Si hay más de dos celdas, no se debe utilizar la ji cuadrada cuando más del 20% de las celdas tienen una frecuencia esperada menor a 5.


Análisis de tablas de contingencias
Cuando se analizan variables cualitativas es habitual representar en tablas las frecuencias de casos observados para cada una de las diferentes categorías de las variables, las cuales se denominan tablas de contingencia.
En este tipo de tablas frecuentemente se desea conocer si existe asociación entre las dos variables, o si por el contrario se pueden considerar independientes.

jueves, 10 de enero de 2008

Ejercicio 53:

Results for: BASEBALL-2000.MTW

Correlations: Wins. Salary

Pearson correlation of Wins and Salary = 0,498
P-Value = 0,005

Correlations: Wins. ERA

Pearson correlation of Wins and ERA = -0,660P-Value = 0,000
P-Value = 0,000

Results for: BASEBALL-2000.MTW

Correlations: Wins; Attendance

Pearson correlation of Wins and Attendance = 0,519
P-Value = 0,003

Ejercicio 55:

Results for: OECD.MTW

Regression Analysis: Population versus Employemnt

The regression equation is
Population = 2831 + 1,99 Employemnt

Predictor Coef SE Coef T P
Constant 2831 1507 1,88 0,071
Employemnt 1,98538 0,04717 42,09 0,000

S = 6782,68 R-Sq = 98,5% R-Sq(adj) = 98,4%

Analysis of Variance

Source DF SS MS F P
Regression 1 81510280887 81510280887 1771,78 0,000
Residual Error 27 1242127635 46004727
Total 28 82752408523

Unusual Observations

Obs Employemnt Population Fit SE Fit Residual St Resid
18 34325 96582 70980 1488 25602 3,87R
27 22736 62695 47971 1283 14724 2,21R
29 135231 265557 271317 5692 -5760 -1,56 X

R denotes an observation with a large standardized residual.
X denotes an observation whose X value gives it large leverage.

Predicted Values for New Observations

New
Obs Fit SE Fit 95% CI 95% PI
1 194584 3935 (186510. 202658) (178494. 210673)X

X denotes a point that is an outlier in the predictors.

Values of Predictors for New Observations

New
Obs Employemnt
1 96582

Correlations: Area. Domestic

Pearson correlation of Area and Domestic = 0,482
P-Value = 0,008

Correlations: Manufacturing; Energy

Pearson correlation of Manufacturing and Energy = -0,031
P-Value = 0,882

lunes, 7 de enero de 2008

CAPITULO VI

REGRESION LINEAL Y CORRELACIÓN

Análisis de correlación: es aquel que consiste en un conjunto de técnicas estadísticas que se ha realizado con el objetivo de establecer el grado de asociación entre las variables analizadas.

Diagrama de dispersión.- es la forma mas sencilla de definir si existe o no una relación, causa efecto entre dos variables y que tan firme es esta relación. Como por ejemplo: estatura y peso. Una aumenta al mismo tiempo con la otra.
El Diagrama de dispersión es de gran utilidad para la solución de problemas de la calidad en un proceso y producto, ya que nos sirve para comprobar que causas están influyendo o perturbando la dispersión de una característica de calidad o variable del proceso a controlar.
Los motivos más comunes de este tipo de diagrama es analizar:
La relación entre una causa y un efecto.
La relación entre una causa y otra.
La relación entre una causa y otras dos causas.
Un efecto y otro efecto.
Variable Dependiente.- Una variable dependiente como su palabra lo dice, es aquella cuyos valores dependen de los que asuma la otra variable. Es la variable que se predice.
Variable Independiente.- Una variable independiente es aquella que, dentro de la relación establecida, no depende de ninguna otra, Los cambios en los valores de este tipo de variables determinan cambios en los valores de la variable dependiente.
Coeficiente de correlación: es aquel que calcula la intensidad de la relación lineal entre dos conjuntos .El valor del coeficiente de correlación puede tomar valores desde menos uno hasta uno, indicando que mientras más cercano a uno sea el valor del coeficiente de correlación, en cualquier dirección, más fuerte será la asociación lineal entre las dos variables. Mientras más cercano a cero sea el coeficiente de correlación indicará que más débil es la asociación entre ambas variables. Si es igual a cero se concluirá que no existe relación lineal alguna entre ambas variables.
Cabe recalcar que el Coeficiente de correlación es la raíz cuadrada del coeficiente de determinación. Toma valores entre -1 y +1 e indica además de la dependencia entre las dos variables, si existe dependencia directa o inversa.

Coeficiente de determinación. Es el cuadrado del coeficiente de determinación., mide la independencia entre dos variables y oscila entre 0 y 1, el 0 muestra independencia y el 1 lo contrario, siendo este coeficiente de determinación la principal forma en que podemos medir la extensión, o fuerza de asociación que existe entre dos variables, X y Y.


Análisis de regresión.-tomando en cuenta la regresión es un método de análisis de los datos de la realidad económica que sirve para poner en evidencia las relaciones que existen entre diversas variables. Además es la relación que existe entre una variable dependiente y una o más variables independientes.
Principio de mínimos cuadrados: Es de suma importancia para obtener la ecuación de regresión, esto radica en la minimización de suma de cuadrados entre valores verdaderos y valores anunciados que en este caso estos valores se definen como y.
El error estándar de la estimación: Es una medida que trata la disparidad entre lo observado y lo estimado, es decir, trata de medir la diferencia promedio entre lo observado y lo estimado ó esperado de acuerdo al modelo, puede considerarse como un indicador del grado de precisión con que la ecuación de regresión, describe la relación entre las dos variables. Este error estándar se ve afectado por las unidades y sus cambios ya que es una medida absoluta. Es necesario calcular una medida que interprete o mida mejor el grado de relación entre las variables.
Intervalos de confianza y de predicción
Intervalo de confianza: el intervalo de confianza consiste en un rango de valores calculado en una muestra, en el cual se encuentra el verdadero valor del parámetro, con una probabilidad determinada.
Intervalo de predicción: Es aquel que se relaciona mediante la información de un conjunto de valores de y para un valor respectivo de x.
El intervalo de predicción también se puede realizar tanto para un valor individual como para un valor medio, o esperado, de la variable dependiente, siendo posible efectuar una predicción puntual o por intervalos.

miércoles, 28 de noviembre de 2007

CAPITULO V

RESUMEN DE ESTADISTICA


ANALISIS DE VARIANZA
Distribución F.- Consiste en probar varios procesos de diferente índole. Además se desarrollo para ser útil en la comparación de dos varianzas.
Las cuales son de mucha ayuda en el cálculo de muestras para poblaciones.
ANOVA (análisis de varianza): Es una colección de modelos estadísticos y sus procedimientos asociados. El análisis de varianza sirve para comparar si los valores de un conjunto de datos numéricos son significativamente distintos a los valores de otro o más conjuntos de datos. Este procedimiento para comparar estos valores está basado en la varianza global observada en los grupos de datos numéricos a compara. Es decir ANOVA nos permite analizar el efecto de más de una variable de agrupación sobre una variable cuantitativa.
Cuando utilizamos la técnica ANOVA se deben cumplir los siguientes supuestos:
Las personas de los diversos subgrupos deben seleccionarse mediante el muestreo aleatorio, a partir de poblaciones normalmente distribuidas.
La varianza de los subgrupos debe ser homogénea.
Las muestras que constituyen los grupos deben ser independientes. A menos de que las muestras sean independientes. y que por lo tanto, generen estimaciones de varianza independientes.
El análisis de varianza (anova) es uno de los métodos estadísticos más utilizados y más elaborados en la investigación moderna. El análisis de la varianza. No obstante su denominación se utiliza para probar hipótesis preferentes a las medias de población más que a las varianzas de población.

CAPITULO IV

RESUMEN DE ESTADISTICA

PRUEBA DEM HIPOTESIS PARA DOS MUSTRAS

La prueba de hipótesis para dos muestras consiste en tomar dos muestras aleatorias las cuales sirven para determinar si provienen de poblaciones diferentes o de poblaciones iguales.
Para esto es necesario tener claro la relación entre las muestras dependientes y muestras independientes lo que no solevara a tener un concepto mas claro acera del tema,

Para una investigación se toma una muestra aleatoria de cada población calculando la media de todas las muestras. En caso de que las dos poblaciones no sean diferentes. Se podrá esperar una conclusión de que la diferencia entre las dos medias muéstrales sea cero.

Muestras dependientes y muestras independientes

Para hacer inferencias estadísticas sobre dos poblaciones, se necesita tener una muestra de cada población. Las dos muestras serán dependientes o independientes de acuerdo a la forma de seleccionarlas. Si la selección de los datos de una población no está relacionada con la de los datos de la otra, son muestras independientes. Si las muestras se seleccionan de manera que cada medida en una de ellas pueda asociarse naturalmente con una medida en la otra muestra, se llaman muestras dependientes. Cada dato sale de alguna fuente; una fuente es algo, una persona o un objeto, que produce datos. Si dos medidas se obtienen de la misma fuente, se puede pensar que las medidas están pareadas. En consecuencia dos medidas que se obtienen del mismo conjunto de fuentes son dependientes. Note que si dos muestras son dependientes, entonces necesariamente tienen el mismo tamaño.

martes, 6 de noviembre de 2007

CAPITULO III

PRUEBA DE HIPOTESIS PARA UNA MUESTRA

Hipótesis: según el tema estudiado la hipótesis se refiere a la suposición de algo posible o imposible para sacar de ello una consecuencia que se establece provisionalmente como base de una investigación que puede confirmar o negar la validez de aquella.

Prueba de hipótesis: Es una manera de demostrar si la hipótesis es una afirmación correcta e incorrecta, basándose en el estudio de probabilidad.

Procedimiento de cinco pasos para probar una hipótesis: Existen cinco pasos para probar la hipótesis:

Se plantea las hipótesis nula y alternativa: Esta consiste en proponer la hipótesis que mas adelante va hacer probada , si los datos de investigación proporcionan información de que la hipótesis nula es falsa, entonces estaremos hablando de una hipótesis alternativa, la cual esta tomara ciertos puntos para poder incluir en su proyecto.

Se selecciona el nivel de significancía: Es cuando la hipótesis nula puede rechazarse si esta es verdadera, es decir cuando la hipótesis nula esta en la posibilidad de aceptarse.

calcular el estadístico de prueba: Esto es el valor establecido por la información investigada, el cual se utiliza para calcular y poder comprobar si la hipótesis nula se rechaza.


formular la regla de decisión: Es la que sirve para establecer las condiciones en cuanto si se rechaza o no se rechaza, para de esta manera determinar las ubicaciones de los valores.

tomar una decisión: En este último paso de la prueba de hipótesis, se calcula el estadístico de prueba, se compara con el valor crítico y se toma la decisión de rechazar o no la hipótesis nula hay que tener presente que en una prueba de hipótesis solo se puede tomar una de dos decisiones: aceptar o rechazar la hipótesis nula.

Distribución t

La distribución t la utilizamos cuando la desviación tipica de una población se desconoce y debe ser estimada a partir de los datos de una muestra.