RSS
 

ANÁLISIS DE VARIANZA (ANOVA) EN LA INVESTIGACIÓN

  Dr. Miguel Ángel Robles
Universidad Privada Dr. Rafael Belloso Chacín, URBE
miguel.robles@urbe.edu.ve

Post Doctor en Gerencia Pública y Gobierno. Post Doctor en Gerencia de Empresas. Dr. en Cs Gerenciales (URBE). M.Sc. en Gerencia de Empresas: mención Gerencia Financiera (LUZ). Licenciado en administración (UNER): mención Gerencia Industrial. Decano de Investigación y Postgrado de la Universidad Privada Dr. Rafael Belloso Chacín (URBE). PEII Nivel B. Líneas de Investigación: Finanzas y Operaciones.

El empleo de estadística inferencial consiste en estudiar una muestra representativa de un colectivo, obteniendo conclusiones válidas para la totalidad. Para ello se emplea el análisis de varianza o ANOVA (por sus acrónimo Analysis of Variance), el cual es un método que se utiliza para comparar dos o más medias partiendo de una hipótesis sobre la igualdad de medias poblacionales. Cuando se comparan las varianzas muestrales es posible llegar a algunas conclusiones o inferencia de los valores relativos de las medias poblacionales.

El ANOVA se creó específicamente para probar si dos o más poblaciones tienen la misma media. Aun cuando el propósito de ANOVA es hacer pruebas para hallar las diferencias en las medias poblacionales, el mismo implica un examen de las varianzas muéstrales, de ahí el termino de análisis de varianza. El procedimiento se utiliza para determinar si cuando se aplica un tratamiento en particular a una población, este tendrá un impacto significativo en su media.

Asimismo, en los resultados obtenidos producto de la aplicación del Análisis de Varianza que forma parte de tratamiento estadístico inferencial es importante validar sus varianzas a través de la prueba de Levene, que complementa dicho tratamiento, el grado de semejanza o diferencia de las varianzas, ya que los elementos estudiados representados en los indicadores, dimensiones y variables son ponderados y susceptibles a la carencia tanto de normalidad como de homocedasticidad, para lo cual es necesario emplear pruebas de Post Hoc, como Tukey o cualquier otra cuando las varianzas son iguales; en el caso de que las varianzas no sean iguales se aplicara T3 de Dunnett o cualquier otro para cuando tenemos este resultado de desigualdad de varianzas.

Podemos concluir que el ANOVA se aplica con la finalidad de analizar las diferencias o semejanzas significativas tanto de las medias como de las varianzas, donde una alta o baja razón implicarían la aceptación o rechazo de la hipótesis, y por otro lado se revelara el efecto que tiene una variable sobre la otra de acuerdo a su población en cuanto a su grado de predictibilidad, a mayor o menor covarianza.

Criterios para aplicar el ANOVA

Para la aplicación del ANOVA ya existen programas que permiten realizar los análisis con solo cargar los datos en sus páginas y aplicar la herramienta de acuerdo a sus requerimientos, como es el caso del SPSS (Statistical Package for the Social Sciences) sin la necesidad de realizar cada una de las fórmulas para llegar al resultado final y así poder inferir de acuerdo a resultados de las fórmulas.

 

UN ACERCAMIENTO A LOS INSTRUMENTOS DE INVESTIGACION

  Dra. Lisbeth Moreno Luján
Universidad Privada Dr. Rafael Belloso Chacín, URBE
lisbeth.moreno@urbe.edu.ve

Postdoctorado en Gerencia de las Organizaciones, Doctorado en Ciencias Gerenciales, M.Sc. Psicología Educacional, Especialista en Metodología de la Investigación, Psicólogo (URU), Miembro del comité del Doctorado de Ciencias Gerenciales (URBE).

La investigación cuantitativa versa su centro de interés en el hecho de que los datos se recogen de la realidad a través de un método preestablecido, el cual usualmente son llamados instrumentos de investigación, estos a su vez parten de la operacionalización que se hace de la variable estudiada. Es importante recordar que en la investigación social las variables son constructos teóricos, por tanto unidades complejas formadas por varios conceptos, los cuales al operacionalizar llamamos dimensiones, estos a su vez deben ser desglosados en aquellas partes teóricas que nos permitan observarla y medirla, que son los llamados indicadores.

Una vez que a través de una profunda indagación teórica se operacionalizan la o las variables se debe decidir cómo va a ser recolectada la información sobre esa variable. Cuando se elige el instrumento son varios los aspectos a ser tomados en cuenta, entre ellos se destaca cómo queremos que se responda: si es solo saber la existencia o no del fenómeno las preguntas deberán ser dicotómicas (sí/no), esto se aplica si el indicador a medir está relacionado a presencia o ausencia de la dimensión, existencia o no del fenómeno, o de si este es conocido, por tanto las preguntas van dirigidas a “conoce usted”, “existe…”, “en su organización está presente…”, entre otras. Por esto, son preguntas cuyas respuestas son solo “sí o no” y caen en la categoría de cerradas con alternativas restringidas preestablecidas.

Por otro lado, la variable a investigar puede presentar periodicidad y nos interesa conocerla como investigadores. Si es así, las alternativas de respuesta son igualmente cerradas, preestablecidas, pero de varias alternativas mutuamente excluyentes siendo estas “siempre”, “casi siempre”, “a veces”, “casi nunca” y “nunca”. Si la variable o el aspecto de ella a preguntar no varían si no que se da o no en forma absoluta, no es este su tipo de instrumento si no que será un dicotómico, esta diferencia es muy importante. Estas respuestas que van de “siempre” a “nunca” solo pueden ser utilizadas si el aspecto estudiado varía en una razón de tiempo.

Ambos tipos de respuesta pertenecen a instrumentos tipo cuestionarios, los cuales no son más que un conjunto de preguntas para medir un aspecto previamente definido teóricamente. Por tanto, los reactivos se construyen en forma de pregunta, utilizando los signos de interrogación.

Por otro lado, y para seguir hablando a grandes rasgos acerca de los instrumentos de medición, se tienen las escalas, que se utilizan cuando queremos o necesitamos conocer la opinión de los sujetos seleccionados. No nos interesa si las cosas existen o no, se conocen o no, ni tampoco con qué periodicidad o frecuencia suceden, nos interesa lo que opinan las personas sobre una afirmación que se les plantea dándose como verdad, las respuestas aquí van desde “totalmente de acuerdo”, “parcialmente de acuerdo”, “ni en acuerdo ni en desacuerdo”, “parcialmente en desacuerdo” y “totalmente en desacuerdo”. Como se dijo antes, no se pregunta nada, se presenta una afirmación y el respondiente nos da su opinión si está de acuerdo o no con lo que le hemos planteado en función de lo que ocurre en el medio en el que se desenvuelve el respondiente.

Una vez realizadas las preguntas, las cuales deben medir un solo aspecto a la vez, tener un lenguaje claro y adaptado a la audiencia, se someten a dos procedimientos que le permitirán obtener las propiedades psicométricas que lo harán fuerte para ser aplicado y obtener así respuestas que nos permitan conocer el fenómeno que nos hemos planteado cuando se inició la investigación.

Estos procesos son validez y confiabilidad. Como lo señala Aiken (2003), la validez es el grado en el que una prueba mide lo que debe medir y debe ser sometida al procedimiento de validación que más se ajuste al propósito de la prueba: validez de contenido cuando se quiere que un experto en la variable determine si cada reactivo se ajusta a lo que en teoría se debe interpretar como ese indicador; validez de criterio cuando se correlaciona las respuestas de la prueba diseñada con un criterio previamente establecido; o la de constructo cuando se comparan los reactivos de la prueba seleccionada con el mismo constructo medido por otra prueba antes realizada.

Por su parte, para el mismo autor, la confiabilidad es la capacidad que tienen los reactivos de la prueba de medir de forma estable los indicadores, en la medida en que cada vez que se apliquen a poblaciones similares se obtendrán las mismas respuestas, esto siempre que se esté seguro de medir una variable estable en el tiempo.

Con respecto a los tipos de respuestas señalados anteriormente, si el instrumento es dicotómico lo más recomendable es utilizar el método de K de Richardson para medir la confiabilidad y si es un cuestionario de frecuencia o una escala lo más común es utilizar la prueba de Alfa de Cronbach, los cuales son procedimientos estadísticos de correlación que pueden ser buscados en textos de estadística para tener mayor conocimiento de lo que miden, su base matemática para comprender por qué un coeficiente obtenido a través de ellos nos puede indicar la genuinidad de los reactivos de la prueba que hemos diseñado.

En general, el instrumento de medición es la técnica que necesita el investigador de las ciencias sociales para obtener datos que le permitan generalizar sus resultados y con ello, o a través de ellos, aportar más datos a la ciencia y por ende acercarse a la verdad.

 

ESTADÍSTICA E INVESTIGACIÓN

  Lic. Miguel Eduardo Robles Álvarez
Universidad Privada Dr. Rafael Belloso Chacín, URBE
merarobles@hotmail.com

Licenciado en Administración de Empresas (UCAB), Coach Vibracional, Chef, (Mera Eventos y 360 Gastronómico). Coordinador del Diplomado de Gestión de Servicios (URBE). Maestrante de Gerencia Empresarial.

El que no sabe para dónde va, ya llegó; puesto que no sabe lo que está haciendo, ni para qué.

El ser humano en el afán de ir mejorando en su calidad de vida debe realizar varias acciones a lo largo de su existencia y una, sino la más importante, es la de crecer académicamente, ya que esto le permite ampliar sus conocimientos tanto en las ciencias duras como en las ciencias blandas. Cuando se requiere rigurosidad y exactitud basada en datos y un método científico enfocado en la objetividad, se requiere de herramientas que permitan el grado de exactitud que se requiere.

Se puede estar hablando de la Estadística para lograr el objetivo establecido, ya que se requiere de la recolección de datos que una vez organizados, filtrados o tamizados y procesados se convierten en información, lo que llamaríamos Estadística Descriptiva (solo describe) y partiendo de estos resultados se podrían tomar decisiones, lo que llamaríamos Estadística Inferencial (que lleva al análisis).

La investigación científica no es solo para los centros de investigación, los cuales estarían conformados con investigadores que luego se convertirían en docentes (sería lo ideal), sino a todo aquel profesional que desde su campo de acción (laboral o profesional) debe desarrollar un proyecto de investigación aplicando un diseño metodológico que lo lleve al desarrollo de la ciencia y la sociedad.

Ahora bien, en la investigación se puede hablar de investigación cuantitativa o positivista (requiere de datos numéricos) y de investigación cualitativa (no requiere datos numéricos). Es importante resaltar que, como existen programas para desarrollar investigaciones cuantitativas tales como, Excel, SPSS, entre otros, también hay programas que permiten desarrollar investigaciones cualitativas tales como, Atlas.ti, Morfológico, entre otros.

Es de suma importancia que el investigador que está desarrollando investigación cuantitativa o positivista esté sumamente claro en el alcance o profundidad de la investigación, para determinar hasta dónde debe ser el uso de las aplicaciones de la herramienta estadística; si solo es descriptiva (media, mediana, moda y rango) o si es un diseño de experimento o si requiere de un análisis de varianza (comparación de medias) y hasta donde requiere el análisis (tipos de prueba de acuerdo a la hipótesis), si requiere de una regresión lineal o si requiere de la aplicación de una serie de tiempo, entre otros.

Por último, se recomienda a los investigadores que antes de seleccionar el tipo de investigación esté claro qué es lo que quiere investigar y hasta dónde va a llegar con su investigación. Para esto requiere la asesoría de un buen asesor metodológico con conocimientos en las diferentes áreas de la investigación y sería ideal que además tenga conocimiento en el diseño de instrumentos de recolección de datos, ya que esto determinará el uso y alcance de la herramienta estadística. Además, leer y/o estudiar para informarse sobre el análisis que va a aplicar para que entienda su trabajo.

 

ESTADÍSTICA: DISEÑO DE EXPERIMENTO

  Dra. Arianna Elena Petit Ferrer
Universidad Privada Dr. Rafael Belloso Chacín, URBE
ariannapetit@gmail.com

Dra. Cs. Políticas (URBE). M.Sc. Gerencia de Empresas: Mención Finanzas (LUZ). Economista de (LUZ) PEI Nivel B. Miembro de Comité de la Maestría de Gerencia Empresarial (URBE). Coeditora de la revista arbitrada COEPTUM (URBE). Responsable de la Línea de Investigación de Finanzas. Docente del IUTM.

Los investigadores de casi todas las áreas de estudio tanto en las ciencias fácticas como en las formales se basan en la realización de experimentos, por lo general, para descubrir acerca de un proceso o sistema en particular; entonces, el diseño de experimento literalmente es una técnica estadística que permite identificar y cuantificar las causas de un resultado en un estudio experimental. En pocas palabras, un experimento es una prueba de una hipótesis de estudio, por lo que los estudios experimentales tocan la parte “prospectiva” de las estadísticas.

Cabe destacar que los modelos de diseño de experimentos son modelos estadísticos clásicos, en los que se hacen cambios deliberados en la variable o las variables de entrada de un proceso o sistema (llamadas en la estadística como variables independientes), para identificar los cambios y sus razones en la respuesta de salida (llamadas variables dependientes), determinando la influencia de algún factor y cuantificarlo.

La metodología del diseño de experimentos se basa en la experimentación. En situaciones indistinguibles, los resultados presentarán variabilidad que puede ser grande o pequeña. Para que la metodología de diseño de experimentos sea eficaz es fundamental que el experimento esté bien diseñado.

La utilización de los modelos de diseño de experimentos se basa en la experimentación y en el análisis de los resultados que se obtienen en un experimento bien planificado. En muy pocas ocasiones es posible utilizar estos métodos a partir de datos disponibles o datos históricos (por ser en casi la totalidad de sus métodos estadísticos de carácter prospectivos, como anteriormente se señaló). En el análisis estadístico de datos históricos se pueden cometer diferentes errores, los más comunes son, inconsistencia de los datos, variables con fuerte correlación o que el rango de las variables controladas sea limitado.

Todo diseño de experimento parte de una hipótesis, la cual llamaremos hipótesis de la investigación. La hipótesis de investigación es una afirmación sobre algún aspecto del universo de eventos de estudio, cuyo valor de verdad es desconocido y es justamente el objetivo de la investigación.

Existen dos tipos de hipótesis según el tipo de conocimiento que expresan: las hipótesis con atributos, las cuales afirman la presencia de una propiedad determinada en un ente determinado, y las hipótesis causales, las cuales afirman la existencia de una relación causal, es decir entre una causa “X” y un efecto “Y”. Hoy en día existen programas computarizados que permiten la realización de diseños de experimentos con mucha más rapidez de acuerdo con el análisis requerido, entre ellos podemos mencionar Excel, SPSS. Matlab en sus diferentes versiones, por citar los más conocidos.

 

ATLAS.TI: HERRAMIENTA TECNOLÓGICA PARA EL ANÁLISIS DE DATOS DE LAS INVESTIGACIONES CUALITATIVAS

  Dra. Jennifer Liseth Quintero
Universidad Privada Dr. Rafael Belloso Chacín, URBE
jennifer.quintero@urbe.edu

Postdoctora en Gerencia Pública y Gobierno (URBE), Doctora en Ciencias Políticas (URBE).M.Sc. Derecho del Trabajo (URBE). Abogada (LUZ), Maestrante en Ciencias Jurídicas (UNEFA). Doctorando en Ciencias Jurídicas (LUZ). Diplomado en Metodología de la Investigación (LUZ), Diplomado de Metodología de la Investigación Cualitativa (LUZ), Investigadora Docente y Miembro del Comité Académico de la Maestría en Derecho del Trabajo de URBE. PEII Nivel A-2.

En la actualidad, los avances tecnológicos han venido cambiando vertiginosamente todos los quehaceres sociales, no siendo la investigación una excepción. Hoy en día se han diseñado herramientas informáticas para la recopilación, almacenamiento y tratamientos de los datos y/o información, uno de estos programas es conocido como Atlas. Ti, el cual constituye una herramienta de mucha utilidad para el almacenamiento, sistematización y análisis de la información (datos) en la investigación cualitativa, constituyéndose el análisis de datos en una fase vital para el proceso investigativo cualitativo. Se toma en consideración lo expresado por Coffey y Atkinson (2003), quienes destacan que “el análisis de datos cualitativos puede resultar una tarea asustadora para los estudiantes o aun para trabajadores de campo con experiencia”.

Ahora bien, este programa computacional está basado en la Teoría Fundamental propuesta por los sociólogos Glaser y Strauss en la década de los años sesenta, sustentada a su vez en la teoría del interaccionismo simbólico de Blúmer y las ideas del pragmatismo de la escuela de Chicago de Mead y Dewey. Al respecto, destacan Campo y Labarca (2009, citando a Taylor y Bogdan, 1994) que:

“Glaser y Strauss proponen dos estrategias principales para desarrollar la teoría fundamentada. La primera es el método comparativo constante, por el cual el investigador simultáneamente codifica y analiza los datos para desarrollar conceptos, y la segunda es el muestreo teórico”.

 

Surge una herramienta informática para el complejo análisis de datos cualitativos a los fines de garantizar fiabilidad y validez de esta tipo de investigación, conocida como Atlas. Ti, que en opinión de Sabariego et al. (2014) puede definirse como:

“Un paquete de software especializado en análisis cualitativo de datos que permite extraer, categorizar e inter-vincular segmentos de datos desde diversos documentos. Basándose en su análisis, el software ayuda a descubrir patrones. La unidad hermenéutica es la estructura que contiene los datos y operaciones que realizamos. Contiene: documentos primarios, quotations, codes, memos, familias, y networks”.

 

Al respecto, destaca San Martin (2014) que el Atlas. Ti es:

“El principal soporte informático para desarrollar TF, este programa fue diseñado a finales de los ochenta por el alemán Thomas Murh, quien recurriendo a la tecnología hizo un intento por aplicar los planteamientos metodológicos de Glaser y Strauss. Este software permite expresar el sentido circular del análisis cualitativo, por cuanto otorga la posibilidad de incorporar secuencialmente los datos, sin la necesidad de recoger todo el material en un mismo tiempo. Por esta razón, permite llevar a cabo el muestreo teórico necesario para realizar el análisis constructor de teoría”.

De acuerdo a Varguillas (2006), este programa computacional trabaja con gran cantidad de información de mucha variedad, pudiendo ser textos, observaciones directas, fotografías, datos gráficos, sonoros y audiovisuales. Añade la autora que:

“En el programa Atlas. Ti, el proceso implica cuatro etapas: codificación de la información (de los datos); Categorización; Estructuración o creación de una o más redes de relaciones o diagramas de flujo, mapas mentales o mapas conceptuales, entre las categorías; y Estructuración de hallazgos o teorización si fuere el caso”.

Es por esa razón que esta herramienta tecnológica posee múltiples funciones entre las que pueden destacar las siguientes: asegura la gestión de los documentos consultados en la investigación garantizando copias de seguridad, así como también sirve para la adecuada organización de los mismos, pudiendo incluso guardar una selección de fragmentos de textos más resaltantes, etiquetándolos como citas que serán posteriormente identificadas a través de códigos.

Este software facilita el análisis de forma sistemática de todo los datos e información recabada a lo largo del proceso investigativo, clasificando aquellos textos que serán analizados como fuentes primarias, vinculados entre sí como una unidad hermenéutica. Además, este programa permite poner por escrito todas aquellas reflexiones que emergen del proceso analítico, pudiendo dejando anotaciones, bien sea menos y citas relacionadas a dichas abstracciones. Otra función de esta herramienta es la de establecer una representación de redes donde se relacionen todos los elementos de análisis.

Por todo lo antes indicado, se evidencia claramente la utilidad que tiene este programa computacional para las investigaciones cualitativas, en especial cuando es necesario analizar un gran volumen de información, reduciendo los datos de modos sistemático y por ende, lograr su categorización y finalmente la teorización que explique la realidad investigada. Actualmente, se encuentra disponible el manual y versión demo, la cual se descarga gratuitamente en la página web www.atlasti.com.

 

HAY FACTORES QUE AFECTAN AL GRADO DE FIABILIDAD DE UN TEST: LA VARIABILIDAD Y LA LONGITUD

  Magíster Oscar Vega
Universidad Privada Dr. Rafael Belloso Chacín, URBE
ovega@urbe.edu.ve

Doctorando de Ciencias Mención Gerencia. M.Sc. en Telemática. Ingeniero en Informática. Docente de Postgrado de Telemática. Instructor en la Academia Cisco URBE. Especialista en Computación.
  Dr. Lucas Del Moral Reyes
Universidad Privada Dr. Rafael Belloso Chacín, URBE
lucas.delmoral@urbe.edu.ve

Doctor en Ciencias Gerenciales. M.Sc en Gerencia de RR.HH. Especialista en Gerencia y Administración de Proyectos de Inversión. Miembro del Comité Académico del Programa de Doctorado en Ciencias del Decanato de Investigación y Postgrado de la Universidad Privada Dr. Rafael Belloso Chacín.

Entendiendo la definición “estadística” de confiabilidad como: la concomitancia entre un test y un test paralelo, y significando que el Test “paralelo” no es otro que una batería de preguntas que previamente han pasado por el cálculo de sus propiedades psicométricas, entonces la confiabilidad mide el grado de correlación entre ese Test válido y confiable respecto del test que se está sometiendo a prueba su consistencia, estabilidad y equivalencia; dependiendo de qué propiedad “fiable” se quiera determinar. Ahora bien, los siguientes son dos factores que la Teoría de los Test, como parte de la Psicometría, señala que afectan el grado de fiabilidad de un test:

  • Fiabilidad y variabilidad: el tipo de muestra de sujetos que se haya escogido para calcular la fiabilidad de un test puede influir en el resultado obtenido. Entre más “homogénea” será mejor. Esto significa que la fiabilidad ya no depende únicamente de las características intrínsecas del test, que son tres: a) Cómo se construye un Test; b) Cómo se aplica el mismo y c) Cómo se evalúa (codificación y tabulación de los datos), sino también la fiabilidad es afectada por la forma en que se seleccione la muestra de sujetos a los que se le aplique. Por lo que no se puede decir que un mismo test tenga un coeficiente de fiabilidad fijo para todo tipo de muestra seleccionada para su cálculo. En suma, puede afirmarse que la fiabilidad de un test será mayor cuanta mayor variabilidad exista en la muestra de sujetos seleccionada. Esta variabilidad no tiene nada qué ver con las características personales y/o actitudinales de los sujetos sino que este concepto de variabilidad indica a la desviación respecto de las medias de las distribuciones.

  • Fiabilidad y longitud: en términos generales, puede decirse que la fiabilidad de un test aumenta a medida que aumenta su longitud, es decir, su número de ítems. Ello no significa que resulte recomendable alargar innecesariamente un test en pro de aumentar su fiabilidad, ni que cualquier test pueda convertirse en un instrumento fiable por el único medio de aumentar indefinidamente su longitud. Cualquier test de cierta longitud da un error al azar, que dicho error contiene tamaño y dirección cuando es aplicado a “n” número de sujetos. Por lo cual en la Teoría de los Test se señala claramente que la “longitud de un test” se supone que es una función lineal del número de ítems que conforman la batería de preguntas del mismo, por lo cual al alargar el test la varianza total (compuesta de la varianza verdadera + la varianza de error) se ve afectada. La fórmula de Spearman-Brown permite pronosticar el aumento de fiabilidad obtenida tras el incremento de la longitud de un test, siempre y cuando los ítems añadidos sean paralelos a los ya existentes.

La precisión de un test es nula cuando la longitud es 0 y va aumentando a medida que aumenta la longitud. Aunque el aumento es relativamente menor a medida que la longitud de que se parte es mayor. Esto significa que la precisión crece mucho al principio y relativamente menos después. Cuando la longitud tiende a infinito, el coeficiente de fiabilidad tiende a 1.

Al aumentar la longitud de un test se incrementa su precisión porque aumenta la varianza verdadera a un ritmo más alto que la varianza error. Esto supone que la precisión del test aumenta porque disminuye la proporción de varianza que se debe al error.

En resumen, existen factores que afectan la confiabilidad del instrumento, algunas de ellas relacionada con la fiabilidad en relación a su variabilidad y otra relacionada con su longitud. En el primer caso, depende del número de sujetos seleccionados para la prueba piloto. La segunda condición o factor es la longitud que en la medida que se aumente los números de ítems aumenta la fiabilidad. Sin embargo, si la longitud tiene al infinito la fiabilidad se verá afectada negativamente (porque su varianza verdadera se ve afectada). Además, desde la perspectiva de la consistencia interna mide la homogeneidad de las respuestas de la población seleccionada. Dado un cierto número de ítems, un test será tanto más fiable, cuando más homogéneo sea. El coeficiente alfa nos indica la fiabilidad, en cuanto esta representa homogeneidad y coherencia o consistencia interna de los elementos de un test.