viernes, 26 de diciembre de 2008

Los canales de distribución (ACB).

Uno de los factores más importantes para que los integrantes de un mercado puedan acceder a un producto, o bien, para que una empresa pueda vender su producto, es que se encuentre lo más “cerca” posible del cliente. Para conseguir una mayor eficiencia en el acercamiento del producto al cliente están los denominados canales de distribución, los cuales actúan como intermediarios entre el generador del producto y cliente/consumidor. En contra de lo que pueda parecer, los intermediarios mejoran la eficiencia del proceso de intercambio en el mercado al reducir el número de contactos necesarios para llegar al público objetivo, lo que simplifica los intercambios y reduce el coste. Facilitan las transacciones al hacerlas rutinarias. Aunque no es lo más habitual, hay una alternativa a la distribución mediante el uso de intermediarios, o sea, la venta directa del generador del producto al cliente/consumidor (canal de distribución directo).

Tenemos que considerar que las distintas empresas que operan en las distintas tipologías de mercados, personalizarán los canales de distribución con la finalidad de maximizar la eficiencia. Pero no siempre es así, actualmente son muchos productores los que no consiguen maximizar los beneficios como consecuencia de una mala estrategia en el diseño de los canales de distribución. Sirva como ejemplo la gestión que hizo la ACB (Asociación de Clubs de Baloncesto) de su producto.


La ACB, cuyo producto son los partidos de baloncesto de los integrantes de dicha liga, utiliza o puede utilizar como canales de distribución los distintos medios de comunicación como la televisión, radio, etc. Si nos centramos en el canal de distribución de la televisión, por ser el que más audiencia tiene, podremos comprobar que en años anteriores no realizó una buena gestión de este canal de distribución, situación que está “pagando” en la actualidad. Posiblemente, no sea éste el único factor que incide en los bajos índices de audiencia de la Liga, pero sí parece cierto que no facilitar al consumidor la adquisición del producto ha incidido negativamente en su volumen de ventas (audiencias). Este sucede como consecuencia de haber cedido en exclusiva a un canal de pago los derechos de imagen, situación que originó una limitación al acceso del producto y como consecuencia una limitación en la demanda.


La situación anterior desembocó en la necesidad imperiosa de captar al máximo número de consumidores posibles, con la necesidad de volver a activar la demanda y conseguir ventajas en las distintas negociaciones con las televisiones. Evidentemente, a la ACB le va a costar mucho el conseguir la audiencia que existía antes de dar su producto en exclusiva, ya que, esto implica modificar los hábitos de consumo.

Conclusión. Es evidente que una mala gestión de los canales de distribución puede llevar a cabo a limitar las ventas de dicho producto, por lo tanto, es fundamental el planificar y diseñar el canal de distribución de nuestro producto: cuando surge la empresa, cuando la empresa lanza un producto nuevo al mercado, cuando se producen cambios importantes en la estrategia de marketing, cuando se pretende dar respuesta a los cambios del mercado o a las acciones de la competencia, cambian los patrones de compra y de consumo y cuando se expanden los mercados.

lunes, 8 de diciembre de 2008

Las pymes deben mejorar su seguridad en transacciones online

Según publica Eweekeurope, tan sólo un 1,5% de las pequeñas empresas dispone de certificado digital, lo que debilita esta fuente de ingresos.

Esta cifra, proporcionada por Gartner Research, es un porcentaje realmente bajo que en muchos casos, casi el 70% de las transacciones, conlleva la interrupción de una compra a través de Internet.

Pero no sólo existe un contratiempo a la hora de realizar una venta online, sino que esta falta de seguridad facilita también el acceso de los ciberdelincuentes a sus sistemas, lo que puede generar un elevado número de problemas.

La compañía especializada en seguridad a través de Internet, Trend Micro, indica que se producen casi 800 amenazadas informáticas por hora, cifra que puede llegar a crecer por encima de las 26.000 en 2.015.

“Los problemas relacionados con las TI encabezan la lista de las preocupaciones cotidianas de las pequeñas empresas”, indica David Sancho, Senior Anti-malware Researcher de Trend Micro, que añade que “una encuesta realizada a principios de año ponía esto de manifiesto e incidía en la necesidad de aunar esfuerzos para mejorar y ayudar al colectivo de las pymes, de cara a que esta comunidad pueda protegerse sin tener que añadir a sus problemas diarios la preocupación por las TI y para que no tengan que convertirse en un experto en seguridad”.

Asimismo, Trend Micro propone una serie de consejos básicos a las pymes para intentar mitigar estos peligros, aún cuando la actual situación económica no permita grandes inversiones en este apartado:

* Emplear contraseñas efectivas y robustas mediante la combinación de letras mayúsculas y minúsculas, así como números.

* Emplear en la medida de lo posible tecnologías de autentificación.

* Evitar que los empleados realicen descargas procedentes de fuentes no fiables.

* Utilizar cortafuegos, antivirus y otras tecnologías de seguridad para blindar la red.

* Mantener actualizados los sistemas operativos y el software.

* Realizar copias de seguridad con encriptación, sobre todo cuando los datos están relacionados con empleados, clientes o proveedores.

* Evitar almacenar información crítica en dispositivos móviles como pen drive o discos duros externos, ya que son fáciles de robar o perder.

martes, 18 de noviembre de 2008

Estudio sobre el Sector de la Seguridad TIC en España - 2008.

El Instituto Nacional de Tecnologías de la Comunicación (INTECO), a través de su Observatorio de la Seguridad de la Información publica el “Estudio sobre el Sector de la Seguridad TIC en España”, con el fin de aportar una visión detallada y actual acerca del mercado de la seguridad en nuestro país, haciéndose eco de sus necesidades y sus oportunidades.

Se trata del primer informe del Grupo de Análisis y Estudio de la Seguridad de la Información y la e-Confianza. Esta iniciativa, promovida por INTECO, ha supuesto la constitución de un grupo de expertos en seguridad con el propósito de contribuir a formular un diagnóstico sobre la situación actual del sector de la seguridad TIC en España.

En este grupo de expertos se encuentran representados los principales agentes del sector de la seguridad TIC en España: administración, industria, universidad y asociaciones del sector. El estudio realiza un diagnóstico del presente y futuro de la seguridad de la información y la e-confianza en España y aporta datos sobre las principales tendencias del sector, su mercado y sus modelos de negocio, de tal modo que, orienta sobre el papel que todos los agentes del sector deberían desempeñar para potenciar y desarrollar la seguridad y e-Confianza.



jueves, 23 de octubre de 2008

Uso y abuso de los datos estadísticos.

Tal y como publica Wharton Universia, el hecho de que exista una cierta probabilidad de cometer errores en un estudio de investigación debe ser motivo de preocupación.

Incluso si se tiene cuidado eligiendo una buena muestra, existe la posibilidad de obtener resultados engañosos”, señala. “Un problema habitual es el data mining. Si alguien analiza una gran base de datos durante suficiente tiempo, posiblemente encuentre un efecto estadísticamente significativo o diferencia entre algunos grupos de variables”. Desafortunadamente, explica Jensen, los investigadores a menudo simplemente sólo informan sobre un único resultado significativo sin admitir “las numerosas pruebas no significativas realizadas antes de obtener dicho resultado”.

Según Jensen, “es necesaria una estricta supervisión de todo el proceso de pruebas para evaluar dichos resultados en perspectiva”. Pero al menos existen dos fuerzas que suelen influir negativamente sobre la efectividad de los análisis. “La primera es una desconfianza en los análisis estadísticos, y la segunda es una falta de diálogo entre los estadísticos teóricos y los prácticos”. De hecho, sostiene Jensen, “muchos estudios de medicina, economía y ciencias sociales podrían beneficiarse si entablasen conversación con los estadísticos sobre el análisis de los datos recogidos o sobre la propia recogida de los datos”.

Bradlow también muestra preocupación sobre la interpretación de los resultados estadísticos. “Siempre digo a mis alumnos que las soluciones condicionadas por los datos no siempre proporcionan la respuesta correcta. Es más, pueden indicarte qué respuestas se deben eliminar por no estar respaldadas por los datos”. El verdadero valor de los análisis estadísticos es que ayudan a sus usuarios a caracterizar adecuadamente la incertidumbre en lugar de hacer “suposiciones”; contribuyen a identificar qué resultados son estadísticamente significativos y a dar respuesta a hipótesis específicas.

El tema clave es la representatividad”, explica Bradlow en referencia al informe Roger Clemens. “Los investigadores y usuarios deberían siempre estar preocupados por cómo se obtienen los datos y si representan una muestra aleatoria. En caso negativo se debe tener cuidado con las conclusiones que se extraigan”.

Para Wolfers, una de las claves para minimizar un mal uso de las estadísticas conlleva una plausibilidad intuitiva, esto es, comprender el enfoque adoptado por el investigador y la interacción entre las fuerzas que intervienen. “Es importante saber cuáles son los factores existentes detrás de cada variable”, dice. “Una vez determinadas los observadores comprenderán todo mejor y establecerán las relaciones de causalidad”.




martes, 7 de octubre de 2008

¿La técnica de obtención de información puede condicionar la definición del universo objeto de estudio (UOE)?.

Pese a la clara relación que se establece entre la definición del universo de análisis y la técnica de obtención de información a utilizar (encuesta ya sea on line, presencial, autocumplimentada, etc.), hay que tener presente que la técnica siempre está subordinada a la definición del universo. En ningún caso, la técnica podrá o deberá condicionar la definición del universo objeto de estudio (UOE).

Recordemos que en un proceso de investigación comercial, la fase de formulación del problema a investigar (que incluye la definición de objetivos a cubrir y la determinación del UOE) es anterior a la fase del diseño de la investigación (donde se determinan las fuentes a consultar, el tipo de investigación a realizar, las técnicas a utilizar…).

Así pues, si una técnica determinada no nos permite llegar a cubrir todo el universo que necesitamos, necesariamente se deberá plantear la obtención de información a través de otras técnicas substitutivas.

En definitiva, el instrumento a utilizar para obtener la información no tiene que condicionar el universo objeto de estudio, ya que los individuos/elementos a estudiar son los que son, independientemente de que sea más o menos fácil su contacto o selección.

Evidentemente, los métodos para captar información como CATI y on-line, aportan indudables ventajas desde el punto de vista de obtención de información compleja y consistente, ya que permiten programar algoritmos que impidan la grabación de datos inconsistentes. Es evidente que cada instrumento tiene sus ventajas e inconvenientes, en los cuales no vamos a entrar.

Desde el punto de vista de la investigación, el instrumento de recogida de información no va a condicionar la definición del universo objeto de estudio, ya que este se define antes de decidir el método/instrumento para recoger la información y después de detectar el problema objeto de análisis.

Es evidente que el tipo de muestreo a elegir estará condicionado por el marco muestral del que se disponga, pero también puede influir en el tiempo que tiene que realizarse la investigación, el presupuesto destinado a tal fin, etc.

domingo, 5 de octubre de 2008

Encuesta 2008: Equipamiento y TIC en los Hogares.

Según revela la encuesta realizada por el INE, el 51,0% de los hogares tiene acceso a internet, con un crecimiento superior a un millón de hogares en un año.

Los usuarios frecuentes de la Red superan los 17 millones de personas y el número total de internautas crece un 11,0%.

El 37,4% de las viviendas dispone de recepción de televisión digital terrestre (TDT), casi 15 puntos más que en 2007.

El 63,6% de los hogares con al menos un miembro de 16 a 74 años dispone de ordenador en el año 2008. Este porcentaje supera en 3,2 puntos al del año pasado.

El ordenador de sobremesa o PC está presente en el 52,2% de los hogares, mientras que los portátiles se encuentran en el 26,6%. Entre 2007 y 2008 se observa un estancamiento en el nivel de equipamiento de PCs en los hogares y un crecimiento de más de seis puntos en el de portátiles.

Por comunidades autónomas, el mayor equipamiento de ordenador en los hogares se observa en Comunidad de Madrid (71,9%), Cataluña (71,0%), País Vasco (66,4%) y Comunidad Foral de Navarra (66,3%).

El 99,2% de los hogares dispone de teléfono, ya sea fijo o móvil. El 74,1% de los hogares dispone tanto de teléfono fijo como de teléfono móvil. Un 7,2% de los hogares sólo tiene teléfono fijo, mientras que un 18,0% dispone exclusivamente de móvil para comunicarse desde el hogar.

La implantación del teléfono fijo se ha mantenido estable en el último año. Por el contrario, la del móvil ha aumentado 1,2 puntos hasta llegar a estar disponible en el 92,1% de los hogares.

El DVD se encuentra presente en el 78,3% de los hogares. El aumento de su implantación va en detrimento del vídeo, que reduce su cobertura en cuatro puntos durante el último año.

La cobertura de televisión es prácticamente universal (el 99,7% de los hogares). Conviene destacar que el 21,4% de las viviendas con televisor puede recibir canales de televisión a través de antena parabólica (medio punto más que hace un año), el 15,0% a través de cable y el 4,6% por ADSL o línea telefónica. A dos años del apagón analógico, previsto para abril de 2010, el 37,4% de los hogares ya dispone de recepción de televisión digital terrestre (TDT), casi 15 puntos más que en 2007. De ellos, el 32,5% de los hogares tiene televisor con TDT incorporada, aunque lo más usual es recibir la señal a través de un descodificador externo (dos de cada tres viviendas reciben la señal de TDT por este medio).

Un 5,9% de los usuarios de Internet en los tres últimos meses ha pagado por contenidos audiovisuales a través de internet (música, películas, vídeos,..).

viernes, 3 de octubre de 2008

Periodismo de PRECISIÓN: no es un capricho, es una necesidad.

Siempre me han llamado la atención algunos de los titulares utilizados en lo que hoy en día se ha denominado “periodismo de precisión”, porque se trata de información que genera opinión pública y en muchos casos utilizando datos carentes de cualquier rigor científico, lo que puede llegar a originar en algunos casos estereotipos sociales erróneos, alarmas sociales, etc.

Actualmente son muchas las definiciones que podemos encontrar con relación a este tipo de periodismo, pero de todas ellas podemos extraer el siguiente denominador común: “se trata de una especialización periodística basada en el dominio de métodos y herramientas para gestionar fuentes de información (encuestas sociológicas y de opinión pública, estadísticas oficiales sobre censos de población, etc.)”, en definitiva, el periodismo de precisión trata la complejidad del mundo con los mismos métodos que emplea la ciencia.

Carles Casals en su artículo Periodismo de precisión o el regreso a las formas puras de la información, reflexiona sobre este tipo de periodismo y plantea algunas preguntas interesantes tales como: “¿somos periodistas de precisión? ¿Ha conseguido el periodista desarrollar su sentido analítico, su visión contextual para mostrar de una forma no sólo comprensible sino también cabal la complejidad de la sociedad? ¿Estamos preparados para advertir, acaso, tendencias que de una forma u otra afectarán nuestros entornos más inmediatos?....”.


Según el profesor Dader, esto no significa que vaya a desaparecer la forma clásica de hacer periodismo, con el relato social o político, la entrevista inquisitiva, etc. Pero lo que sí es cierto es la importancia creciente de un periodismo capaz de tratar con rigor los datos facilitados por las fuentes de información (primarias, secundarias, internas, externas, etc.), de las cuales se pueden obtener conclusiones de una gran relevancia social.


Moisés Egido dice en su artículo: Se desarrolla el periodismo de precisión. Ante nuevos retos sociales e informativos, que lo que determina el buen o mal uso de este tipo de técnicas es la profesionalidad y el rigor con que los periodistas aborden este tipo de trabajos. Y aporta un ejemplo que ilustra muy bien lo que sería el periodismo de precisión: el número de camas hospitalarias de que dispone una Comunidad Autónoma puede ser un indicador del nivel de servicio sanitario de esa Comunidad, pero a lo mejor sería conveniente contar el número de médicos por cada mil habitantes para determinar la eficacia de ese servicio. ¿Y qué revela cualquiera de estos dos datos respecto de la salud real de los habitantes? Por otra parte, el simple recuento del número de camas puede reflejar los programas de subvenciones oficiales más que la prestación de un auténtico servicio sanitario. Es decir, para pretender realizar una rigurosa investigación como en el ejemplo comentado es necesario tener muy claro qué es lo que se quiere descubrir, operar hipotéticamente y hacerse previamente las preguntas que se quieren ver respondidas a través de los datos obtenidos.


En su artículo Moisés Egido comenta los grandes beneficios sociales aportados por el periodismo de precisión, así como cual es en la actualidad la situación en España. Y establece una clasificación del periodismo de precisión, basado en tres niveles: A) El pasivo: se limita a dar noticia de los estudios sociológicos que otros hacen. B) El semi-activo: aquel que interpreta parcialmente los datos. C) El de precisión: realiza una hermenéutica de los datos que obtiene con la utilización del rastreo y cruce de bases de datos.


Espero que este tipo de artículos (Moisés Egido y Carles Casals) fomenten la necesidad de indagar, cotejar y generar datos con verdadero rigor científico, como consecuencia de la utilización de metodologías apropiadas. Las técnicas de investigación son una caja de herramientas, y por lo tanto para apretar un tornillo de estrella, utilizaremos un destornillador de estrella. Hoy en día esta caja de herramientas prácticamente no tiene límite y van apareciendo nuevas herramientas que facilitan y aportan una mayor precisión al trabajo a realizar. Esto mismo ocurre con las técnicas de investigación, sus metodologías siguen evolucionando y adaptándose a la sociedad actual, pero no por eso cojamos una llave inglesa para apretar un tornillo de estrella.


Me gustaría acabar con un párrafo de Carles Casals: “El periodismo de precisión no es un capricho, es una necesidad. Y su aprendizaje en escuelas y facultades de periodismo una prioridad para cualquier sociedad celosa de su libertad. De ahí, el título con el que he encabezado este artículo: el regreso a las formas puras de la información. Y el secreto está en no fiarnos tanto de instintos e intuiciones, sino en apostar por las metodologías de las ciencias sociales y aprovechar los múltiples recursos que nos ofrece la sociedad de la información. No se trata pues de llevar a cabo ninguna revolución… ¿o sí?”.


miércoles, 1 de octubre de 2008

Secuencia del proceso estratégico de marketing.

Partimos de que la planificación estratégica de marketing forma parte de la planificación estratégica de la empresa. Con la planificación estratégica de marketing es posible generar programas / gestiones destinadas a alcanzar los objetivos de marketing fijados por la empresa. Muchas son las definiciones existentes de En definitiva, el plan estratégico de marketing es una herramienta de gestión por la que se determinan los pasos a seguir, las metodologías y tiempos para alcanzar unos objetivos determinados.


1. Análisis de la situación de la empresa. En esta primera fase se estudia, por una parte, la situación interna de la empresa, esto es, sus recursos y las capacidades de las que dispone. Por otra parte, también se realiza un análisis de la situación externa en el que se tienen en cuenta desde los factores exógenos más alejados, hasta las fuerzas más próximas a la empresa.

2. Definición de los objetivos que la organización pretende alcanzar.

3. Formulación de las estrategias. Para ello se habrán de definir las ventajas competitivas que desarrollará la empresa, identificando el conjunto de competencias centrales (core competences) que constituirán la base de sus productos o procesos. También se deberán concretar los modos de crecimiento, el tipo de actuación que se desarrollará frente a la competencia o si se accederá a los mercados internacionales. Además, se ha de considerar qué relaciones se establecerán con las partes que entran en contacto con la empresa (clientes, proveedores, accionistas, trabajadores; sociedad en general). Y, por último, cabrá plantearse la posibilidad de desarrollar estrategias conjuntas con otras empresas a través de alianzas estratégicas.

4. Puesta en práctica. Las acciones a menudo se concretan en el empleo de determinadas variables del marketing mix. Su implantación, además, requiere los diferentes recursos, financieros, humanos y organizativos que se han establecido para ello.

Para garantizar la coherencia y el desarrollo normal del proceso de planificación estratégica, se hace necesario que cada una de las etapas sea validada. Sólo así se podrá proceder al desarrollo de las siguientes etapas. En el caso de que las actividades correspondientes a una etapa no sean validadas, cabrá introducir los ajustes que se consideren oportunos para proseguir en el desarrollo de la etapa siguiente.

sábado, 27 de septiembre de 2008

El ciclo económico.

El objetivo de las políticas económicas, tanto de oferta como de demanda, es que la economía alcance su nivel de equilibrio a largo plazo. Es decir, cada economía tiene un nivel de crecimiento potencial que se considera óptimo y que, en consecuencia, es el objetivo de la política económica. Junto a este objetivo principal, cabe nombrar otros como son una reducida tasa de inflación y paro.

De hecho, el crecimiento económico debe tener lugar procurando mantener una reducida tasa de inflación y paro. Por todo ello, los gobiernos utilizan las políticas fiscales y monetarias para el logro de los objetivos. Para comprender el motivo de tales actuaciones es necesario comprender que muchas veces estamos creciendo por encima o por debajo de ese crecimiento potencial, lo cual se conoce como ciclo económico. Cuando estamos por encima, estamos en una fase expansiva, mientras que cuando estamos por debajo estamos en una fase recesiva.

Las políticas fiscales las aplica el gobierno mediante variaciones en el gasto público o en los impuestos. Así, ante un crecimiento excesivo, las políticas del gobierno deben irán dirigidas a frenar ese crecimiento económico. Por tanto, se puede reducir el gasto público o bien aumentar los impuestos. Ambas políticas tienen el mismo efecto, es decir, un desplazamiento a la izquierda de la demanda agregada.

Las políticas monetarias las aplica el banco central (Banco de España y/o Banco Central Europeo), no los gobiernos de los países. El banco central tiene a su disposición la posibilidad de implementar políticas monetarias. En este sentido, ajustan los tipos de interés, aumentar o reducir la masa monetaria (ponen o quitan cantidad de dinero en circulación) para alcanzar el nivel de crecimiento requerido.

Un claro ejemplo de este tipo de políticas está en la actuación de la Reserva Federal (el homólogo del Banco Central Europeo en Estados Unidos). Durante el año 2000 y 2001, como consecuencia del excesivo crecimiento que había tenido la economía estadounidense, las autoridades monetarias estuvieron aplicando políticas de aumento del tipo de interés a fin de reducir la masa monetaria.


lunes, 22 de septiembre de 2008

¿Cómo funciona el mercado?.

En una economía de mercado los recursos se asignan mediante las decisiones descentralizadas tomadas por muchas empresas, por las familias, por el Estado o por compradores y vendedores del resto del mundo. Se trata de un conjunto de agentes económicos que interactúan en los mercados de bienes y servicios. La economía implica la participación de millones de personas, cada una de las cuales hace funciones diferentes: comprar, vender, trabajar, transportar, diseñar, etc. Para hacernos una idea de lo complejo que es estudiar la economía y de las múltiples relaciones que se pueden establecer entre los diferentes agentes económicos, podemos hacer un diagrama que represente de una forma esquemática su funcionamiento. Es el denominado flujo circular de la renta.


¿Mejor un mercado grande o pequeño?: El intercambio es lo que posibilita que también haya una especialización. Las personas no producen todos los bienes que queremos consumir, sino que se especializan en una cosa en concreto. Esto permite la especialización y la división del trabajo en las sociedades. Es una fuente de eficiencia porque nos permite hacer aquellas cosas por las cuales estamos mejor preparados. Sin embargo, ¿cuál es el límite de la especialización? El tamaño del mercado. Se trata de un argumento que está detrás del proceso de globalización y de la integración económica de la Unión Europea: el objetivo es explotar las ventajas de la apertura de los mercados, de la mejor división del trabajo que esto comporta y, por lo tanto, ser más eficientes y disfrutar de un mayor crecimiento económico.

viernes, 19 de septiembre de 2008

Análisis cluster jerárquico y el no jerárquico .

Como preámbulo diremos que el análisis cluster, también conocido como análisis de conglomerados, es una técnica estadística multivariante cuya finalidad es formar grupos a partir de un conjunto de elementos de tal forma que estos grupos estén formados por elementos los más parecidos que sea posible (homogéneos) y a su vez lo más diferentes (heterogéneos) que sea posible entre los grupos. Los elementos en cada grupo (conglomerado) tienden a ser similares entre sí (alta homogeneidad interna, dentro del cluster) y diferentes a los objetos de los otros grupos (alta heterogeneidad externa, entre clusters) con respecto a algún criterio de selección predeterminado. Por lo tanto, se convierte en una técnica de análisis exploratorio diseñada para revelar las agrupaciones naturales dentro de un conjunto de datos.

El análisis de cluster se utiliza en marketing para diversos propósitos, entre los que podemos destacar: segmentación del mercado, comprensión del comportamiento del comprador, identificación de oportunidades para productos nuevos, selección de mercados de prueba, reducción de datos, etc.

Como hemos comentado con anterioridad, el objetivo del análisis de cluster es la de agrupar a los individuos por su grado de homogeneidad. Existen distintas clasificaciones de este tipo de modelos, siendo la más usada los modelos jerárquicos frente a los no jerárquicos.

En el análisis de cluster jerárquico, pueden ser por aglomeración o por división, La diferencia entre formar los conglomerados por aglomeración o por división consiste en que el conglomerado por aglomeración empieza con tantos clusters como casos tenga el estudio, a partir de ellos, los conglomerados se empiezan a formar al agrupar los individuos que se asemejan más y así sucesivamente se van haciendo grupos cada vez más grandes y el número de clusters va disminuyendo hasta que se abarca a todas las observaciones en un solo conglomerado (es evidente que las dos decisiones que existen son: la determinación de la medida de distancia o proximidad a usar y el método que determina el modo de unión sucesiva de los distintos grupos entre sí). Por otra parte, en el conglomerado por división se empieza con un solo cluster y se va haciendo la división hasta que cada observación es un grupo independientese parte del número de elementos (países, empresas, individuos, comportamientos, etc.), y a partir de aquí se van uniendo entre sí en función de la mayor o menor proximidad de los elementos entre sí, formando grupos. Éstos a su vez se van uniendo entre sí hasta llegar aún único grupo,. La representación gráfica de este análisis recibe el nombre de dendrograma (ver figura final).

En el análisis de cluster no jerárquico, especialmente indicado para grandes tablas de datos. El objetivo de este análisis, es realizar una sola partición de los elementos en K grupos, lo que implica que previamente se debe fijar el número de grupos, lo que requiere un procedimiento interactivo de prueba y error, siendo esta interactividad el principal problema que presenta el análisis de cluster no jerárquico, así como la principal diferencia con relación al análisis de cluster jerárquico. Esta técnica de análisis multivariante está especialmente indicada para grandes tablas de datos. El gran problema que presentan estos métodos no jerárquicos es que al no generar un dendrograma no permiten hacerse una idea de la representación espacial, la cual suele ofrecer un conocimiento intuitivo de cómo analizar los datos.

En definitiva y de lo dicho hasta ahora, el análisis de cluster no jerárquico tiene dos desventajas importantes respecto a los jerárquicos:

- Que debe especificarse previamente el número de grupos, y
- Que la selección de los centros de cada grupo es arbitraria.

El análisis de cluster no jerárquico es más rápido que el análisis de cluster jerárquico y es apropiado cuando el número de objetos u observaciones es alto. Se ha sugerido que los métodos jerárquicos y no jerárquicos se utilicen uno después del otro para aunar los beneficios propios de cada uno. En primer lugar realizaríamos una clasificación jerárquica (que no necesita de una definición previa del número de grupos) para determinar el número idóneo de grupos, y posteriormente realizaríamos una clasificación no jerárquica (en la que propondríamos el número de grupos), a partir de la información suministrada por el primer método.

miércoles, 10 de septiembre de 2008

Las actitudes y su medición.

En la vida de cada uno, el concepto de actitud está omnipresente; es otro de esos factores tales como muestreo, encuesta y la medición de los que no hay escapatoria. A estos conceptos se hace referencia frecuentemente en nuestra vida cotidiana, aunque la palabra "actitud" se utilia algunas veces de forma incorrecta, ya que se utilizan indistintamente y de forma indiscriminada los conceptos de actitud y comportamiento. Es evidente que ambos términos están muy relacionados pero no hasta el punto de poder ser intercambiados.

A las personas que trabajan en investigación (social, marketing, mercados, comunicación, etc.) es frecuente que se les presente o se les pida que midan las actitudes hacia una cosa, persona, organización, producto, servicio, etc., la más sofisticada para poder medir estas actitudes se denomina
escala de actitud.
En primer lugar, es necesario responder a la pregunta de ¿qué son las actitudes?. Actualmente existen tantas definiciones de actitud como actitudes hay. Ejmplo: Aaker (2001) define actitudes como: "Estados mentales utilizados por los individuos para estructurar la forma en la que perciben su entorno y dirigen la manera en que ellos se dirigen a éste". Todas las definiciones parecen coincidir en se trata de un estado mental de predisposición, una forma en la que el individuo estructura su propio mundo particular, organizado a través de la experiencia, de tal forma que cuando lo confronte con un estímulo éste se comporta de una determinada forma (John R. Webb). También es posible que un individuo pueda tener más de una actitud hacia una persona, producto, servicios, etc.

Con la finalidad de medir actitudes, muchos proyectos asignan un valor numérico o un orden de rango a la actitud de un individuo (hacia algo o alguien) por medio del posicionamiento de una escala lineal que va desde un valor positivo a uno negativo, pasando por un punto neutro. Perosi se va a utilizar una escala lineal cabe preguntarse si los estremos positivos y negativos de la escala deben o no ser imágenes antagónicas. Por ejemplo, para ser "anti inglés" no significa que uno tenga que ser "pro escocés". Por lo tanto en determinadas situaciones es muy importante detectar el conjunto de situaciones que implica cada extremo. Otro punto conflictivo es considerar si las escalas deben de tener un punto neutral, para determinar esto sería conveniente realizar una investigación exploratoria que ayudara a definir el balance de la escala, o sea, si es conveniente la utilización de más factores positivos o viceversa.

Hay que tener presente que para medir las actitudes se debe de considerar que en genarl, las actitudes están compuestas por tres componentes: Cognitivo, afectivo y conativo.


Las técnicas más utilizadas para medir las actitudes, son la observación, técnicas proyectivas, técnicas de utilización de psicogalvanómetros y cámara de ojos y las escalas de actitud. Nos vamos a centrar es éstas últimas, Las escalas de actitud pueden ser unidimensionales (sólo se mide un único componente de la actitud) y las escalas multidimensionales (combinación de escalas unidimensionales. Las escalas unidimensionales pueden ser: no comparativas, comparativas, de clasificación de orden y de suma constante. Éstas se emplean para medir aspectos como:
- La actitud general de un entrevistado hacia algo, persona o característica.
- El grado en el que algo posee cierto atributo.
- El sentimiento del entrevistado hacia un atributo dado.
- La importancia que el entrevistado asigna a un atributo dado.

Finalmente hacer constar que se nos quedan muchas cosas pendientes como: número de categorías, tipos, escalas, verbal o numérico, etc., pero se trata de un tema complicado y que necesita de considerar muchos otros aspectos y conceptos para ser abordado como sería conveniente, pero tenemos limitación de espacio, por lo tanto, se ha intentado sintetizar de la mejor forma posible.

domingo, 10 de agosto de 2008

Economistas y contables

¿Por qué la controversia sobre el concepto de costes entre los economistas y los contables?.

La controversia radica en la distinta interpretación que cada uno hace de lo que conforma el coste, ya que para los economistas consideran significativo el coste de oportunidad[1], mientras que los contables consideran el coste contable. Dicho de otra forma, mientras que los contables se interesan en describir los ingresos y pagos reales de la empresa, los economistas están preocupados por el papel de los costes y beneficios como determinantes de las decisiones de producción de la empresa, es decir, la asignación de recursos.

Los economistas identifican el coste de utilizar un recurso no como el gasto realmente hecho, sino como su coste de oportunidad, o sea, la cantidad perdida al no utilizar/elegir la mejor alternativa de uso. Hay dos grandes áreas en las cuales los costes de oportunidad tienen un papel decisivo en la toma de decisiones de las empresas: el financiero y el tiempo dedicado.

Podríamos concluir diciendo que El coste de oportunidad (financiero, tiempo dedicado, etc.), no se incluye en los costes contables, pero sí se debe de incluir en los costes económicos.

Finalmente y para concluir, el análisis que realizan los contables es a partir de una perspectiva retrospectiva, es decir, analizan la situación financiera de la empresa, la evolución del activo y del pasivo y evalúan los resultados. Sin embargo los economistas realizan un análisis de la empresa de cara al futuro incorporando a su análisis cuál será el coste futuro y cómo puede reorganizarse la empresa para mejorar su rentabilidad, es decir, incorporan como costes las oportunidades que se pierden por no asignar de la forma más eficaz (valiosa) los recursos de los que dispone la empresa.

[1] El coste de oportunidad es la cantidad perdida al no utilizar el recurso (trabajo o capital) en la mejor alternativa de entre sus usos posibles.

martes, 15 de julio de 2008

El límite del investigador (cuantitativo).

Cada vez es más frecuente encontrar en medios de comunicación, y sobre todo haciendo gala de realizar periodismo de precisión, el desmenuzar los datos de una encuesta hasta el punto que dichos datos son del todo "falsos". En definitiva, que por más que se profundice en los datos aportados en una encuesta no se es más preciso, al contrario, los datos carecen de consistencia matemática.


Hay que tener presente que el error muestral es el único de la gran cantidad de errores existentes en una investigación, que es calculable y por llo tanto cuantificable. Cuando un investigador cuantitativo calcula dicho error lo hace en base al universo objeto de estudio (UOE), con el fin de calcular una muestra representativa de ese UOE. Pues bien, ese error muestral es aplicable a la columna de totales y para variables dicotómicas, por eso P=Q=50%. Por lo tanto, cada vez que apolicamos una tabla de contingencia, filtro, capa, etc., tenemos que tener presente que el error aumenta casio proporcionalmente.


De lo dicho anteriormente, se deduce que es el investigador el que definirá los límites de las tendencias y de los datos concluyentes de dicho estudio, y por lo tanto, no se es más preciso si tiende a decir: "el 46% de los hombres de 20 a 35 años de Barcelona fuman".

EJEMPLO: Queremos realizar un estudio para confirmar la hipótesis de que los cigarrillos Marlboro son más fumados por mujeres que por hombres. Si mantenemos unos supuestos iniciales y apliando la fórmula correspondiente para poblaciones infinitas, obtendremos que el tamaño de la muestra que se debe utilizar en la investigación ha de ser de 400 encuestas.

Como consecuencia, el error absoluto en que se incurrirá al estudiar el "perfil" de las mujeres que fuman Marlboro Light (n = 30), no será el }5% fijado inicialmente por el investigador, sino que, de entrada, se acercará al 17%. La fórmula de cálculo del error muestral es la siguiente (tomando un nivel de confianza del 95,5%).


Así, el investigador debe tener en cuenta que el error absoluto que está dispuesto a competer en el estudio no tiene que cumplirse para toda la muestra, sino para el nivel mínimo al que debe dar resultados. Como a priori los tamaños suelen ser desconocidos, el investigador tendrá que ser la persona responsable de hacer las estimaciones pertinentes.


Esperemos que esta no sea una nueva moda como la comentada en el artículo que puedes leer pulsando aquí.

Un empresario puede ahorrar hasta 3 € por cada factura electrónica generada.

Una factura electrónica es la representación en formato electrónico de dicho documento. Es decir, se genera y mantiene electrónicamente y reemplaza al documento físico. Por lo que tiene idéntico valor fiscal y legal. Es un equivalente funcional de la factura en papel y consiste en la transmisión de las facturas o documentos análogo entre emisor y receptor por medios electrónicos y telemáticos.
¿Qué no es una factura electrónica?:
La principal diferencia está en enviar facturas en un formato electrónico y en enviar facturas que, además de estar en dicho formato, poseean validez legal y fiscal. Esta última no dejaría de ser un fichero que contiene una factura pero el envío y almacenamiento del original deberá ser en papel. Por lo anterior, en el caso que una empresa reciba un email sin firmar con un fichero adjunto (pdf, gif, jpg, word, excel), que almacena el contenido de una factura, esta no puede ser considerada una factura electrónica con validez legal y fiscal en tanto en cuanto ese fichero tiene que estar firmado con una firma electrónica avanzada.
Las cifras mostradas por algunos de los ponentes en el foro “Factura electrónica en la PYME” y que recoge también el manual “La factura electrónica” editado por el Plan Avanza del Ministerio de Industria, Turismo y Comercio, presentado durante la jornada, ponen de manifiesto que los empresarios pueden ahorrar hasta unos 3€ por factura con un sistema digitalizado. De este modo se reducen costes, se agiliza el proceso de archivo y conservación, se optimizan los recursos humanos y se gana en seguridad y eficacia. Para quien emite la factura, el ahorro se calcula que puede ser de 0,70€, mientras que al receptor le cuesta 2,78€ menos.
“La economía española tiene un problema de pérdida de competitividad, en gran parte por la falta de digitalización de los procesos de negocio” alertó Francisco de Quinto, secretario del Consorcio Digital, y ha manifestado la necesidad que las PYMES se deben de incorporar a estos cambios. Por otro lado, Pilar Franquet, consultora de Servicios Financieros de “la Caixa” explicó la experiencia de la entidad financiera, que ha puesto al alcance de sus clientes una plataforma que permite la factura digital con buenos resultados, mejorando la agilidad de las tareas de archivo y conservación de la documentación, la reducción de los costes, la optimización de los recursos humanos y una mayor eficiencia. Franquet se muestra optimista y cree que “finalmente la factura digital se acabará generalizando como lo han hecho el correo electrónico o los billetes electrónicos de avión”.

Encuesta Divina.

lunes, 14 de julio de 2008

La encuesta, los gobiernos y Argentina.

Según un artículo que publicó el diario Crítica, una encuenta internacional que tiene un apartado dedicado a la Argentina demostró que el 74 por ciento de las personas considera que los gobiernos deben atender la voluntad del pueblo aún cuando no hay elecciones.

El informe realizado por el Programa Actitudes Políticas Internacionales (PIPA) de la Universidad de Maryland, en Washington, toma especial relevancia en el contexto actual que vive la Argentina en el cual, pese a las repetidas protestas de sectores agropecuarios y los diversos “cacerolazos” que se han registrado durante los últimos meses, el Gobierno defiende su postura con el argumento de que “fue votado” y que eso le otorga legitimidad suficiente para tomar todo tipo de decisiones.

La encuesta fue realizada en 19 países y se consultó a 23.361 personas. En la Argentina, el proceso de consulta estuvo a cargo del Estudio Graciela Römer.

El resultado del sondeo demostró que el 74 por ciento de las personas consultadas cree que sus gobiernos deben considerar la opinión de sus ciudadanos a la hora de tomar decisiones relevantes, aún cuando hayan sido elegidos democráticamente por medio de elecciones.

El 82 por ciento de los encuestados argentinos, 800 casos de ciudades de población de más de 500 mil habitantes, respondieron que el Gobierno debe atender “todo el tiempo” la voluntad popular.

En cambio, el 14 por ciento explicó que cree que el Ejecutivo debe atender a la opinión popular “sólo en las elecciones”.

Según el estudio de Römer, “los argentinos perciben que su deseo de que la voluntad popular se refleje en las decisiones del Gobierno se ve realizado solo en parte”.

En una escala con un mínimo de 0 y un máximo de 10, el 4,4 de los entrevistados contestaron que el país está gobernado de acuerdo con la voluntad popular.

A su vez, el 7,7 de los encuestados explicaron que creen que ese es el ideal de Gobierno: prestar oído a la palabra del pueblo.

Según la conclusión de Römer, “comparativamente, los argentinos son poco demandantes: la influencia que desearían se asignara a la voluntad popular sólo supera la que existe en un pequeño grupo de países (India y Jordania, entre otros)”.

HSBC encabeza Encuesta de 1.000 Bancos del Mundo.

HSBC saltó del tercero al primer lugar en la más reciente encuesta anual de la revista Banker de los principales mil bancos del mundo, según informó el HSBC hoy.

El HSBC es la primera compañía no estadounidense en nueve años que encabeza la encuesta y ocupa el primer lugar de la clasificación por virtud de su capital Nivel 1 y utilidades antes de impuestos, que el año pasado alcanzaron una nueva altura.

El sondeo descubrió que los bancos de Estados Unidos cuentan ahora por solamente 14 por ciento de las Primeras 1.000 ganancias agregadas antes de impuestos, una cifra inferior al 24 por ciento del año pasado, mientras que los bancos asiáticos subieron de 12 a 19 por ciento, en tanto que los bancos europeos permanecieron iguales con un 41 por ciento del total.

En abril, el HSBC encabezó también la lista Forbes 2000 de las compañías más grandes del mundo --la primera compañía no estadounidense que lo logra, con un crecimiento de 26 por ciento en ingresos anuales y 31 por ciento en ingreso neto en el curso de los últimos cinco años.

Publicitado a nivel mundial como "el banco local del mundo", la compañía HSBC Holdings plc sirve a más de 128 millones de clientes en todo el mundo a través de unas 10.000 oficinas en 83 países y territorios en Europa, la región Asia-Pacífico, el continente americano, Medio Oriente y Africa.

Con activos de aproximadamente 2.354 millones de dólares USA al 31 de diciembre de 2007, el HSBC es una de las organizaciones de servicios bancarios y financieros más grandes del mundo.

jueves, 10 de julio de 2008

Una encuesta baja a Zapatero de su nube.

El 76% de los españoles percibe la subida del precio del petróleo y de los alimentos como "una amenaza muy importante" para España, superior incluso actualmente al terrorismo internacional o el calentamiento global.

Así lo refleja el último barómetro del Real Instituto Elcano (junio 2008), cuyo trabajo de campo se desarrolló entre los días 3 y 21 del pasado mes de junio, con 1.200 entrevistas telefónicas a una muestra representativa de la sociedad española.

El 65% percibe como amenaza la "crisis económica mundial", un porcentaje que supera a quienes señalan el calentamiento global (55%), las armas nucleares en Irán (45%), el conflicto entre árabes e israelíes (32%) o los gobiernos populistas en América Latina (17%).

Con relación a América Latina una mayoría del 52% piensa que el presidente venezolano Hugo Chávez presta algún tipo de apoyo a la guerrilla colombiana.

Finalmente, los españoles tienen una opinión de los inmigrantes latinoamericanos en España mucho mejor que la relativa a los marroquíes o a los ciudadanos de los países del Este de Europa. El 38% piensa que son los que más aportan a la sociedad española, mientras que sólo un 2% elige a los marroquíes.

FICHA TÉCNICA:

Universo: Población en ámbito nacional general de 18 años y más.

Tamaño muestral: N=1200 individuos.

Entrevista: Telefónica (llamada al hogar del entrevistado)

Muestreo: Estratificado directamente proporcional a la distribución de la población nacional y con cuotas proporcionales a la población nacional, según sexo y edad.

Error muestral: ±2.9% para datos referidos a toda la muestra (1.200n); ?4,1% para datos referidos a submuestras (800n), p=q=0.5 y un intervalo de confianza del 95.5%.

Fecha de campo: del 3 al 21 de junio de 2008

Trabajo de campo: Gabinete de Análisis Demoscópico (GAD).

blogger templates | Make Money Online