Translate

miércoles, 24 de junio de 2015

Preparando el espacio de trabajo en R-Studio

Cosas que dan pereza y que luego agradecemos es tener nuestro espacio de trabajo ordenaico.

Cosas que dan pereza increible es leerse los temas introductorios de como configurar los cacharros y los programicas.

Cosas que da pereza extrema es escribir un post un sábado por la noche sobre R-Studio mientras tus amigos están de fiesta de cumple.

Así que como fin de reclusión me he propuesto terminar con todo lo retraso que tengo y hacer las cosas como dios manda



R version 3.1.3 (2015-03-09) -- "Smooth Sidewalk" Copyright (C) 2015 The R Foundation for Statistical Computing Platform: x86_64-w64-mingw32/x64 (64-bit) R is free software and comes with ABSOLUTELY NO WARRANTY. You are welcome to redistribute it under certain conditions. Type 'license()' or 'licence()' for distribution details. R is a collaborative project with many contributors. Type 'contributors()' for more information and 'citation()' on how to cite R or R packages in publications. Type 'demo()' for some demos, 'help()' for on-line help, or 'help.start()' for an HTML browser interface to help. Type 'q()' to quit R.
 (debería actualizar Rstudio o algo¿no?)
[Workspace loaded from C:/Users/sali/Downloads/EDA_Course_Materials/.RData]
Pues ahí lo tenemos

Si nos ponemos a hacer cosas y nos perdemos podemos poner getwd() y nos dirá igualmente por donde andamos.
> getwd()
[1] "C:/Users/sali/Downloads/EDA_Course_Materials"

El Rdata se refiere

Vale, como verás yo tengo el espacio de trabajo en descargas y eso voy a cambiarlo a un sitio menos coñazo.
Un ataque de originalidad he creado una carpeta que se llama MisDatos,




Copy-Pasteamos y cambiamos los \ por / (en mi caso)
[1] "C:/Users/yo/Downloads/EDA_Course_Materials"
> setwd(C:/Users/sali/MisDatos)
Error: unexpected '/' in "setwd(C:/"
 (Ups las comillas)
> setwd("C:/Users/yo/MisDatos")
> getwd()
[1] "C:/Users/yo/MisDatos"
>
Ahora sí.

Ahora vamos a limpiar el espacio de trabajo que lo tenemos hecho unos zorros
> rm(list=ls())

Listo, ya podemos empezar a trabajar :)

Bueno, vale, tambien te puede preguntar es eso de RData

[Workspace loaded from C:/Users/sali/Downloads/EDA_Course_Materials/.RData]

 Quiz'as queramos guardar los datos que tenemos en nuestro Enviroment cuando por ejemplo abrimos RStudio. Podemos ver los objetos que tenemos cargados en Enviroment



viernes, 27 de marzo de 2015

Un paquete para actualizar R

Ufff tienes R desde hace mil y en un ataque de aburrim originalidad te ha dado por actualizarlo. Prepárate para volver a bajar el software, instalar los paquetes,.. ESPERA ESPERA que hay buenas noticias.

Tachán existe un paquete que te hace todo esto.

Instalar el paquete installr para actualizar R

1. Si usas la GUI debes ir a Paquetes y buscar installr que es el paquete que te instalará

2.Elegimos:  installr
en la lista
3.Ahora a por un poco de código (de copy-paste), para que no sé diga que si los que usan windows...
 library(installr)
 updateR()
4.Vamos, super simple: llamamos a la librería y actualizamos R

Instalando R

5. Nos pregunta que si queremos instalar la versión nueva. Bueno, pues sí, porque eso es lo que queremos.


6. Y se baja y se empieza a instalar...
7. Y una vez terminado, si estamos animado podemos actualizar los paquetes que tenemos, así ya de paso.

Documentación del paquete installr

8. La documentación sobre installr , el paquete para instalar R está por aquí http://cran.r-project.org/web/packages/installr/index.html. Incluso te avisa si no necesitas actualizar porque tienes la última versión del programa.

Así que aquí me hallo con mi flamante nueva versión, apuntico de salir la 2.0
R version 3.1.3 (2015-03-09) -- "Smooth Sidewalk"

P.D. La verdad que es un paquete muy cómodo y muy recomendable.

miércoles, 4 de marzo de 2015

Medir nuestra Target Keywords en todo nuestro dominio

Acabo de leer un artículo sobre Keyword Target en todo el dominio que me ha gustado tanto que la voy a poner una nueva métrica para medir en mis informes SEO a partir de ahora.

La idea la vi en un artículo del SEJ (Search Engine Journal) escrito por Neil Pratel que es el cofundador de Kissmetrics y Quick Sprout. Ambos blogs siempre cuentan con post super interesantes y en profundidad.

La idea me ha parecido super buena ya que lo que pretende es tener en cuenta las keyword que queremos que Google nos tenga en cuenta con el sitio, así podemos ver en que paginas aparecen. Así mismo podemos escribir las variaciones semánticas de esas keywords para crear las famosas entidades o Entities  semánticas ahora que Google es mucho más semántico.

Según Neil Pratel muchos SEOs (equivocadamente) creen que pueden rankear las keywords para una o dos páginas de un blog en vez de ponerlo para todo el dominio. Según el autor está bien que hagan esto, poner las palabras claves por los artículos del blog, pero deberían hacerlo en todo el site.

Cómo medirlo

  1. Para poder medir esto hay que poner: inurl:nombre_de_domino "target keyword"
  2. ver los resultados de Google
  3. Comparar nuestro site con nuestros competidores

Según este artículo de este crack, ha medido los sitewides para estas ocurrencias de keywords y  el ranking es mayor cuántas más ocurrencias hay de estas keywords. Esto no quiere decir que cuánto más uso de estas keywords mejor es el ranking, pero sin embargo si que parece que es un factor importante.

Extra: A la hora de buscar los resultados en Google es muy aconsejable mirar que hacemos una búsqueda anónima por si nos toma los resultados personalidazos o el historial.

Herramientas para contar palabras

Y buscando una forma de hacer esto más fácil me he encontrado con esta página
http://www.contadordepalabras.com/ que puede ayudar para hacer las auditorias de contenido.

Más información y fuente

Para ver el artículo entero : http://www.searchenginejournal.com/7-hood-optimization-techniques-will-rock-seo/124140/

miércoles, 25 de febrero de 2015

Cursos de Marketing Digital en español y de gratis

Hace un par de semanas me encontré con un cursode la IAB Spain para hacer totalmente gratuito.Existen dos modalidades presencial y online. Además dentro de este programa Actívate existen una serie de cursos de otras entidades que se pueden hacer totalmente online. Ahí vi uno de Análisis Web con Google Analytics, así que como si de un trivial se tratase me puse a hacer exámenes.

To sump up: En mi caso yo hice el básico de Marketing Digital y el de Analítica Web.

Cursos básico de Marketing Digital de la IAB

Este curso toca todos los palos del Marketing. Ojalá lo hubiera pillado yo hace cuatro años... Además existe la modalidad presencial en algunas comunidades autónomas.
A lo que más le he sacado yo partido ha sido a la parte de Display, pero imagino que esto va influir según de dónde vengas (y donde quieras ir).

Y por el poder que  la IAB Spain confiere, queda patente que sé lo básico de Marketing Digital



Ambos son totalmente recomendables, aunque el de Análitica se está quedando desfasado. Demasiados cambios en la herramienta este último año, pero aún así tienen consejos sobre qué mirar y que no mirar para responder a las preguntas que nos hacemos. Me sorprense un poco que no se use la terminología de microconversión y macroconversión que es cómo lo enseñan los evangelistas de Google en la preparación al GAIQ (Google Analytics Individual Qualification).

Así que si quieres saber algo más de analítica digital está muy bien. Ya que mi experiencia en analítica ha sido siempre en inglés a veces ando un poco perdida entre que palabras se dicen en España en inglés y como se traducen al castellano las otras. Los cursos son de 40 horas cada uno. He de decir que yo hice trampa y que los realicé en  tres días prácticamente, aunque cierto es que hubo algún tema que me costó tener que ver los videos muy atentamente (algunos vídeos de la parte de ecommerce me parecieron muy interesantes).

Y cuando haces todos los exámenes por tema y el examen final te dan un diploma
Y para fardar aquí está el mío

Y viendo que la parte de ecommerce me pareció especialmente interesante ya estoy apuntada al curso, pero esta vez para tomármelo con más calma :)

miércoles, 4 de febrero de 2015

Encontrar patterns estacionales o de temporada en Google Analytics : ya llegó la Navidad para los estudiantes

Ya ha pasado la Navidad y una de las cosas que me hace más gracia del análisis web es ese poder de ver patterns en los datos. Y no estudiantes, no me engañéis, la mayoría de vosotros cierra la mente por vacaciones a partir del 20 de Diciembre y no vuelve a retomar los libros hasta el 6 de Enero.

¿Qué no? Vamos a ver

Comparar datos Navidad 2013 y Navidad 2014



Vale, más o menos todo cuadra, sobre todo lo del 6 de Enero. Sin embargo, no estaría mal normalizar los datos según el día de la semana. Ya que como vimos en el post anterior el día de la semana influye en mis usuarios/visitantes

Datos normalizados según día de la semana

En este caso sólo había un día de diferencia Sabado 20-12-2014/ Viernes 20-12-2013 y Martes 06-01-2015/ Lunes 06-01-2014 pero nos ayuda a ver visualmente alguno de los días que siguen la tendencia de días de semana, en vez de días festivos.

Google Analytics sólo nos deja comparar dos fechas a la vez. Así que si queremos seguir comparando años, lo mejor es exportar datos y llevárnoslos a otra herramienta, por ejemplo el Excel nuestro de cada día.

Encontrar pattern mensuales en Google Analytics: visitantes por días de la semana

Hace tiempo que no escribía nada, mayormente por el tema mudanza y no tener acceso a Internet 24/7.  Me gustaría volver a un tema de principiante en análisis web.
Al principio de tener Google Analytics me frustraba un poco cómo se veía este gráfico tanto Google Webmaster Tools como en Google Analytics. Qué pasaba en esa cada toda las semanas? Pues muy fácil, que además de vida online, mis usuarios tienen vida offline y los fines de semana, pues se lo toman de relax.
Como muestra este gráfico del mes de septiembre que empezó en lunes.

¿No queda muy claro no? Bueno, ya le valdria al equipo de UX de Google Analytics currarse una vista para que no tuviera que hacer yo esto a mano. Pero mientras tanto y tras una mini sesión de Photoshop así queda más claro.


Se puede observar que el ánimo de los estudiantes va decayendo durante la semana,Y el Domingo nos entran los remordimientos de conciencia y decimos. Está semana me pongo...

Antes de nada si vuestro sitio tiene muchas visitas vía redes sociales o no tenéis el filtro en vuestras IP  y lo que queréis ver es cómo llega a la gente vuestro sitio via Google o Bing debéis mirar en tráfico orgánico.



Otra de las cosas que se nos puede escapar en este gráfico y que sabiamente Google añadió hace varios meses, es la posibilidad de poder ver las horas a las que accedieron a tu site.

Si nos vamos a la vista de horas tenemos que

Vaya, visualmente esto nos da algún Insights bastante interesante en el periodo entre el viernes a última hora, a partir de las 16.00 más o menos, y el domingo hasta las 18.00 es cuando la gente busca menos. Bueno, las visualizaciones nos hacen darnos cuentas de algunas pistas que podemos ver más a fondo por ejemplo bajando los datos en tablas a Excel o directamente cargando estos en SPSS o R para encontrar correlaciones.

Lo que siempre está bien es tener en cuenta que cuánto antes recopilemos estos datos para las webs, cuando tengamos algo de tiempo podremos empezar a analizarlos.




miércoles, 1 de octubre de 2014

Web crawleando la web con import io

Hace tiempo que estaba viendo a la gente viendo scrapeando la web. No es especiamente complicado si sabes programación y conoces los frameworks adecuados para hacerlo, pero si no sabes nada de programación casi que te puedes olvidar de ello.

Sin embargo si quieres algo más fácil y que además sea gratis, ya cuenta con import.io.

Yo conocí de la existencia de import.io mientras estaba haciendo el curso del European Data Journalism donde también te explican como extraer datos de web con Google Drive, aunque está bastante limitado a listas (<li><li/>) y a tablas.

Siguendo con import.io lo primero que debes hacer es ir a su web y descargar su navegador.Ni siquiera necesitarás saber mucho inglés para usarla.

Asi que  empezamos.
1. Nos vamos a la web de import.io y descargamos su  navegador

2. Instalamos el navegador (setup.exe)
3. Una vez instalado abrimos el navegador yéndonos a programas en Windows o al escritorio, en la opción que hayas elegido.. La verdad es que es bastante visual.

4. Nos hacemos una cuenta. Por ejemplo podemos loguear con una de las redes sociales que nos dan o correo

5. Vale pues ya tenemos algo así, como en la imagen anterior. A mi me aparecen algunos cuadros de texto un poco descuadrados,pero seguro que los developers lo van arreglando conforme vaya madurando la herramienta. Y vamos a clickar en el centro para crear una "araña" o crawler


Cómo funciona el crawler de import.io

Ya lo tenemos. Ahora vamos a ver cómo funciona el crawler.