Skip to content

nebrijas/jhulitteperez-web

Repository files navigation

Repositorio de trabajo del módulo de Periodismo de datos II

Actividades dirigidas:

Lo que hemos aprendido en Periodismo de datos ll

En esta asignatura he aprendido nuevas herramientas tecnológicas para el desarrollo web, nuevos programas para el lenguaje de la programación: como Github, Git Bash, Anaconda que viene con Jupyter. A continuación explicaré lo aprendido en cada actividad dirigida:

Actividad dirigida 1

Esta actividad consiste en práctica la escritura en Github con Markdown Github es una herramienta es un servicio de alojamiento de sistemas de controles de diferentes versiones (ayuda a rastrear y gestionar los cambios que hemos hecho a través de un código fuente). Prácticamos la escritura con Markdown que es un lenguaje creado por John Gruber y Aaron Swartz, este lenguaje facilita la escritura en HTML. Se pueden escribir listas, crear y organizar notas y no es complejo de aprender, algunos ejemplos:

  • Para escribir títulos # Título
  • Para escribir en curisva * Lorem ipsum*
  • Para escribir en negrita con dos astericos

Actividad digirida 2

En esta actividad aprendimos a clonar nuestor repositorio a nuestro ordenador usando Git Bash, que es una aplicación que ofrece comandos de Git. Y e escribimos todos los pasos realizados para clonar nuestro repositorio.

  1. cd es para clonar
  2. ls para saber la lista de archivos que tenemos en nuestro repositorio
  3. git status es uno de los comando más importantes porque nos indica el estado en que se encuentran nuestros archivos.
  4. git pull es um comando para extraer y descargar contenido desde un repositorio remoto.
  5. git commit -m guarda los cambios que hemos hecho
  6. git push carga los archivos a nuestro repositorio.

Actividad dirigida 3

Consiste en una técnica de código de Pythn para lograr scraping en una web, programación literaria, fue una de las actividades más compleja porque consiste en el web scraping de un sitio web, en este caso del diario El País, para realizar esta tarea se debe ser muy organizado, porque debemos analizar bien el código fuente y evaluar los datos que se quieren obtener con presición, aunque el proceso es rápido y una gran ventaja para los periodistas de datos, se debe ser cuidadoso. Se usaron libreŕías de Python que son necesarias al momento de relizar la web scrapping..

Actividad dirigida 4

En este caso utilziamos Jupyter en un archivo de Python, también fue un ejercicio de programación literaria que consiste en explicar cada paso que vamos realizando, en este caso utilizamos API que basicamente es una conexión para comunicarse con un conjunto de datos, en este caso con una base de datos de Covid-19 en el mundo. Extraímos el slup y el id de cada país para sacar los datos de cada país, también sacamos gráficas en cada país. Todo se encuentra explicado.