Cada vez más, si quieres trabajar en el mundo de los datos, necesitas dominar una de las 3 principales nubes: Azure, AWS y GCP.🌏
Llevo bastante tiempo trabajando día si y día también en Azure. Por eso, te voy a hablar hoy sobre Azure para que puedas diferenciarte de mucha gente. Vamos al lío.💫
Si te gusta lo que lees, te dejo por aquí este botón, es gratis e inofensivo:
No te voy a contar aquí sobre su historia, pero es muy interesante que la conozcas. Si te interesa, quédate hasta el final y te digo cómo puedes saber sobre ella.📜
Azure es una de las nubes más importantes a la hora de tratar sobre datos. Ya no tiene sentido pensar en cuál es mejor. Lo que tienes que pensar es cuál es la siguiente empresa que va a querer usarla, para estar ahí y poder ayudarla. 💡
A mí es la que más me gusta, siendo sinceros. Veo increíblemente fácil desarrollar tu código en los notebooks de Databricks y luego crear sistemas de despliegue en Data factory.💻
Solo con saber hacer esto, ya estarás por encima de mucha gente.🏆
Hay un detalle a tener en cuenta. 🤔
Veo más puestos de trabajo de ingeniero de datos que de data scientist. A mí me siguen llegando cada día ofertas de los dos, pero la diferencia es significativa. 💼
Y para optar a estos puestos, necesitas saber trabajar con big data.🌐
No es tan dificíl.
En mi caso, uso pyspark el 90% del tiempo. Con saber usar esta librería, databricks y data factory, ya puedes optar a este tipo de trabajos.💪
El caso, que me voy por las ramas.
Si yo quisiera aprender a usar Azure, me centraría en dos cosas: Databricks y Data Factory. 🛠️
Es cierto que Azure tiene casi 400 servicios, pero estos son los pilares.
Con Databricks, a parte de saber programar, hay que gestionar un poco el tema de los clusters. Que qué son los clusters?
Los clusters son como los kernels en jupyter. Son entornos en los que puedes trabajar, cada uno con su capacidad de computo y con sus librerias instaladas.
Lo que es muy interesante sobre esto es que puedes escalar la potencia de forma muy fácil. Si no tuvieras acceso a la nube, deberías comprar mas ordenadores. Pero en la nube, solo tienes que decir que quieres mas potencia y ya estaría. El coste es muy bajo en comparación con usar más ordenadores.💸
Data Factory si que tiene una curva de aprendizaje algo más elevada, pero al final solo necesitas 3 cosas:🧪
Pipelines formados con notebooks de databricks
Saber ajustar todos los parámetros
Automatizar los procesos.
Dicho así, parece algo complicado. Pero todo es ponerse.🌟
Una vez que aprendes esto, ya puedes decir que trabajas en cloud. Y desde este punto, a investigar y aprender todo lo posible.
Hace unas semanas di una charla sobre azure a mi empresa. La tengo grabada y estoy pensando en subirla. 🎤
Sería hablar sobre esto pero de forma más extensa y poniendo algún ejemplo.🎬
Si te interesa que la suba a YouTube, házmelo saber.🎥
También me escribió uno de vosotros diciendome que sería buena idea hacer un curso de introducción explicando todo esto en detalle. Lo voy a hacer.
Ahora mismo, sigo con el de introducción a python y están apuntados unos cuantos más. Pronto sacaré una preventa de este curso.🚀
Espero que te haya gustado. No dudes en enviarme un mensaje contándome sobre ti, sobre qué haces, qué te gustaría leer o qué has comido hoy.
Si así ha sido, comparte mi newsletter con un amigo tuyo interesado en programación, data science, data engineering o el mundo empresarial.💌
Nos leemos.👋
JaviDS
Sígueme en youtube para ver cosas guays: javidatascience 🎥