Databricks (SPARK) : réparer toutes les tables partitionnées d’un seul coup

Si vous avez des tables partitionnées dans votre metastore HIVE-Spark et que vos données sont écrites sur le stockage dans des sous-répertoires partitionnées (/<pathToTable>/<partitionName>=<value>/) par un autre traitement que Spark ou Hive (Azure Stream Analytics, Event Hub, Azure Function ….), par exemple : /logs/day=2019-08-10/ /logs/day=2019-08-11/ … Les tables partitionnées ne verront pas les données des […]

Read more Databricks (SPARK) : réparer toutes les tables partitionnées d’un seul coup