Bonjour
Actuellement en 10g, nous avons élaboré pour notre datawarehouse un système ou les tables partitionnées sont
stockees dans des tablespaces dédiés a une unité de temps
ex: 7 partitions-jours = 1 tablespace = 1 datafile
1 partition-mois = 1 tablespace = 1 datafile
(ex : P201201 est dans le TS XXX201201 defini sur un datafile nomme 201201 )
En effet au tout debut de l'implementation, toutes les partitions de toutes les tables étaient dans un meme TS
et nous avions des problemes de gestion d'espace
(TS qui grossissaient énormement mais pleins de "trous" car lors des inserts, les blocs en-dessous du HWM n'etaient pas re-utilises)
Nous avons mis en place un process d'archivage des partitions : drop partition puis drop du TS et création d'un nouveau TS un autre avec lequel on n'a pas de souci
puisqu'il va etre entièrement rempli avec la nouvelle partition (ou les 7 partitions de la semaine)
Un autre avantage c'est d'avoir tous les blocs d'une partition dans le meme fichier, donc meilleure performance (lors du partition pruning)
Mais, cela génere une énorme quantité de fichiers....
Nous allons migrer en 11g et je voudrais revenir a une organisation avec moins de fichiers, mais sans etre confrontée a nouveau a des pbs d'espace
Je pense que le process simple "drop partition- create partition - remplir cette partition" sera OK,
mais il y a des cas + complexes qui necessitent de faire un truncate puis load
(reprocess de partitions dans le passé ou load jour apres jour de la meme partition )
Si on fait un truncate partition reuse storage, au reload la partition ne risque -t-elle pas d'etre fragmentée dans le TS ,
avec donc une perte de performance fors de la lecture ?
Nous utilisons Datastage - la version précédente utilisait SQL*Loader, la nouvelle fait des bulk inserts.
Datastage parallelise ses inserts : pour le meme job; n process insèrent en parallele, ce qui crée plusieurs paquets de blocs dans la partition
c'est pourquoi je m'inquiete de cette fragmentation
Si on fait un truncate partition drop storage, ou seront localisées les donnees lors du load? Apres le HWM si on a + de données qu'avant ? donc des trous ?
Ou bien l'espace libere est-il proprement reattribué et réutilisé pour le nouveau load ?
Merci d'avance à ceux qui ont quelques idées sur ce sujet
Isa
Partager