IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Oracle Discussion :

transfert de données volumineuses


Sujet :

Oracle

  1. #1
    Membre du Club
    Inscrit en
    Janvier 2007
    Messages
    127
    Détails du profil
    Informations forums :
    Inscription : Janvier 2007
    Messages : 127
    Points : 49
    Points
    49
    Par défaut transfert de données volumineuses
    Bonjour,
    En Oracle 9.2.0.8 pour une base sur Aix, je cherche la meilleure méthode pour transférer plus de 500 Millions de lignes d'une table TAB1 non partitionnée vers une table TAB2 partitionnée pour le même schéma.
    Avez vous une expérience similaire afin d'éviter le piège de trop longs temps de traitement et d'I/O énorme?

    Par avance Merci

  2. #2
    Membre du Club
    Inscrit en
    Octobre 2008
    Messages
    50
    Détails du profil
    Informations forums :
    Inscription : Octobre 2008
    Messages : 50
    Points : 56
    Points
    56
    Par défaut
    Une piste : CTAS avec nologging et parallel.
    Cela prendra de toute façon du temps qui dépendra beaucoup de ton serveur et des baies de stockage.

    Utilisé hier sur 2 tables de 60 Go (environ 400 M de lignes chacune) mais sans partitionnement (juste restriction/projection) pour les réduire de 30%, il y a eu un doublement du temps de traitement entre l'environnement de production et celui d'uat. La cause fut une sollicitation importante des disques (user I/O), due à une configuration non conforme des baies en prod.

    Donc si tu dois maitriser ton temps de traitement, assure toi sur que tes accès disques sont ok et si possible iso-prod.

  3. #3
    Membre du Club
    Inscrit en
    Janvier 2007
    Messages
    127
    Détails du profil
    Informations forums :
    Inscription : Janvier 2007
    Messages : 127
    Points : 49
    Points
    49
    Par défaut
    Merci pour cette piste qui me semblait aussi être la plus évidente.
    Mais dans le doute qu'il en existe une plus performante j'ai posé la question.

  4. #4
    Membre du Club
    Inscrit en
    Octobre 2008
    Messages
    50
    Détails du profil
    Informations forums :
    Inscription : Octobre 2008
    Messages : 50
    Points : 56
    Points
    56
    Par défaut
    Si tu entends parler d'une autre solution, je suis preneur car je dois mener exactement la même opération prochainement (en 10.2.0.4).

  5. #5
    Expert éminent
    Avatar de pachot
    Homme Profil pro
    Developer Advocate YugabyteDB
    Inscrit en
    Novembre 2007
    Messages
    1 822
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 53
    Localisation : Suisse

    Informations professionnelles :
    Activité : Developer Advocate YugabyteDB
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2007
    Messages : 1 822
    Points : 6 446
    Points
    6 446
    Billets dans le blog
    1
    Par défaut
    Bonjour,
    Citation Envoyé par Severn Voir le message
    Si tu entends parler d'une autre solution, je suis preneur car je dois mener exactement la même opération prochainement (en 10.2.0.4).
    Il ne peut pas y a voir d'autres solutions.
    Mais très important: il faut prévoir dans le temps de l'opération la construction des index:
    parallel nologging et grosse sort_area_size (pga manuel)

    Cordialement,
    Franck.

  6. #6
    Membre du Club
    Inscrit en
    Octobre 2008
    Messages
    50
    Détails du profil
    Informations forums :
    Inscription : Octobre 2008
    Messages : 50
    Points : 56
    Points
    56
    Par défaut
    Absolument pachot, et aussi penser au calcul de stats si nécessaire.

    Par ailleurs je précise que la clause à prendre n'est pas nologging mais unrecoverable, nologging créant la table en nologging tandis qu'avec unrecoverable seule l'opération de création n'est pas loggée, la table étant elle, créée en logging.
    Attention il arrive parfois que, pour les bases de prod, le logging soit forcé au niveau base, donc penser aussi à regarder ce paramètre, et le désactiver si besoin le temps de l'opération.

Discussions similaires

  1. [newbie] Transfert de données multibases
    Par Thierryx dans le forum MS SQL Server
    Réponses: 1
    Dernier message: 11/07/2005, 10h35
  2. [C#] [Excel] Transfert de données
    Par bartoumi dans le forum Windows Forms
    Réponses: 3
    Dernier message: 11/04/2005, 15h08
  3. Transfert de données securisées via Internet ???
    Par franck06 dans le forum Développement
    Réponses: 3
    Dernier message: 22/11/2004, 18h16
  4. [Designer] Problème de transfert de données entre modul
    Par BILLYPATOU dans le forum Designer
    Réponses: 11
    Dernier message: 09/03/2004, 19h15
  5. Transfert de données vers My SQL
    Par zoso dans le forum Outils
    Réponses: 2
    Dernier message: 30/09/2003, 11h21

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo