Par : Eric
Est ce qu’un rapport AWR ne pouvait pas montrer des le départ quelles étaient les requêtes posant problèmes ?
View ArticlePar : Diego Lemos
Dans notre cas, nous ne savions pas encore si le problème venait des requêtes ou d’ailleurs. Ainsi, nous avons décidé d’analyser séparément chaque étape pour ensuite se concentrer sur les celles qui...
View ArticlePar : Fab
7000000 lignes divisé par 3600*2,5 777 lignes par secondes. Cela semble un débit plutôt faible pour un traitement qui se passe en mémoire. Comment se décomposent à présent les 2h30 ?
View ArticlePar : Diego Lemos
Je n’ai plus les chiffres. Nous n’avons pas gagné beaucoup de temps sur la première étape. Le temps de mise en cache a diminué, mais la lecture du fichier (qui faisait plusieurs gigas) se faisait...
View ArticlePar : Julien G.
Bonjour, Je me souviens être intervenu (avec un archi Xebia) chez SFR. Nous avions la même problématique de perf pour un traitement faisant à peu de chose prêt la même chose : export d’un DWH de 15...
View ArticlePar : Eric
@Julien À la BNP, sur notre projet, pour charger des gros fichiers sur Oracle, nous les convertissons en fichier CSV ou equivalent et chargeons ce fichier comme une table externe. Et nous avons intégré...
View ArticlePar : Komi
bonjour, je suis nouveau dans l’utilisation de spring batch et j’espère avoir des reponses avec vous; je travaille sur un projet actuellement et je dois utiliser spring batch pour la gestion du backup....
View ArticlePar : Aurelien
« Ainsi, nous avons décidé de coder un simple test unitaire pour vérifier la performance d’un cache Ehcache face à une simple structure comme une HashMap. » Attention une HashMap ou un HashSet ne sont...
View ArticlePar : Diego Lemos
@Komi Dans ton contexte tu es vraiment contrait d’utiliser Spring Batch ? Beaucoup de bases de données proposent des utilitaires pour faire des dumps de la base. Ca me semble un bon compromis pour...
View Article