/ / Création d'une stratégie de test pour vérifier la cohérence des données entre deux systèmes - test, test du système

Création d'une stratégie de test pour vérifier la cohérence des données entre deux systèmes - test, test de système

Avec une recherche rapide sur stackoverflow n'a pas pu trouver quoi que ce soit alors voici ma question.

J'essaie de noter la stratégie de test d'une application où deux applications se synchronisent chaque jour pour garder une énorme quantité de données synchronisées. entrer la description de l'image ici

Comme c'est une énorme quantité de données, je ne veux pas vraiment tout vérifier. Mais je veux juste faire un contrôle aléatoire à chaque fois qu'une synchronisation de données se produit. Quelle devrait être la stratégie ici pour un tel système?

Je pense à cette approche. 1) Obtenez un décompte de toutes les données et vérifiez que les deux sont identiques 2) Choisissez une entrée de données aléatoire 5 et vérifiez que leur propriété est synchronisée.

Toute suggestion serait géniale.

Réponses:

2 pour la réponse № 1

Ce dont vous avez besoin est appelé Gestion des risques, dans les tests de logiciels, il est appelé Gestion des risques logiciels.
Il semble que votre question ne porte pas sur "comment tester"ce que vous êtes sur le point de tester, mais comment décrire ce que vous faites et pourquoi vous le faites (sur la base de la question, je suppose que vous avez également besoin de cette explication ...).

L'ajout de SRM à votre stratégie de test doit décrire:

  • Les risques de ne pas tester entièrement toutes les données du système en miroir
  • Un tableau qui réduit SRM par rapport à la quantité de données testées(c.-à-d. probabilité d'erreur si seulement n% des données testées contre -eg- 2n% testées), autrement dit -eg! - 5% des données perdues / données invalides / corruption de données / etc si x% des données ont été testées avec ak minute / heure d'exécution
  • Sur la base du point précédent, une ventilation des ressources utilisées pour les différentes options (par exemple% de charge matérielle pour n heures, heures de travail utilisées est y, les coûts d'utilisation de matériel / logiciel / RH sont z USD)
  • Probabilité - et coût - des erreurs / problèmes avec le code d'automatisation (c.-à-d. Que la comparaison des données se passe mal et se traduit par un faux positif ou un faux négatif, ce qui donne un surcoût au DBA, au dev et / ou aux tests)
  • Que se passe-t-il si l'option SRM est prise (!!par exemple.!! 10% des données testées donnant 3% de risque de corruption / perte de données et 0,75% de risque de surcharge - faux résultats positifs / négatifs -) entraînent une défaillance réelle, c'est-à-dire une référence à Continuité de l'activité et effets de la perte de données, d'intégrité, etc.


Tout le reste vous vient à l'esprit et vous sentez que cela s'applique à votre problème actuel dans ton système actuel avec votre préférences réelles.