El Plan de Pruebas y la Estrategia de Testing son documentos fundamentales que guían los esfuerzos de testing, alinean a los stakeholders y aseguran el aseguramiento de calidad sistemático. Aunque frecuentemente se confunden, sirven propósitos distintos pero complementarios. En esta guía completa, exploraremos cómo crear documentación de planificación de pruebas efectiva que impulse el éxito del testing.

Introducción: Plan de Pruebas vs Estrategia de Testing

¿Qué es la Estrategia de Testing?

La Estrategia de Testing es un documento de alto nivel que define el enfoque general para el testing en toda la organización o proyecto.

Características Clave:

  • Alcance: A nivel organizacional o de proyecto
  • Nivel: Estratégico, alto nivel
  • Creado por: QA Manager, Arquitecto de Testing, Test Lead
  • Marco temporal: Largo plazo, relativamente estático
  • Actualizaciones: Infrecuentes (hitos importantes del proyecto, cambios organizacionales)

La Estrategia de Testing Define:

  • Objetivos y alcance del testing
  • Niveles de testing (unitario, integración, sistema, UAT)
  • Tipos de testing (funcional, rendimiento, seguridad)
  • Entornos de testing y herramientas
  • Enfoque de gestión de defectos
  • Roles y responsabilidades
  • Metodología de evaluación de riesgos

¿Qué es el Plan de Pruebas?

El Plan de Pruebas es un documento detallado que describe cómo se realizará el testing para un release, sprint o funcionalidad específica.

Características Clave:

  • Alcance: Release, sprint o funcionalidad específica
  • Nivel: Táctico, detallado
  • Creado por: Test Lead, QA Lead
  • Marco temporal: Corto plazo, por release/sprint
  • Actualizaciones: Frecuentes (cada release, sprint)

El Plan de Pruebas Define:

  • Objetivos específicos de testing para este release
  • Funcionalidades a testear (y no testear)
  • Cronograma y milestones de testing
  • Criterios de entrada y salida
  • Entregables de testing
  • Asignación de recursos
  • Mitigación de riesgos para este release
  • Dependencias y suposiciones

Relación entre Estrategia y Plan

┌─────────────────────────────────────────┐
│    ESTRATEGIA DE TESTING (Estratégico)  │
│  - Enfoque a nivel organizacional       │
│  - Visión a largo plazo                 │
│  - Herramientas, procesos, estándares   │
└────────────┬────────────────────────────┘
             │ guía e informa
             ↓
┌─────────────────────────────────────────┐
│      PLAN DE PRUEBAS (Táctico)          │
│  - Detalles específicos del release     │
│  - Plan concreto de ejecución           │
│  - Asignación de recursos, cronograma   │
└─────────────────────────────────────────┘

Analogía:

  • Estrategia de Testing = Plano de una casa (diseño general, materiales, enfoque de construcción)
  • Plan de Pruebas = Cronograma de construcción para fase específica (cuándo verter cimientos, instalar plomería)

Estándar IEEE 829 para Documentación de Testing

Resumen del IEEE 829

IEEE 829 (ahora parte de ISO/IEC/IEEE 29119) es el estándar reconocido internacionalmente para documentación de testing de software.

Propósito:

  • Estandarizar la documentación de testing en la industria
  • Asegurar completitud y consistencia
  • Facilitar comunicación entre stakeholders
  • Soportar cumplimiento regulatorio (médico, aeroespacial, finanzas)

Tipos de Documentos Definidos por IEEE 829:

DocumentoPropósito
Test PolicyFilosofía y objetivos organizacionales para testing
Test StrategyEnfoque de alto nivel para testing
Test PlanPlan detallado para alcance específico de testing
Test Design SpecificationCondiciones de testing y casos de prueba detallados
Test Case SpecificationDetalles de casos de prueba individuales
Test Procedure SpecificationPasos para ejecutar casos de prueba
Test Item Transmittal ReportÍtems entregados para testing
Test LogRegistro cronológico de ejecución de pruebas
Test Incident ReportDefectos y comportamientos inesperados
Test Summary ReportResumen de resultados y evaluación

Nota: No todos los proyectos necesitan todos los documentos. Adapta según tu contexto (más sobre esto más adelante).

Estructura de Plantilla de Plan de Pruebas IEEE 829

Según IEEE 829, un Plan de Pruebas debe incluir:

1. Identificador del Plan de Pruebas

  • ID único (ej., TP-NombreProyecto-Release-v1.0)

2. Introducción

  • Propósito de este plan de pruebas
  • Contexto y antecedentes
  • Audiencia (quién debe leer esto)

3. Ítems de Prueba

  • Funcionalidades/módulos a testear
  • Versiones siendo testeadas
  • Funcionalidades explícitamente fuera de alcance

4. Funcionalidades a Testear

  • Lista detallada de funcionalidades con prioridad

5. Funcionalidades NO a Testear

  • Ítems fuera de alcance con justificación
  • Funcionalidades diferidas

6. Enfoque

  • Estrategia de testing para este release
  • Niveles y tipos de testing
  • Técnicas de testing
  • Enfoque de automatización

7. Criterios de Paso/Falla de Ítems

  • Criterios de aceptación para funcionalidades
  • Criterios generales de éxito

8. Criterios de Suspensión y Requisitos de Reanudación

  • Cuándo detener el testing
  • Condiciones para reanudar

9. Entregables de Testing

  • Casos de prueba, datos de prueba, scripts de prueba
  • Reportes de defectos, reportes resumen de testing

10. Tareas de Testing

  • Desglose de tareas
  • Dependencias

11. Necesidades Ambientales

  • Requisitos de hardware, software, red
  • Requisitos de datos de prueba
  • Herramientas y licencias

12. Responsabilidades

  • Quién hace qué
  • Matriz RACI

13. Necesidades de Personal y Capacitación

  • Composición del equipo
  • Brechas de habilidades y plan de capacitación

14. Cronograma

  • Milestones y fechas límite
  • Línea de tiempo de ejecución de pruebas

15. Riesgos y Contingencias

  • Riesgos identificados
  • Estrategias de mitigación

16. Aprobaciones

  • Firmas de stakeholders

Adaptando IEEE 829 al Contexto Ágil Moderno

IEEE 829 fue diseñado para Waterfall. En entornos Agile/DevOps:

Estrategias de Adaptación:

1. Planes de Prueba Ligeros

  • Enfócate en secciones esenciales
  • Usa plantillas y checklists
  • Mantenlo en máximo 2-5 páginas

2. Documentos Vivos

  • Almacena en wiki/Confluence, no PDFs estáticos
  • Actualiza continuamente
  • Vincula con Jira, herramientas de gestión de testing

3. Planes de Prueba a Nivel Sprint

  • Crea mini planes de prueba por sprint
  • Referencia la estrategia de testing maestra
  • Enfócate en objetivos del sprint, riesgos, criterios de aceptación

4. Estrategia de Testing Automatizado

  • Incluye detalles del pipeline CI/CD
  • Objetivos de cobertura de automatización
  • Estrategia de pirámide de testing

5. Creación Colaborativa

  • Involucra al equipo completo en la planificación de pruebas
  • Sesiones de Tres Amigos (BA, Dev, QA)
  • Definition of Ready/Done incluye criterios de testing

Estrategia de Testing: Creando el Blueprint de tu Organización

Componentes de una Estrategia de Testing Efectiva

1. Alcance y Objetivos

Define:

  • Qué se está testeando (productos, plataformas, servicios)
  • Objetivos de testing (objetivos de calidad, metas de cobertura)
  • Estándares y benchmarks de calidad

Ejemplo:

Alcance:
- Aplicación web (diseño responsive)
- Apps móviles (iOS, Android nativas)
- Backend REST API
- Panel de administración

Objetivos:
- Lograr 80% de cobertura de pruebas automatizadas
- Cero defectos críticos en producción
- 95% de cumplimiento de SLA de uptime
- Máx. 2 horas de tiempo promedio de detección (MTTD) para issues críticos

2. Niveles de Testing

Define dónde ocurre el testing en el SDLC:

┌──────────────────────────────────────────────────┐
│ Testing Unitario                                 │
│ - Responsable: Developers                        │
│ - Meta de cobertura: 80%+ code coverage         │
│ - Herramientas: Jest, pytest, JUnit             │
└──────────────────────────────────────────────────┘
         ↓
┌──────────────────────────────────────────────────┐
│ Testing de Integración                           │
│ - Responsable: Developers + QA                   │
│ - Enfoque: Contratos API, interacciones servicio│
│ - Herramientas: Postman, REST Assured, Pact     │
└──────────────────────────────────────────────────┘
         ↓
┌──────────────────────────────────────────────────┐
│ Testing de Sistema                               │
│ - Responsable: Equipo QA                         │
│ - Enfoque: Flujos end-to-end, cross-browser     │
│ - Herramientas: Selenium, Cypress, Playwright   │
└──────────────────────────────────────────────────┘
         ↓
┌──────────────────────────────────────────────────┐
│ Testing de Aceptación de Usuario (UAT)          │
│ - Responsable: Equipo producto + Beta users     │
│ - Enfoque: Requisitos de negocio, usabilidad    │
│ - Herramientas: Testing manual, feedback tools  │
└──────────────────────────────────────────────────┘

3. Tipos de Testing

Especifica qué tipos de testing son requeridos:

Tipo de TestingCuándoResponsabilidadHerramientas
FuncionalCada sprintEquipo QASelenium, Cypress
RegresiónCada releaseQA (automatizado)Pipeline CI/CD
RendimientoAntes de release importantePerformance EngineerJMeter, k6
SeguridadTrimestral + on-demandEquipo seguridadOWASP ZAP, Burp Suite
AccesibilidadCada funcionalidad importanteQA + Frontendaxe, Pa11y
UsabilidadCambios importantes de UXProducto + equipo UXSesiones testing usuarios
CompatibilidadAntes de releaseQABrowserStack, Sauce Labs

4. Estrategia de Entorno de Testing

Define entornos y su propósito:

Development → Integration → Staging → Production
     ↓             ↓           ↓           ↓
  Dev tests   Integration  Full UAT    Smoke tests
              tests + QA    & perf     monitoring
              smoke tests   tests

Detalles de Entorno:

EntornoPropósitoDatosFrecuencia ActualizaciónAcceso
DevTesting desarrolloDatos sintéticosDiarioSolo developers
IntegrationPruebas integración & APISintético + subsetDiarioDev + QA
StagingTesting pre-producciónDatos prod anonimizadosSemanalDev + QA + Producto
ProductionSistema en vivoDatos realesN/ASolo lectura para QA

5. Herramientas y Stack Tecnológico

Especifica herramientas para cada necesidad de testing:

Gestión de Testing:

  • Gestión de casos de prueba: TestRail, Xray, qTest
  • Seguimiento de defectos: Jira
  • Gestión de datos de prueba: Scripts custom, Mockaroo

Automatización de Testing:

  • Testing UI: Selenium WebDriver, Cypress, Playwright
  • Testing API: Postman, REST Assured, Supertest
  • Testing móvil: Appium, Detox, XCUITest
  • Rendimiento: JMeter, Gatling, k6
  • Testing visual: Percy, Applitools

Integración CI/CD:

  • Plataforma CI/CD: Jenkins, GitLab CI, GitHub Actions
  • Contenedorización: Docker, Kubernetes
  • Reportes de pruebas: Allure, ExtentReports

6. Roles y Responsabilidades

Define quién hace qué:

RolResponsabilidades
QA ManagerDefinir estrategia testing, asignación recursos, comunicación stakeholders
Test LeadCrear planes prueba, revisar casos prueba, mentoría QA junior
QA EngineerEscribir casos prueba, ejecutar pruebas, reportar defectos
Automation EngineerDesarrollar frameworks automatización, mantener scripts prueba
Performance EngineerDiseñar pruebas rendimiento, analizar resultados, planificación capacidad
DevelopersTesting unitario, corregir defectos, apoyar testing integración
DevOpsMantener entornos prueba, pipelines CI/CD
Product OwnerDefinir criterios aceptación, participar en UAT

7. Proceso de Gestión de Defectos

Define ciclo de vida del defecto:

[Nuevo] → [Asignado] → [En Progreso] → [Corregido] → [Listo para Prueba]
                                                              ↓
                                                      [Verificado] → [Cerrado]
                                                              ↓
                                                       [Reabierto] (si falla verificación)

Definiciones de Severidad:

SeveridadDefiniciónEjemploSLA para Corregir
CríticoCrash sistema, pérdida datos, brecha seguridadSistema pago caído4 horas
AltoFuncionalidad importante rotaNo puede hacer checkout1 día
MedioFuncionalidad parcialmente rota, existe workaroundFiltro no funciona3 días
BajoIssue menor, cosméticoBotón desalineadoSiguiente sprint

8. Criterios de Entrada y Salida (Criterios Maestros)

Define criterios a nivel organizacional:

Criterios de Entrada para Testing:

  • Código fusionado a rama de testing
  • Build desplegado en entorno de testing
  • Pruebas unitarias pasando (>80% cobertura)
  • Casos de prueba revisados y aprobados
  • Datos de prueba preparados

Criterios de Salida para Release:

  • Todos los defectos críticos y altos resueltos
  • 95%+ casos de prueba ejecutados
  • 90%+ tasa de paso de pruebas
  • Benchmarks de rendimiento cumplidos
  • Escaneo de seguridad completado (sin vulnerabilidades críticas)
  • Sign-off de stakeholders obtenido

Plantilla de Estrategia de Testing

# Estrategia de Testing - [Nombre Producto]

## 1. Control de Documento
- Versión: 1.0
- Última Actualización: YYYY-MM-DD
- Responsable: [Nombre QA Manager]
- Aprobadores: [CTO, VP Ingeniería, Product Lead]

## 2. Introducción
### 2.1 Propósito
[Por qué existe esta estrategia de testing]

### 2.2 Alcance
[Qué productos/servicios cubre]

### 2.3 Audiencia
[Quién debe leer esto: equipo QA, developers, product managers]

## 3. Objetivos de Testing
- Objetivo 1: [ej., Asegurar 99.9% uptime]
- Objetivo 2: [ej., Reducir defectos producción en 50%]
- Objetivo 3: [ej., Lograr 80% automatización testing]

## 4. Niveles de Testing
### 4.1 Testing Unitario
- Responsable: Developers
- Meta de Cobertura: 80%+
- Herramientas: [Jest, pytest, etc.]

### 4.2 Testing de Integración
[Detalles...]

### 4.3 Testing de Sistema
[Detalles...]

### 4.4 Testing de Aceptación
[Detalles...]

## 5. Tipos de Testing
[Tabla de tipos de testing con responsables y herramientas]

## 6. Entornos de Testing
[Estrategia de entornos]

## 7. Herramientas y Tecnología
[Stack de herramientas]

## 8. Gestión de Datos de Prueba
[Cómo se crean, gestionan y actualizan los datos de prueba]

## 9. Gestión de Defectos
[Ciclo de vida defectos, definiciones severidad, SLAs]

## 10. Enfoque de Testing Basado en Riesgos
[Cómo se evalúan riesgos y se prioriza testing]

## 11. Roles y Responsabilidades
[Matriz RACI o descripciones de roles]

## 12. Criterios de Entrada/Salida
[Criterios maestros para fases de testing]

## 13. Métricas y Reportes
[KPIs rastreados, cadencia de reportes]

## 14. Mejora Continua
[Cómo se revisa y actualiza la estrategia de testing]

## 15. Apéndices
- Apéndice A: Glosario
- Apéndice B: Referencias
- Apéndice C: Detalles Configuración Herramientas

Plan de Pruebas: Ejecución Táctica para tu Release

Creando Plan de Pruebas Específico para Release

Contexto: Estás planificando testing para “Release 3.5: Enhanced Checkout Flow”

Plantilla de Plan de Pruebas con Ejemplo

# Plan de Pruebas - Release 3.5: Enhanced Checkout Flow

## 1. Identificador del Plan de Pruebas
- **ID:** TP-Ecommerce-R3.5-v1.0
- **Versión:** 1.0
- **Fecha:** 2025-10-01
- **Autor:** Jane Doe, QA Lead

## 2. Introducción

### 2.1 Propósito
Este plan de pruebas describe el enfoque de testing para Release 3.5, que introduce un flujo de checkout mejorado con compra en un clic, métodos de pago guardados y mejoras en checkout de invitados.

### 2.2 Alcance
El testing cubrirá:
- Nueva funcionalidad de compra en un clic
- Gestión de métodos de pago guardados
- Checkout de invitados mejorado
- Testing de regresión del flujo de checkout existente
- Compatibilidad cross-browser y móvil

Fuera de alcance:
- Sistema de gestión de inventario backend (testeado separadamente)
- Templates de email marketing (sin cambios)

### 2.3 Audiencia
- Equipo QA
- Equipo Desarrollo
- Product Manager
- Stakeholders

## 3. Ítems de Prueba

**Aplicación Bajo Prueba:**
- Aplicación Web E-commerce v3.5
- App Móvil iOS v3.5
- App Móvil Android v3.5

**Información del Build:**
- Web: Build #456 (rama: release/3.5)
- iOS: Build #789
- Android: Build #790

## 4. Funcionalidades a Testear

| Funcionalidad | Prioridad | Tipo de Prueba |
|---------|----------|-----------|
| Compra en un clic | Crítico | Funcional, Seguridad, Usabilidad |
| Métodos de pago guardados | Crítico | Funcional, Seguridad |
| Mejoras checkout invitados | Alto | Funcional, Usabilidad |
| Regresión flujo checkout | Crítico | Regresión, Automatización |
| Experiencia checkout móvil | Alto | Compatibilidad, Usabilidad |
| Aplicación código promo | Medio | Funcional |

## 5. Funcionalidades NO a Testear

| Funcionalidad | Razón |
|---------|--------|
| Panel administración | Sin cambios en este release |
| Gestión inventario | Testeado por equipo separado |
| Notificaciones email | Sin cambios; cubierto por smoke tests |
| Página historial pedidos | Sin cambios; pruebas regresión lo cubren |

## 6. Enfoque

### 6.1 Niveles de Testing
- **Testing Unitario:** Responsabilidad developer, meta 85% cobertura
- **Testing Integración:** Endpoints API para procesamiento pagos
- **Testing Sistema:** Flujos checkout end-to-end
- **UAT:** Equipo producto + usuarios beta seleccionados

### 6.2 Tipos de Testing
- **Testing Funcional:** Casos prueba manuales + automatizados
- **Testing Regresión:** Suite 500+ regresión automatizada
- **Testing Seguridad:** Encriptación datos pago, cumplimiento PCI DSS
- **Testing Rendimiento:** Load test para 1000 checkouts concurrentes
- **Testing Usabilidad:** 10 sesiones testing usuarios
- **Testing Compatibilidad:** Chrome, Firefox, Safari, Edge (últimas 2 versiones); iOS 15+, Android 11+

### 6.3 Técnicas de Testing
- Partición equivalencia para métodos de pago
- Análisis valor límite para cálculos total carrito
- Tablas decisión para lógica código promo
- Testing transición estado para estados flujo checkout

### 6.4 Estrategia de Automatización
- 70% de pruebas funcionales automatizadas vía Cypress
- Pruebas API automatizadas vía colecciones Postman
- Pruebas regresión visual vía Percy
- Pruebas rendimiento vía k6

## 7. Criterios de Paso/Falla de Ítems

### 7.1 Criterios de Aceptación de Funcionalidad

**Compra en Un Clic:**
- ✅ Usuario puede completar compra en un clic
- ✅ Confirmación se muestra en 2 segundos
- ✅ Pedido aparece en historial pedidos
- ✅ Email confirmación enviado

**Métodos de Pago Guardados:**
- ✅ Usuario puede guardar hasta 5 métodos de pago
- ✅ Usuario puede establecer método de pago predeterminado
- ✅ Usuario puede eliminar métodos de pago guardados
- ✅ Datos sensibles enmascarados apropiadamente

### 7.2 Criterios Generales de Éxito
- Todos los defectos de severidad crítica y alta resueltos
- 95%+ casos de prueba ejecutados
- 92%+ tasa de paso de pruebas
- Sin defectos de regresión introducidos
- Benchmarks de rendimiento cumplidos (< 3s carga página)
- Escaneo seguridad muestra cero vulnerabilidades críticas

## 8. Criterios de Suspensión y Requisitos de Reanudación

### 8.1 Criterios de Suspensión
El testing se suspenderá si:
- Build no es estable (>5 defectos críticos bloqueando testing)
- Entorno de prueba no disponible por >4 horas
- >30% casos de prueba bloqueados por defectos
- Vulnerabilidad de seguridad crítica descubierta

### 8.2 Requisitos de Reanudación
El testing se reanuda cuando:
- Defectos bloqueantes corregidos y verificados
- Entorno de prueba restaurado y validado
- Nuevo build desplegado y smoke tests pasan

## 9. Entregables de Testing

### 9.1 Antes del Testing
- Plan de pruebas (este documento) ✅
- Casos de prueba (250 casos en TestRail)
- Sets de datos de prueba
- Checklist setup entorno prueba

### 9.2 Durante el Testing
- Reportes ejecución prueba diarios
- Reportes defectos en Jira
- Logs de prueba en TestRail

### 9.3 Después del Testing
- Reporte resumen de pruebas
- Reporte resumen defectos
- Dashboard métricas pruebas
- Documento lecciones aprendidas

## 10. Tareas de Testing

| Tarea | Responsable | Dependencias | Esfuerzo Estimado |
|------|-------|--------------|------------------|
| Creación casos prueba | Equipo QA | Requisitos completos | 3 días |
| Preparación datos prueba | QA + DevOps | Entorno prueba listo | 1 día |
| Setup entorno prueba | DevOps | Build disponible | 2 días |
| Smoke testing | Equipo QA | Build desplegado | 4 horas |
| Testing funcional | Equipo QA | Smoke tests pasan | 5 días |
| Testing regresión | Automatización | Testing funcional completo | 2 días |
| Testing rendimiento | Performance Engineer | Entorno staging | 2 días |
| UAT | Producto + Usuarios | Testing sistema completo | 3 días |
| Retesting defectos | Equipo QA | Defectos corregidos | Continuo |
| Reportes prueba | QA Lead | Testing completo | 1 día |

## 11. Necesidades Ambientales

### 11.1 Hardware
- Servidores prueba: 4 VMs (entorno staging)
- Dispositivos móviles: iPhone 13, 14; Samsung Galaxy S22, S23

### 11.2 Software
- Navegadores: Chrome 120+, Firefox 115+, Safari 17+, Edge 120+
- SO: Windows 11, macOS Sonoma, iOS 15+, Android 11+
- Base de datos: PostgreSQL 14 (snapshot datos prod anonimizados)

### 11.3 Red
- Acceso VPN a entorno staging
- Condiciones red simuladas (3G, 4G, WiFi)

### 11.4 Herramientas y Licencias
- TestRail (licencia existente)
- BrowserStack (20 sesiones paralelas)
- k6 Cloud (testing rendimiento)
- Percy (testing visual)

### 11.5 Datos de Prueba
- 100 cuentas usuario prueba (varios estados)
- 50 productos prueba en categorías
- 10 códigos promo con diferentes reglas
- Tarjetas pago prueba (modo test Stripe)

## 12. Responsabilidades

| Rol | Nombre | Responsabilidades |
|------|------|------------------|
| **QA Lead** | Jane Doe | Planificación pruebas, coordinación, reportes |
| **Senior QA** | John Smith | Testing funcional, revisión casos prueba |
| **QA Engineers** | Equipo (3) | Ejecución pruebas, reporte defectos |
| **Automation Engineer** | Mike Johnson | Framework automatización, integración CI/CD |
| **Performance Engineer** | Sarah Lee | Testing rendimiento, análisis |
| **DevOps** | Tom Brown | Setup entorno, soporte CI/CD |
| **Product Owner** | Lisa White | Coordinación UAT, sign-off aceptación |

## 13. Necesidades de Personal y Capacitación

### 13.1 Personal
- Equipo QA: 5 personas
- Asignación: 100% dedicado por ciclo prueba de 2 semanas

### 13.2 Necesidades de Capacitación
- Capacitación framework Cypress para 2 nuevos QA engineers (completada)
- Capacitación cumplimiento PCI DSS para equipo (programada 2025-09-28)

## 14. Cronograma

| Milestone | Fecha | Entregable |
|-----------|------|-------------|
| Planificación pruebas completa | 2025-10-01 | Plan pruebas, casos prueba listos |
| Entorno prueba listo | 2025-10-03 | Staging desplegado, validado |
| Smoke testing completo | 2025-10-04 | Reporte smoke test |
| Testing funcional completo | 2025-10-11 | Reporte testing funcional |
| Testing regresión completo | 2025-10-13 | Reporte testing regresión |
| Testing rendimiento completo | 2025-10-13 | Reporte testing rendimiento |
| UAT completo | 2025-10-16 | Sign-off UAT |
| Reporte resumen pruebas | 2025-10-17 | Resumen final pruebas |
| Release a producción | 2025-10-18 | Go-live |

**Diagrama Gantt:**

Semana 1: [Prep Prueba] [Smoke] [Testing Funcional ] Semana 2: [Funcional] [Regresión] [UAT] Semana 3: [Reporte] [Release]


## 15. Riesgos y Contingencias

| Riesgo | Probabilidad | Impacto | Mitigación | Contingencia |
|------|-------------|--------|------------|-------------|
| Issues integración gateway pago | Medio | Alto | Testing integración temprana con gateway | Soporte DevOps dedicado; escalación a proveedor gateway |
| Datos prueba insuficientes | Bajo | Medio | Preparar datos prueba 3 días antes testing | Script generar datos prueba adicionales on-demand |
| Indisponibilidad recursos (baja enfermedad) | Bajo | Medio | Capacitación cruzada miembros equipo | Reasignar tareas; extender timeline 1-2 días si necesario |
| Defecto crítico descubierto tarde | Medio | Alto | Triage defectos diario; enfoque en rutas críticas primero | Corrección emergencia; retrasar release 2-3 días si necesario |
| Degradación rendimiento | Bajo | Alto | Pruebas rendimiento temprano en ciclo | Sprint optimización; contratar consultor rendimiento |

## 16. Aprobaciones

| Rol | Nombre | Firma | Fecha |
|------|------|-----------|------|
| QA Lead | Jane Doe | ___________ | 2025-10-01 |
| Engineering Manager | Bob Chen | ___________ | 2025-10-01 |
| Product Manager | Lisa White | ___________ | 2025-10-01 |
| Release Manager | Alex Green | ___________ | 2025-10-01 |

---

## Apéndices

### Apéndice A: Matriz de Trazabilidad
[Link a mapeo requisitos-a-casos-prueba]

### Apéndice B: Casos de Prueba
[Link a proyecto TestRail]

### Apéndice C: Dashboard Métricas Defectos
[Link a dashboard Jira]

Enfoque de Testing Basado en Riesgos

¿Por qué Testing Basado en Riesgos?

No puedes testear todo. El testing basado en riesgos te ayuda a:

  • Enfocarte en lo que más importa
  • Optimizar asignación de recursos
  • Justificar decisiones de testing a stakeholders
  • Lograr mejor ROI en esfuerzos de testing

Proceso de Evaluación de Riesgos

Paso 1: Identificar Riesgos

Fuentes de información de riesgos:

  • Análisis de requisitos
  • Revisión de arquitectura
  • Datos históricos de defectos
  • Análisis de complejidad
  • Input de stakeholders
  • Conocimiento de la industria

Categorías de Riesgo:

  • Riesgos técnicos: Algoritmos complejos, nueva tecnología, integraciones terceros
  • Riesgos de negocio: Impacto ingresos, satisfacción cliente, cumplimiento regulatorio
  • Riesgos de cronograma: Plazos ajustados, restricciones de recursos
  • Riesgos de requisitos: Requisitos poco claros, cambiantes o incompletos

Paso 2: Analizar Riesgo (Probabilidad × Impacto)

Matriz de Riesgos:

Impacto BajoImpacto MedioImpacto Alto
Probabilidad AltaRiesgo MedioRiesgo AltoRiesgo Crítico
Probabilidad MediaRiesgo BajoRiesgo MedioRiesgo Alto
Probabilidad BajaRiesgo BajoRiesgo BajoRiesgo Medio

Ejemplo: Checkout E-commerce

Funcionalidad/ÁreaProbabilidad DefectoImpacto si FallaNivel Riesgo
Procesamiento pagosMedioAlto (pérdida ingresos)Riesgo Alto
Compra un clicAlto (funcionalidad nueva)Alto (UX, ingresos)Riesgo Crítico
Lógica código promoMedioMedioRiesgo Medio
Links footerBajoBajoRiesgo Bajo
Email confirmación pedidoBajoMedioRiesgo Medio

Paso 3: Priorizar Testing

Asigna esfuerzo de testing basado en riesgo:

Nivel RiesgoCobertura PruebaTipos de PruebaAutomatización
Crítico90-100%Funcional, Seguridad, Rendimiento, UsabilidadSí, alta prioridad
Alto70-90%Funcional, Regresión, SeguridadSí, prioridad media
Medio40-70%Funcional, SmokeAutomatización selectiva
Bajo10-40%Smoke, SanityManual, baja prioridad

Paso 4: Monitorear y Ajustar

  • Rastrear densidad defectos por área de riesgo
  • Ajustar evaluación riesgo basado en hallazgos
  • Re-priorizar testing si surgen nuevos riesgos

Ejemplo de Planificación de Pruebas Basada en Riesgos

Escenario: Release app banca móvil

Evaluación de Riesgos:

FuncionalidadProbabilidadImpactoScore Riesgo% Esfuerzo Prueba
Transferencias fondosMedioCrítico830%
Pagos facturasMedioAlto620%
Saldo cuentaBajoAlto415%
Historial transaccionesBajoMedio310%
Notificaciones pushAltoBajo310%
Página configuraciónBajoBajo15%
Ayuda/FAQBajoBajo15%
Tutorial onboardingMedioBajo25%

Asignación de Pruebas:

  • Total horas prueba disponibles: 200
  • Transferencias fondos: 60 horas (testing comprensivo)
  • Pagos facturas: 40 horas
  • Saldo cuenta: 30 horas
  • Historial transacciones: 20 horas
  • etc.

Criterios de Entrada y Salida

Criterios de Entrada: Cuándo INICIAR el Testing

Los criterios de entrada aseguran que el testing no comience prematuramente.

Criterios de Entrada Comunes:

Para Testing de Sistema:

  • ✅ Build desplegado en entorno de prueba
  • ✅ Smoke tests pasados
  • ✅ Entorno prueba estable y accesible
  • ✅ Datos prueba cargados
  • ✅ Pruebas unitarias pasando (>80% cobertura)
  • ✅ Pruebas integración pasando
  • ✅ Código fusionado a rama prueba
  • ✅ Casos prueba revisados y aprobados
  • ✅ Sin defectos críticos de build anterior

Para UAT:

  • ✅ Testing sistema completado
  • ✅ Todos defectos críticos y altos resueltos
  • ✅ 90%+ tasa paso en testing sistema
  • ✅ Entorno UAT preparado con datos tipo producción
  • ✅ Scripts prueba UAT listos
  • ✅ Participantes UAT capacitados y disponibles

Ejemplo: Checklist Criterios de Entrada

## Criterios de Entrada para Release 3.5 Testing Sistema

- [ ] Build v3.5.0-rc1 desplegado a staging
- [ ] Suite smoke test (50 pruebas) ejecutada con 100% paso
- [ ] Chequeo salud entorno prueba completado
- [ ] Base datos poblada con datos prueba (100 usuarios, 500 productos)
- [ ] Cobertura pruebas unitarias: 87% (✅ cumple requisito >80%)
- [ ] Pruebas integración API: 45/45 pasando
- [ ] Casos prueba: 250 casos revisados y aprobados en TestRail
- [ ] Sin defectos críticos abiertos (conteo actual: 0)
- [ ] Equipo prueba capacitado en nuevas funcionalidades (capacitación completada 2025-09-28)

**Estado:** ✅ Listo para iniciar testing sistema
**Aprobado por:** QA Lead, Engineering Manager

Criterios de Salida: Cuándo DETENER el Testing

Los criterios de salida definen calidad “suficientemente buena” para el release.

Criterios de Salida Comunes:

Para Completar Fase de Prueba:

  • ✅ 95%+ casos prueba ejecutados
  • ✅ 90%+ tasa paso de pruebas
  • ✅ Todos defectos críticos resueltos y verificados
  • ✅ Todos defectos altos resueltos o diferidos con aprobación
  • ✅ Sin defectos abiertos mayores a 5 días (sin plan resolución)
  • ✅ Suite prueba regresión pasada
  • ✅ Benchmarks rendimiento cumplidos
  • ✅ Escaneo seguridad completado sin vulnerabilidades críticas

Para Release a Producción:

  • ✅ Todas fases prueba completadas (unitaria, integración, sistema, UAT)
  • ✅ Reporte resumen pruebas aprobado
  • ✅ Sign-off stakeholder obtenido
  • ✅ Notas release preparadas
  • ✅ Plan rollback documentado y testeado
  • ✅ Plan smoke test producción listo
  • ✅ Equipo soporte on-call notificado

Los Criterios de Salida Deben Ser:

  • Medibles: “90% tasa paso” no “mayoría pruebas pasaron”
  • Alcanzables: Realistas dadas las restricciones
  • Acordados: Stakeholders alineados en criterios

Ejemplo: Checklist Criterios de Salida

## Criterios de Salida para Release 3.5 Testing Sistema

### Ejecución Pruebas
- [x] Casos prueba ejecutados: 248/250 (99%) ✅
- [x] Tasa paso pruebas: 230/248 (92.7%) ✅
- [x] Suite regresión: 500/500 pasados (100%) ✅

### Estado Defectos
- [x] Defectos críticos: 0 abiertos ✅
- [x] Defectos altos: 2 abiertos (ambos aprobados para diferir a v3.6) ✅
- [x] Defectos medios: 5 abiertos (aceptable) ✅
- [x] Defectos bajos: 8 abiertos (aceptable) ✅

### Rendimiento y Seguridad
- [x] Tiempo carga página: 2.1s promedio (objetivo <3s) ✅
- [x] Usuarios concurrentes soportados: 1200 (objetivo >1000) ✅
- [x] Escaneo seguridad: 0 críticas, 2 vulnerabilidades medias (aceptadas) ✅

### Sign-offs
- [x] Aprobación QA Lead ✅
- [x] Aprobación Engineering Manager ✅
- [x] Aprobación Product Manager ✅
- [x] Sign-off UAT obtenido ✅

**Estado:** ✅ Listo para release a producción
**Fecha Release:** 2025-10-18

Manejando Criterios de Salida No Cumplidos

¿Qué pasa si no cumples los criterios de salida?

Opciones:

1. Extender Timeline de Testing

  • Pros: Mayor calidad
  • Contras: Release retrasado, costo incrementado

2. Aceptar Riesgo y Release con Waivers

  • Requiere aprobación ejecutiva
  • Documentar riesgos y plan mitigación
  • Típicamente solo para issues de bajo impacto

3. Release Parcial (Feature Flags)

  • Release con funcionalidades riesgosas deshabilitadas
  • Habilitar gradualmente después de más testing

4. Rollback y Corrección

  • No hacer release
  • Corregir issues críticos
  • Re-testear y re-evaluar

Framework de Decisión:

¿Defectos críticos resueltos? → NO → No hacer release
                               ↓ SÍ
¿Tasa paso pruebas >90%? → NO → Evaluar riesgo → ¿Alto riesgo? → No hacer release
                        ↓ SÍ                                    ↓ Bajo riesgo → Obtener waiver
¿Stakeholders aprueban? → NO → Negociar o retrasar
                          ↓ SÍ
                     RELEASE ✅

Plantillas Listas para Usar

Plantilla Plan de Pruebas Sprint (Agile)

# Plan de Pruebas Sprint - Sprint [Número]

## Resumen Sprint
- **Sprint:** Sprint 23
- **Duración:** Oct 1-14, 2025 (2 semanas)
- **Equipo:** Scrum Team Alpha
- **QA Lead:** [Nombre]

## Objetivo Sprint
[De planificación sprint: "Completar optimización checkout"]

## User Stories en Sprint
| ID Story | Título | Prioridad | Story Points |
|----------|-------|----------|--------------|
| STORY-456 | Compra un clic | Alto | 8 |
| STORY-457 | Guardar métodos pago | Alto | 5 |
| STORY-458 | Mejoras checkout invitados | Medio | 3 |

## Enfoque de Prueba
- Definition of Done incluye: pruebas unitarias, integración, testing QA, UAT
- Meta automatización: 70% casos prueba
- Testing exploratorio: 2 horas por story

## Criterios de Entrada
- [ ] Stories cumplen Definition of Ready
- [ ] Criterios aceptación definidos para cada story
- [ ] Entorno prueba disponible

## Criterios de Salida
- [ ] Todas stories testeadas y aceptadas
- [ ] Cobertura automatización >70%
- [ ] Cero defectos críticos
- [ ] Demo sprint exitoso

## Riesgos
- [Listar riesgos específicos del sprint]

## Cronograma Pruebas
- Días 1-7: Desarrollo funcionalidad + testing continuo
- Días 8-10: Testing integración, regresión
- Días 11-12: UAT, correcciones bugs
- Día 13: Revisión sprint, retrospectiva
- Día 14: Planificación sprint (siguiente sprint)

## Resumen Pruebas
[A completar al final del sprint]

Plantilla Reporte Resumen de Pruebas

# Reporte Resumen de Pruebas - Release [X.Y]

## Resumen Ejecutivo
[2-3 oraciones: Evaluación calidad general, preparación para release]

## Alcance Pruebas
- **Aplicación:** [Nombre]
- **Versión:** [X.Y.Z]
- **Período Prueba:** [Fecha Inicio] - [Fecha Fin]
- **Equipo Prueba:** [Miembros equipo]

## Resumen Ejecución Pruebas

| Métrica | Valor |
|--------|-------|
| Total casos prueba | 250 |
| Ejecutados | 248 (99%) |
| Pasados | 230 (92.7%) |
| Fallados | 15 (6%) |
| Bloqueados | 3 (1.2%) |
| No Ejecutados | 2 (0.8%) |

## Cobertura Pruebas

| Funcionalidad | Casos Prueba | % Paso |
|---------|------------|--------|
| Compra un clic | 50 | 94% |
| Pagos guardados | 40 | 90% |
| Checkout invitados | 30 | 97% |
| Regresión | 128 | 92% |

## Resumen Defectos

| Severidad | Total | Abiertos | Resueltos | Verificados | Cerrados |
|----------|-------|------|----------|----------|--------|
| Crítico | 3 | 0 | 3 | 3 | 3 |
| Alto | 8 | 2 | 6 | 6 | 6 |
| Medio | 15 | 5 | 10 | 10 | 10 |
| Bajo | 22 | 8 | 14 | 14 | 14 |

## Resultados Testing Rendimiento
- Tiempo carga página: 2.1s (objetivo <3s) ✅
- Tiempo respuesta API: 150ms promedio (objetivo <200ms) ✅
- Usuarios concurrentes: 1200 (objetivo >1000) ✅

## Resultados Testing Seguridad
- Vulnerabilidades encontradas: 2 medias, 0 críticas ✅
- Cumplimiento PCI DSS: Pasado ✅

## Estado Criterios Salida
[Checklist de criterios salida con estado]

## Riesgos e Issues
[Riesgos/issues abiertos que necesitan atención]

## Recomendaciones
-**Recomendado para release** con defectos medio/bajo diferidos rastreados para v3.6
- Monitorear rendimiento gateway pago cercanamente en producción
- Planificar optimización rendimiento seguimiento para flujo checkout

## Sign-off
- QA Lead: [Nombre, Fecha]
- Engineering Manager: [Nombre, Fecha]
- Product Manager: [Nombre, Fecha]

Conclusión: Construyendo tu Blueprint de Testing

La planificación y estrategia de testing efectivas son críticas para el éxito del testing. Conclusiones clave:

1. Comprende la Diferencia

  • Estrategia de Testing = Enfoque organizacional de alto nivel, largo plazo
  • Plan de Pruebas = Plan de ejecución detallado, corto plazo para release específico

2. Aprovecha Estándares pero Adapta

  • IEEE 829 proporciona base sólida
  • Adapta a tu contexto (Agile, DevOps, tamaño equipo)
  • No crees documentación por la documentación misma

3. Adopta Testing Basado en Riesgos

  • No puedes testear todo
  • Enfócate en áreas de alto riesgo
  • Usa datos para impulsar decisiones

4. Define Criterios de Entrada/Salida Claros

  • Criterios entrada previenen testing prematuro
  • Criterios salida definen “suficientemente bueno”
  • Hazlos medibles y acordados

5. Plantillas Aceleran la Planificación

  • Usa plantillas como punto de partida
  • Personaliza para tus necesidades
  • Mantenlas como documentos vivos

Próximos Pasos:

  1. Revisa tu proceso actual de planificación de pruebas
  2. Crea o actualiza documento estrategia de testing
  3. Adopta enfoque testing basado en riesgos para siguiente release
  4. Define criterios entrada/salida medibles
  5. Usa plantillas para estandarizar planificación pruebas
  6. Mejora continuamente basado en retrospectivas

Los planes de prueba y estrategias bien elaborados alinean equipos, gestionan riesgos, optimizan recursos y finalmente entregan software de mayor calidad. Invierte tiempo en planificación—paga dividendos a lo largo del testing y más allá.