Protege tus Operaciones
con Datos Confiables

De lo global a lo local:
Modelos de machine learning calibrados regionalmente para decisiones más sustentables, transparentes y trazables.

Ver evidencias satelitales
IA Icon

Machine Learning avanzado

Conexión con productores agropecuarios locales

Modelos propios basados en miles de horas de entrenamiento local

Combinamos miles imágenes satelitales de 10x10m y datos a campos

¿Por qué confiar en modelos globales cuando podés tener precisión local?

Los datos satelitales de deforestación global, como los de Hansen/Global Forest Watch, son útiles para detectar tendencias generales, pero no fueron diseñados para decisiones regulatorias o comerciales.

Sus propios creadores advierten:
“Estos mapas no deben usarse para regulaciones, certificaciones o sanciones sin validación local” (Hansen et al., 2022; GFW FAQ).

El problema:
❌ No distinguen entre deforestación, degradación o estrés hídrico en ecosistemas secos (ej. el Gran Chaco).
❌ Pueden tener errores del 20-30%, generando sanciones injustas o validando áreas erróneas.

Nuestra ventaja: Machine Learning calibrado para la realidad local
✔️ Modelos entrenados con datos específicos de cada bioma (2020-2025).
✔️ Precisión superior (F1 > 0.95) en detección de deforestación real.
✔️ Validación en campo y análisis satelital detallado para decisiones confiables.

Para garantizar transparencia y cumplimiento normativo, es clave trabajar con datos confiables que soporten auditorías serias.

Propuesta TSA y precisión lograda

Recomendación General: Balance entre Precisión y Operatividad

Al analizar las métricas para distintos tamaños de grillas (100 mil a 3 millones de hectáreas), se observa que:

Con diámetros pequeños (20 km): Se logra precisión altísima (F1 > 0.95), ), pero gestionar tantas zonas requeriría un desarrollo de varios meses.

Con diámetros grandes (160‑200 km): Se reducen las zonas a procesar y se agiliza el análisis, aunque algunas coberturas como Soja y Pastizal pierden algo de precisión (F1 ≈ 0.88‑0.90).

Balance recomendado:

Conclusión: Para optimizar eficiencia y precisión, se recomienda trabajar con grillas de 3 millones de ha (200 km de diámetro). Si el enfoque prioriza máxima precisión sobre operatividad, bajar a 60 km puede ser viable, pero a costa de más tiempo y recursos.

Imagen 3M

¿Por qué estas métricas?

A partir de la matriz de confusión (TP, FN, FP, TN) se derivan indicadores esenciales para evaluar el desempeño: la Exactitud del Productor y la Exactitud del Usuario.

Para no sobrecargar la visualización, elegimos centrarnos en tres indicadores clave:

  • Precisión (%): Porcentaje de positivos correctamente identificados (columna "Precision_Positives").
  • F1‑score (%): Balance entre Precisión y Recall, ideal para clases desbalanceadas.
  • Exactitud del Usuario (%): Confiabilidad de la predicción para el usuario final.

Definiciones adicionales:
TP (True Positives): Casos de la clase Cobertura que fueron correctamente identificados.
FP (False Positives): Casos que no pertenecen a la clase Cobertura pero se clasificaron erróneamente como positivos.
FN (False Negatives): Casos de la clase Cobertura que fueron clasificados erróneamente como negativos.
Precision_Positives: Mide qué proporción de los píxeles clasificados como una clase realmente pertenecen a ella.
Recall_Positive Rate: Mide cuántos píxeles de la clase real fueron correctamente identificados.
F1-score: Métrica equilibrada entre precisión y recall, útil cuando hay un desequilibrio de clases.
Exactitud_Productor: Se calcula como TP / (TP + FN) * 100, representando la confiabilidad desde la perspectiva del productor.
Exactitud_Usuario: Se calcula como TP / (TP + FP) * 100, representando la confiabilidad desde la perspectiva del usuario.

Ver tabla de precisiones completa