Object Detection

Object Detection (Detecção de Objetos)

Definição:
Detecção de Objetos é uma técnica de Visão Computacional que identifica o que está presente na imagem e onde está localizado, normalmente utilizando caixas delimitadoras (bounding boxes) ao redor dos objetos.


Como funciona (visão modular):

  • Captura de imagem/vídeo (câmera)
  • Pré-processamento (ajustes, normalização)
  • Processamento por modelo (ML/DL)
  • Identificação de objetos + posição
  • Geração de bounding boxes + classes + confiança

✔ Separação clara: imagem ≠ processamento ≠ detecção ≠ localização


Principais abordagens:

  • Single-stage detectors
    • Mais rápidos (ex: YOLO)
  • Two-stage detectors
    • Mais precisos (ex: Faster R-CNN)
  • Anchor-based / Anchor-free
    • Diferentes formas de localizar objetos

E o que isso tem a ver com IoT/embarcados?

Object detection, no contexto de IoT e sistemas embarcados, é a capacidade de um dispositivo enxergar e interpretar o ambiente físico em tempo real, identificando objetos em imagens ou vídeo e também sua posição . Quando isso é levado para o mundo embarcado, câmeras acopladas a dispositivos (como gateways, SBCs ou até MCUs com suporte a TinyML) capturam dados visuais, processam localmente (edge) e tomam decisões sem depender totalmente da nuvem. Isso permite ações imediatas: detectar uma pessoa, identificar um defeito em uma linha de produção ou reconhecer um objeto específico e acionar um sistema.

Na prática, isso transforma dispositivos IoT em sensores visuais inteligentes, integrando visão computacional com automação. Aplicações reais incluem inspeção industrial automática, casas inteligentes, cidades inteligentes e veículos autônomos, onde a detecção precisa ocorrer com baixa latência e recursos limitados . Como hardware embarcado tem restrições de CPU, memória e energia, modelos otimizados (TinyML, versões leves de YOLO/SSD) são utilizados para viabilizar execução local eficiente. Resultado: o sistema deixa de apenas “medir” (como sensores tradicionais) e passa a interpretar visualmente o mundo e agir em cima disso, fechando o ciclo completo de percepção → decisão → atuação dentro do próprio dispositivo.


Exemplos práticos (IoT / automação):

  • Contagem de objetos em linha de produção
    • Detecta e conta produtos em esteiras
  • Monitoramento de presença
    • Identifica pessoas ou veículos em áreas específicas
  • Controle de fluxo
    • Detecta entrada/saída de itens ou movimentação
  • Verificação de posicionamento
    • Confere se um objeto está presente ou corretamente colocado

Boas práticas:

  • Garantir boa qualidade de imagem
  • Escolher modelo conforme necessidade (velocidade vs precisão)
  • Validar com dados reais do ambiente
  • Evitar uso quando sensores simples resolvem
  • Separar detecção de execução física

Diferença-chave vs segmentação:

  • Detecção → bounding box (localização aproximada)
  • Segmentação → pixel a pixel (alta precisão)

Por que usar:

  • Mais leve que segmentação
  • Boa relação entre precisão e custo
  • Permite localizar múltiplos objetos
  • Funciona bem em tempo real

Quando usar:

  • Identificar e localizar objetos
  • Contagem ou presença
  • Monitoramento visual em tempo real

Quando NÃO usar:

  • Quando é necessário detalhe pixel a pixel
  • Ambientes visuais muito degradados
  • Quando sensor simples resolve

Resumo direto:

Detecção de Objetos = identificar o que é e onde está na imagem.