Classificação de Anuros usando
Rede de Sensores Sem Fio

Juan Gabriel Colonna
Eduardo Freire Nakamura
Instituto de Computa...
Projeto ANURA
Objetivo: Determinar estresse ecológico usando como
indicador as variações das populações de anuros.
Sensíve...
Reconhecimento de áudio
Problemas: detecção
e reconhecimento

Método: Coeficientes Mel e SVM ou k-NN.
Redes de sensores

Cenário 1

Cenário 2

Trade-off: processamento vs
transmissão

Cenário 3
Colaboração e fusão
●

●

Propriedade colaborativa
da rede
Fusão: média,
votação, etc.

NAKAMURA, E. F. ; LOUREIRO, A. A. ...
Trabalhos relacionados
Err=

ErrP +β∗ErrS
1+β

Vantagem: imunidade aos ruídos, classificador simples
Desvantagem: clustter...
O problema da
Confusão
●
●
●
●

Padrões de sinal misturados
Ruídos
Outros animais
Espécies que não estão na base
Scinax ru...
Objetivo e Hipóteses
Objetivo: Elaborar um método de fusão e rejeição que melhore
a acurácia de classificação em cenários ...
Método
Método:
1. Cada sensor detecta e classifica;
2. Os vetores de probabilidades a posteriori são transmitidos ao líder...
Classificadores
1.
2.
3.
4.

kNN (k=3) (98.2%)
Árvore (94.6%)
Naive Bayes (93.6%)
Discriminant analysis

Distância de Maha...
Regras de Votação
●

●

Cenário: Dado um vetor de características
desconhecido x, cada classificador produz as
probabilida...
Método de Rejeição
h=−p i ∑ pi
Exemplo:
[0 0 . . . 1 . . 0 0]
Entropia: -0*log2(0) . . . -1*log2(1) = 0
[0 0,25 . . . 0,75...
Experimentos
✔

✔
✔
✔
✔

✔

Um clustter de 4 sensores formando um grid
perturbado separados 5[m] + N~(0,0.1),
Tamanho da á...
Resultados para um sensor
Erro da espécie 1 antes de rejeitar = 0,52
Erro da espécie 2 antes de rejeitar = 0,68
Erro da es...
Resultados para um sensor
Matriz de confusão da entropia
limiar = 0,1
Erro = 0.43
Precisão = TP / (TP+FP) = 0.55
Revocação...
Resultados do comitê de sensores
Resultados do comitê de sensores
O ganho após a rejeição
Ganho=erro antes de rejeitar−erro após rejeitar
Comportamento dos FN
not fn=lim
fn→ 0

tp+ fp+tn
≃1
tp+ fp+tn+ fn
ROC – Método discriminante
AUC: é uma medida de quão bem o limiar de entropia pode detectar um cenário confuso.

AUC_senso...
Conclusões
●

●

●

O método de classificação de Naive Bayes produz resultados que
variam proporcionalmente ao limiar da e...
Stacking
Time taken to build model: 6.48 seconds
=== Stratified cross-validation ===
=== Summary ===
Correctly Classified ...
Próximos SlideShares
Carregando em…5
×

A Distribute Approach for Classifying Anuran Species Based on Their Calls

746 visualizações

Publicada em

Classificação distribuida de anuros usando redes de sensores sem fio.

Publicada em: Educação
  • Seja o primeiro a comentar

  • Seja a primeira pessoa a gostar disto

A Distribute Approach for Classifying Anuran Species Based on Their Calls

  1. 1. Classificação de Anuros usando Rede de Sensores Sem Fio Juan Gabriel Colonna Eduardo Freire Nakamura Instituto de Computação (Icomp) Universidade Federal do Amazonas (UFAM)
  2. 2. Projeto ANURA Objetivo: Determinar estresse ecológico usando como indicador as variações das populações de anuros. Sensíveis às mudanças do ecossistema A. andreae Detecção do som Leptodactylus hylaedactylus Lima, A.P.; Erdtmann, L.K.; Ferrão, M., Costeira, J.M.; Oliveira, A.S.; Oliveira, D.M.S. 2012. SAPOTECA: biblioteca de sons e vídeos de anuros amazônicos. CENBAM, Manaus, Amazonas, Brasil. Rhinella major
  3. 3. Reconhecimento de áudio Problemas: detecção e reconhecimento Método: Coeficientes Mel e SVM ou k-NN.
  4. 4. Redes de sensores Cenário 1 Cenário 2 Trade-off: processamento vs transmissão Cenário 3
  5. 5. Colaboração e fusão ● ● Propriedade colaborativa da rede Fusão: média, votação, etc. NAKAMURA, E. F. ; LOUREIRO, A. A. F. ; FRERY, A. C. . Information Fusion for Wireless Sensor Networks: Methods, Models, and Classifications. ACM Computing Surveys, v. 39, p. 9/1-9/55, 2007.
  6. 6. Trabalhos relacionados Err= ErrP +β∗ErrS 1+β Vantagem: imunidade aos ruídos, classificador simples Desvantagem: clusttering (sincronização, escolha de k, descartar clustter), gerar combinações de saída. RIBAS, A. D. ; COLONNA, J. G. ; FIGUEIREDO, C. M. S. ; NAKAMURA, E. F. . Similarity Clustering for Data Fusion in Wireless Sensor Networks Using k-Means. In: International Joint Conference on Neural Networks, 2012, Brisbane. Proceedings of the 2012 International Joint Conference on Neural Networks (IJCNN 2012), 2012. p. 488-494.
  7. 7. O problema da Confusão ● ● ● ● Padrões de sinal misturados Ruídos Outros animais Espécies que não estão na base Scinax ruber Dendropsophus minutus
  8. 8. Objetivo e Hipóteses Objetivo: Elaborar um método de fusão e rejeição que melhore a acurácia de classificação em cenários distribuídos ● ● H1: A técnica de rejeição diminui os erros de classificação. H2: Usar um comitê de sensores é melhor que usar somente um sensor.
  9. 9. Método Método: 1. Cada sensor detecta e classifica; 2. Os vetores de probabilidades a posteriori são transmitidos ao líder; 3. O líder aplica uma votação; 4. Calcula-se a entropia do vetor de probabilidades a posteriori; 5. Aplica-se uma regra de decisão.
  10. 10. Classificadores 1. 2. 3. 4. kNN (k=3) (98.2%) Árvore (94.6%) Naive Bayes (93.6%) Discriminant analysis Distância de Mahalanobis D(i , j)= √( x i−μ j ) S j ( x i −μ j ) T −1 Probabilidade a posteriori q j = p( x i∣μ j , S j ) π j ● Se as Sj de cada grupo são iguais então usamos funções discriminantes lineares log (q j )= ● Senão usamos funções discriminantes quadráticas log (q j )= http://www.mathworks.com/help/stats/discriminant-analysis.html −1 2 D +log (π j )+c 0 2 i, j −1 2 1 D i , j +log(π j )− log∣S j∣+c 0 2 2
  11. 11. Regras de Votação ● ● Cenário: Dado um vetor de características desconhecido x, cada classificador produz as probabilidades a posteriori para as M classes, sendo Pj(wi|x), i=1...M e j=1...L Objetivo: Combinar as probabilidades a posteriori para melhorar a probabilidade final P(wi|x) { L +1 par 2 lc= L+1 impar 2 ● Voto majoritário ● Voto majoritário ponderado (power): Pw= 1 N ∑ x2 L ● Regra geométrica: max w ∏ P j (w i∣x) i j=1 L ● Regra aritmética: 1 P(w i∣x)= ∑ P j (w i∣x) L j =1 Theodoridis, S. and Koutroumbas, K. Pattern Recognition, 4th. Comitê de sensores == Conjunto de Classificadores
  12. 12. Método de Rejeição h=−p i ∑ pi Exemplo: [0 0 . . . 1 . . 0 0] Entropia: -0*log2(0) . . . -1*log2(1) = 0 [0 0,25 . . . 0,75 . . 0 0] Entropia: -0,25*log2(0,25) - 0,75*log2(0,75) = -0,8 [0 0,5 . . . 0,5 . . 0 0] Entropia: -0,5*log2(0,5) – 0,5*log2(0,5) = -1 (rejeitar) Nota: O método de rejeição permite transformar o problema de classificação em um problema bi-classe.
  13. 13. Experimentos ✔ ✔ ✔ ✔ ✔ ✔ Um clustter de 4 sensores formando um grid perturbado separados 5[m] + N~(0,0.1), Tamanho da área 10x10 [mts], 9 Espécies diferentes, Ruído aditivo gaussiano N~(0,0.1), Modelo de atenuação equ.(1) com alfa = 0.10 dB/m, Modelo de combinação linear de sílabas equ.(2) Equação 1 atte= S new =α1∗S1 +α 2 S 2 1 10 α Equação 2 di 20 α= Absorção Atmosférica(dB /m) d i =distância (m) http://www.csgnetwork.com/atmossndabsorbcalc.html S1 =sílaba da espécie 1 S 2 =sílaba da espécie 2
  14. 14. Resultados para um sensor Erro da espécie 1 antes de rejeitar = 0,52 Erro da espécie 2 antes de rejeitar = 0,68 Erro da espécie 1 após rejeitar = 0,37 AUC_sensor1_discriminant = 0.5566 AUC_sensor1_naive = 0.5395
  15. 15. Resultados para um sensor Matriz de confusão da entropia limiar = 0,1 Erro = 0.43 Precisão = TP / (TP+FP) = 0.55 Revocação = TP / (TP+FN) = 0.7 F1 = 0.6 Kappa = 0.23 Matriz de confusão da entropia limiar = 0,2 Erro = 0.45 Precisão = TP / (TP+FP) = 0.55 Revocação = TP / (TP+FN) = 0.55 F1 = 0.55 Kappa = 0.1 previsão Conf 10677 TP 4397 FN Não Conf 8730 FP 6196 TN Conf Não Conf Conf 8412 TP 6662 FN Não Conf 6860 FP 8066 TN Não Conf Conf previsão *Nota: objetivo futuro penaliza FN → 0
  16. 16. Resultados do comitê de sensores
  17. 17. Resultados do comitê de sensores
  18. 18. O ganho após a rejeição Ganho=erro antes de rejeitar−erro após rejeitar
  19. 19. Comportamento dos FN not fn=lim fn→ 0 tp+ fp+tn ≃1 tp+ fp+tn+ fn
  20. 20. ROC – Método discriminante AUC: é uma medida de quão bem o limiar de entropia pode detectar um cenário confuso. AUC_sensor1_discriminant = 0.5566 AUC_geometric_discriminant = 0.5884 http://www.medcalc.org/manual/roc-curves.php AUC_sensor1_naive = 0.5395 AUC_majority_weighted_naive = 0.5742
  21. 21. Conclusões ● ● ● O método de classificação de Naive Bayes produz resultados que variam proporcionalmente ao limiar da entropia (correlação +) com custo de classificação menor; O ganho na taxa de acerto ao usar votação comparada com somente um sensor foi no máximo 5%, sendo pouco significante; Os ganho produzidos deveram-se mais ao efeito da rejeição do que à votação; ● Futuramente usar uma matriz de custos para reduzir os FN. ● Futuramente aplicar Stqacking
  22. 22. Stacking Time taken to build model: 6.48 seconds === Stratified cross-validation === === Summary === Correctly Classified Instances 29407 98.0233 % Incorrectly Classified Instances 593 1.9767 % Kappa statistic 0.9605 Mean absolute error 0.0464 Root mean squared error 0.1401 Relative absolute error 9.2837 % Root relative squared error 28.0186 % Coverage of cases (0.95 level) 99.6367 % Mean rel. region size (0.95 level) 59.8617 % Total Number of Instances 30000 === Detailed Accuracy By Class === TP Rate FP Rate Precision Recall F-Measure MCC ROC Area PRC Area Class 0.967 0.007 0.993 0.967 0.980 0.961 0.996 0.995 1 0.993 0.033 0.968 0.993 0.980 0.961 0.996 0.993 0 Weighted Avg. 0.980 0.020 0.981 0.980 0.980 0.961 0.996 0.994 === Confusion Matrix === a b <-- classified as 14579 495 | a = 1 98 14828 | b = 0

×