SlideShare uma empresa Scribd logo
1 de 13
Baixar para ler offline
Sinalização, comunicação térmica e sincronização
da germinação
V. J. M. Cardoso*1
Introdução
Em estudos sobre a germinação de sementes, análises básicas sobre o
comportamento germinativo da semente em face de variações ambientais
seguem sendo imprescindíveis. Em tais análises, primeiramente é preciso
escolher as variáveis, e depois é preciso saber utilizá-las e interpretá-las. Em
relação às sementes, além da capacidade (germinabilidade) e velocidade de
germinação, outro índice que pode nos fornecer informações importantes é a
sincronização. Por exemplo, Cardoso (1999) utilizou como descritor da
sincronização o índice E, computado a partir da distribuição das freqüências
relativas de germinação da expressão (Labouriau e Valadares, 1976).
O objetivo deste texto é recapitular a fundamentação teórica desse
índice de sincronização, e as informações que ele pode trazer a respeito do
modo como o embrião da semente se comunica como o meio ambiente.
Teoria da comunicação
O índice E ou, como também foi chamado, U (do inglês uncertainty,
incerteza) remete à teoria matemática da comunicação, como formulada por
Claude Shannon e publicada em 1948.
De acordo com Shannon (1948) um sistema de comunicação é
composto basicamente de cinco partes:
1) Uma fonte de informação, que produz a mensagem ou seqüência de
mensagens a serem transmitidas ao terminal receptor. A mensagem pode
1
Professor Adjunto, aposentado pelo Depto. de Botânica, IB, UNESP, Campus de Rio Claro. e-
mail: vjm.cardoso@unesp.br
ser de vários tipos, como uma seqüência de letras ou uma função do
tempo, f(t);
2) Um transmissor, que codifica a mensagem, produzindo um sinal passível
de ser transmitido;
3) O canal, representado simplesmente pelo meio através do qual o sinal
trafega;
4) Um receptor, que decodifica o sinal reconstituindo a mensagem original;
5) O destinatário, pessoa ou coisa a quem a mensagem é enviada.
Para o destinatário que “espera” uma mensagem, informação representa
um decréscimo de incerteza. A incerteza é definida pela expressão:
U = -log2(p) [equação 1], onde p a probabilidade de aparecimento de um
símbolo.
Há incerteza porque não estamos certos se a mensagem enviada
corresponde exatamente à mensagem recebida, e isso está relacionado à
quantidade de ruído na transmissão da mensagem. Assim, numa máquina
capaz de emitir seis letras (por exemplo, A, B, C, D, E e F) com
probabilidades (p) iguais (para cada letra, p = 1/6), U valeria
aproximadamente 2,585. Caso tal máquina emita a letra A, por exemplo, a
incerteza diminuirá para 2,322, já que restaram apenas 5 letras. A questão
também pode ser colocada da seguinte maneira: nossa surpresa ao ver uma
determinada letra i é expressa pela equação, Hi = -log2 (pi).
A surpresa média considerando toda a seqüência de símbolos produzida
pela máquina será, na unidade bits/símbolo:
H = -pi.log2(pi) [equação 2]
No caso de todas as letras apresentarem a mesma probabilidade de
aparecer, a fórmula pode ser simplificada para: H = log2N, sendo N o número
de símbolos. Na condição em que todos os símbolos são equiprováveis,
teremos o máximo valor de H.
A informação (I), definida como um decréscimo da incerteza ou da
surpresa, corresponde à diferença entre a surpresa antes (Ha) e depois (Hd) da
comunicação, ou seja, I = Ha – Hd. Assim, ainda dentro do exemplo acima, a
informação contida em cada símbolo emitido é a diferença entre a incerteza
antes (2,585 bits) e a incerteza depois da emissão de um símbolo (2,322 bits),
isto é, I = 2,585 – 2,322 = 0,263 bits.
Mas, afinal, o que significa “bits/símbolo”? Suponha os símbolos A, C,
G e T, cujas probabilidades (pi) sejam pA = 1/2, pC = 1/4, pG = 1/8 e pT =
1/8.
simbolo probabilidade
(pi)
surpresas
(Hi = -log2pi)
pi.Ui surpresa média
(H = -pi.Ui)
A 1/2 1 bit 0,5
1,75
C 1/4 2 bits 0,5
G 1/8 3 bits 0,375
T 1/8 3 bits 0,375
Nesse caso, a surpresa média será: H = 1,75 bits/símbolo, significando
que serão necessários uma média de 1,75 dígitos binários por símbolo para se
codificar uma seqüência qualquer contendo todos os quatro símbolos (por
exemplo ACATGAAC). Isso quer dizer que tal seqüência não poderia ser
codificada usando-se um número menor de dígitos/símbolo.
Se todos os símbolos apresentassem a mesma probabilidade de
ocorrência (1/4), então a surpresa ou incerteza média seria: H = 2
bits/símbolo; sendo que, nesse caso, cada símbolo carregaria menos
informação do que no caso dos símbolos com probabilidades diferentes, já
que o receptor teria mais “trabalho” em decodificar a mensagem.
A relação entre a surpresa (H) associada a um processo de transmissão
de sinais e seu valor máximo (H’) também pode ser expressa em termos de
uma variável denominada redundância (R). Como mencionado acima, num
alfabeto com número N de símbolos, a surpresa ou incerteza máxima num
gerador de símbolos corresponde a log N, condição em que todos os
símbolos são equiprováveis.
A razão entre H e H’ pode variar de zero a 1. Se a razão é próxima de
1, a quantidade de informação por símbolo (letra, em se tratando do alfabeto)
é baixa, já que muitas letras são necessárias para passar a mensagem. Por outro
lado, se a razão se aproxima de zero, então o conteúdo de informação por
letra é alto, ou seja, a mesma mensagem é passada com uma quantidade
menor de letras.
A redundância num processo de comunicação é essa razão subtraída da
unidade, de acordo com a equação:
R = 1 – (H/log N)  R = 1 – (H/H’) [equação 3]
A redundância indica, em porcentagem, aquilo que é dito “em excesso”
numa mensagem. Comparando-se mensagens de igual tamanho, quando a
razão H/H’ = 1, a informação está dispersa por toda a mensagem e a
redundância, R, é baixa. Por outro lado, se essa razão é igual a zero, a
informação está concentrada numa pequena porção da mensagem, de modo
que a mensagem como um todo contém muita redundância, ou repetição.
Surpresa e incerteza são conceitos equivalentes, com uma diferença
conceitual importante: a incerteza existe antes do recebimento da
mensagem, enquanto que a surpresa existe após o recebimento.
Entropia
Entropia é um conceito que na mecânica clássica mede o grau de
desordem num sistema. Na teoria matemática da comunicação de Shannon
(1947), a surpresa média (equação 2) pode ser reconhecida dentro da fórmula
de entropia (S) definida no teorema de Boltzmann:
S = k.logn W [equação 4], onde: k é a constante de Boltzmann; e W a
probabilidade do sistema existir num determinado estado.
Reconhecendo a conexão entre as definições de incerteza e entropia,
Shannon chamou seu índice H de entropia informacional. Como já vimos, um
postulado da teoria da informação prova que a entropia informacional é
máxima quando todos os sinais ocorrem com a mesma probabilidade ou
freqüência, situação em que a desorganização do sistema é máxima. A
entropia informacional pode ser medida tanto na forma de bits, se usarmos
log2 na fórmula de E, ou nats, se usarmos logaritmo natural, que expressa a
desorganização de uma dada distribuição, tanto de objetos como de unidades
de informação.
Mas qual a analogia entre comunicação e germinação de sementes? O
que expressões como informação, incerteza e entropia informacional podem
contribuir para o conhecimento do processo fisiológico da germinação?
Germinação e comunicação
A germinação pode ser analisada em termos da distribuição do número
de sementes germinadas em diferentes intervalos de tempo, o que nos permite
agrupar as sementes em diferentes classes de freqüência. Tais agrupamentos
podem ser descritos por intermédio de um código binário (digamos, 1 =
germinação; 0 = ausência de germinação), o que requer uma determinada
quantidade de dígitos. Desse modo, se ni sementes germinam no intervalo de
tempo i, a quantidade de dígitos binários (Xi) necessários para codificar a
quantidade de germinações – tratadas como eventos independentes – em cada
um desses intervalos é calculada pela equação:
Xi = log2ni [equação 5], onde ni é o número de germinações no
intervalo i.
Assim, ao fim do experimento, quando N (número total de
germinações; o mesmo que ni) sementes tiverem germinado, com base na
equação 2, a surpresa média (X) relativa às germinações em todos os
intervalos amostrais será dada pela equação:
X = (ni.Xi)/ni  (ni.log2ni.)/ni [equação 6]
Se todas as n sementes apresentarem a mesma probabilidade de
germinar após um dado intervalo de tempo, então o número de dígitos
necessário para classificar a distribuição das freqüências será X’ = log2N, que
corresponde à máxima incerteza (Labouriau e Valadares, 1976). O Quadro
abaixo mostra as duas situações para um experimento hipotético com N = 60:
na primeira (colunas A e B), o valor de X (calculado pela equação 1) é 3,65,
enquanto que na segunda (colunas F e G), X = 5,91 (o mesmo que log2N):
Quadro 1. Incertezas associadas à germinação (colunas E e J), estimadas com
base na equação 2, em duas situações: germinações distribuídas em vários dias
(coluna B); germinação concentrada num único dia (coluna G). ti = dias de
contagem; ni = número de sementes germinadas no dia ti.; log = logaritmo
base 2. Número total de germinações (N) = 60.
Com base nos valores de surpresa/incerteza associados a uma
distribuição de germinação, LABOURIAU e VALADARES (1976)
propuseram um índice para medir a sincronização (E) da germinação de
sementes individualizadas, expresso pela equação:
E = log2 N – (ni.log2ni)/N [equação 7]
Como se percebe, o valor de E corresponde à diferença entre a máxima
incerteza (X’ = log2N, equivalente a H’) e a incerteza observada (X =
ni.log2ni/N, equivalente a H). Portanto, quanto menor a diferença entre a X’
(quando todas as sementes germinam ao mesmo tempo) e X, menor o índice E,
e mais sincronizada é a germinação.
Conforme sugerido por Labouriau (1983), se expressarmos a
germinação pelas respectivas freqüências relativas (fi = ni/N → ni = N.fi),
fazendo-se as substituições na equação 7, o índice E pode ser expresso pela
equação:
E = log2 N – [(N.fi.).log2(N.fi)]/N → E = - fi.log2fi [equação 8]
A equação 8, conforme aponta Labouriau (1983), é igual à da entropia
informacional de Shannon, H = - pi.log pi, ou seja, o índice E também pode
expressar a entropia associada à distribuição de freqüências de germinação.
Assim, considerando-se apenas a natureza da comunicação entre o sinal
ambiental (por exemplo, a temperatura) e o embrião, quanto maior E, maior a
entropia associada à distribuição de freqüências de germinação, e menor a
sincronização (Quadro 2).
Quadro 2. Cálculo do índice E (colunas E e J) com base nas frequências
relativas de germinação, em duas situações: germinações distribuídas em
vários dias (coluna B); e germinações concentradas num único dia (coluna G).
ti = dias de contagem; ni = número de sementes germinadas no dia ti.; log =
logaritmo base 2. Número total de germinações (N) = 60.
Observa-se que o valor de E (2,25 bits) corresponde à diferença entre
as incertezas máxima (5,91) e observada (3,65) associadas à distribuição das
germinações no Quadro 1. Em trabalhos posteriores (Labouriau e Osborn,
1984), Labouriau passou a utilizar o símbolo U (do inglês, uncertainty) ao invés
de E.
O valor mínimo de E (diferença entre X e X’ = E = 0), traduzido para
sementes, significa a completa homogeneidade fisiológica do lote, podendo as
sementes serem consideradas fisiologicamente indistinguíveis entre si.
Desse modo, o índice E pode expressar informação, entropia ou
sincronização. Em unidades de informação, quanto maior o valor de E, menor a
incerteza ou surpresa associada à distribuição das germinações ao longo do
tempo, maior a entropia associada à transmissão do sinal ambiental (por
exemplo, o sinal térmico) e menor a sincronização. O termo “sincronização”
talvez seja o menos apropriado para descrever o índice E, já que a
sincronização (S) propriamente dita está diretamente relacionada à média de
distribuições das germinações em todos os intervalos amostrais, conforme a
equação:
S = [(N.fi.).log2(N.fi)]/N [equação 9], onde: N = número total de
sementes germinadas; e fi = frequência de germinação no intervalo de tempo
i.
Transmissão do sinal térmico
A natureza da comunicação térmica entre as sementes e o meio
ambiente pode também ser analisada por intermédio de testes de aderência
das distribuições de freqüência da germinação isotérmica às respectivas
normais ajustadas (Labouriau e Valadares, 1976) admitindo-se que, com o
aumento do tamanho da amostra, tais distribuições podem ser tratadas como
contínuas. No caso de distribuições contínuas unidimensionais de média
aritmética x e desvio padrão , a condição de máxima entropia é verificada na
distribuição normal, conforme demonstrado por Shannon (1948). A entropia
de uma distribuição desse tipo é dada pela equação:
H(x) = log2e [equação 10], onde:  ≈ 3,141593; e = base dos
logaritmos naturais (2,71828);  = desvio padrão da amostra.
Isso implica numa relação direta entre a variância e a entropia da
distribuição, com a máxima variância produzindo a máxima entropia.
Na semente, considerando-se temperatura do meio constante, a
incerteza associada à resposta das sementes à temperatura deve decorrer dos
efeitos da entropia no canal de transmissão do sinal térmico ao embrião. No
caso da distribuição de freqüências de germinação isotérmica, a entropia
máxima (Emax) é calculada, de acordo com Labouriau e Valadares (1976), por
intermédio da fórmula:
Emax = ½ log2 (2es2
t) [equação 11], onde: s2
t = variância do tempo
médio de germinação = ni.(ti-tm)2
/(N-1), onde ni é o número de sementes
germinadas no intervalo de tempo ti, e tm é o tempo médio de germinação.
Nesse caso, a redundância (R), expressa em porcentagem, representa a
razão entre E (equação 8) e Emax (equação 11) subtraída da unidade:
R = - 100.[1 – (E/Emax)] [equação 12]
Considerando-se a comunicação térmica entre o meio e o embrião da
semente, Labouriau (1983) explica que isso se dá por ruído térmico (colisões
moleculares aleatórias) quando e entropia associada à distribuição de
freqüências de germinação é máxima. Se esse não for o caso, há um sinal
superposto ao ruído, cuja natureza fisiológica deve estar relacionada a
processos de transconformação proteica. Sendo a distribuição de máxima
entropia gaussiana ou normal (vide acima), dada uma distribuição de
freqüências de germinação isotérmica, conhecendo-se o tempo médio de
germinação (tm = (ni.ti)/N) e o desvio padrão do tempo médio ( =
[ni.(ti.tm)2
/(N-1)]0,5
), pode-se calcular as freqüências esperadas (Y) de acordo
com a distribuição normal:
Y = [1/(.2.)].e^[-(ti-tm)2
/(2.2
)] [equação 13]
Se a distribuição das frequências observadas (fi) não diferir
estatisticamente (teste de Kolmogorov-Smirnov, por exemplo) da distribuição
observada (Y), então pode-se assumir a distribuição experimental como sendo
gaussiana.
A Figura 1, elaborada a partir de dados de Labouriau e Osborn (1984),
mostra a aplicação de algumas das variáveis discutidas acima, num
experimento sobre a dependência térmica da germinação de sementes de
tomate. Os valores de entropia (E), entropia máxima (Emax), sincronização
(S), e redundância (R foram calculados, respectivamente, de acordo com as
equações 8, 11, 9 e 12. Notar que, próximo às temperaturas cardeais mínima e
máxima, as frequências de germinação apresentam distribuição normal, os
valores de Emax são mais elevados e a sincronização é mais baixa. A
redundância e a entropia apresentam tendências opostas (uma curva é
praticamente a imagem especular da outra), o mesmo podendo-se afirmar em
relação à Emax e à sincronização.
Neste texto, o objetivo não é discutir em detalhes o significado desses
resultados, mas, num panorama geral, poderíamos dizer que em temperaturas
abaixo de 20 °C, as sementes de tomate passam a reconhecer e a responder
menos ao sinal térmico, o que se manifesta em termos de uma baixa
sincronização da germinação (além, é claro, da velocidade e germinabilidade).
Além disso, a redundância tende a aumentar em direção à faixa ótima, quando
provavelmente mais moléculas são mobilizadas e envolvidas na transmissão
do sinal térmico. Outro detalhe é que a sincronização propriamente dita tende
a ser baixa às temperaturas mais próxima das extremidades, sendo que nessas
regiões a comunicação térmica entre o embrião e o meio deve conter muito
“ruído térmico”, ou seja, a comunicação deve depender de colisões
moleculares aleatórias, tipo movimento browniano (Labouriau, 1983).
Figura 1. Entropia (E), entropia máxima (Emax), sincronização (S) e
redundância (R) da distribuição de frequências relativas da germinação
isotérmica de sementes de tomate (Labouriau e Osborn, 1984). Áreas cobertas
pelas barras verticais azuis indicam os intervalos térmicos em que a
distribuição das frequências não diferiu das respectivas normais ajustadas.
Barra laranja indica a faixa térmica ótima de germinação (máxima velocidade e
germinabilidade).
Este é um exemplo de como a análise das distribuições de frequências
de germinação possibilita inferências sobre a natureza da comunicação térmica
entre o ambiente externo e o embrião, servindo de base para estudos mais
aprofundados sobre a natureza fisiológica e as bases moleculares dos
processos envolvidos nessas respostas
Referências
CARDOSO, V.J.M. Thermal dependence of the germination of Catharanthus
roseus seeds. Revista Brasileira de Fisiologia Vegetal 11(1): 41-49,
1999.
LABOURIAU, L.G. A Germinação das Sementes, Secretaria Geral da
OEA, Washington, 1983.
LABOURIAU, L.G. e OSBORN, J.H. Temperature dependence of the
germination of tomato seeds. Journal of Thermal Biology 9(4): 285-
294, 1984.
LABOURIAU, L.G. e VALADARES, M.F.B. On the germination of seeds of
Calotropis procera. Anais Academia Brasileira de Ciências 48(2): 263-
284, 1976.
SHANNON, C.E. A mathematical theory of communication. The Bell
System Technical Journal 27: 379-423, 1948.

Mais conteúdo relacionado

Destaque

PEPSICO Presentation to CAGNY Conference Feb 2024
PEPSICO Presentation to CAGNY Conference Feb 2024PEPSICO Presentation to CAGNY Conference Feb 2024
PEPSICO Presentation to CAGNY Conference Feb 2024Neil Kimberley
 
Content Methodology: A Best Practices Report (Webinar)
Content Methodology: A Best Practices Report (Webinar)Content Methodology: A Best Practices Report (Webinar)
Content Methodology: A Best Practices Report (Webinar)contently
 
How to Prepare For a Successful Job Search for 2024
How to Prepare For a Successful Job Search for 2024How to Prepare For a Successful Job Search for 2024
How to Prepare For a Successful Job Search for 2024Albert Qian
 
Social Media Marketing Trends 2024 // The Global Indie Insights
Social Media Marketing Trends 2024 // The Global Indie InsightsSocial Media Marketing Trends 2024 // The Global Indie Insights
Social Media Marketing Trends 2024 // The Global Indie InsightsKurio // The Social Media Age(ncy)
 
Trends In Paid Search: Navigating The Digital Landscape In 2024
Trends In Paid Search: Navigating The Digital Landscape In 2024Trends In Paid Search: Navigating The Digital Landscape In 2024
Trends In Paid Search: Navigating The Digital Landscape In 2024Search Engine Journal
 
5 Public speaking tips from TED - Visualized summary
5 Public speaking tips from TED - Visualized summary5 Public speaking tips from TED - Visualized summary
5 Public speaking tips from TED - Visualized summarySpeakerHub
 
ChatGPT and the Future of Work - Clark Boyd
ChatGPT and the Future of Work - Clark Boyd ChatGPT and the Future of Work - Clark Boyd
ChatGPT and the Future of Work - Clark Boyd Clark Boyd
 
Getting into the tech field. what next
Getting into the tech field. what next Getting into the tech field. what next
Getting into the tech field. what next Tessa Mero
 
Google's Just Not That Into You: Understanding Core Updates & Search Intent
Google's Just Not That Into You: Understanding Core Updates & Search IntentGoogle's Just Not That Into You: Understanding Core Updates & Search Intent
Google's Just Not That Into You: Understanding Core Updates & Search IntentLily Ray
 
Time Management & Productivity - Best Practices
Time Management & Productivity -  Best PracticesTime Management & Productivity -  Best Practices
Time Management & Productivity - Best PracticesVit Horky
 
The six step guide to practical project management
The six step guide to practical project managementThe six step guide to practical project management
The six step guide to practical project managementMindGenius
 
Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...
Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...
Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...RachelPearson36
 
Unlocking the Power of ChatGPT and AI in Testing - A Real-World Look, present...
Unlocking the Power of ChatGPT and AI in Testing - A Real-World Look, present...Unlocking the Power of ChatGPT and AI in Testing - A Real-World Look, present...
Unlocking the Power of ChatGPT and AI in Testing - A Real-World Look, present...Applitools
 
12 Ways to Increase Your Influence at Work
12 Ways to Increase Your Influence at Work12 Ways to Increase Your Influence at Work
12 Ways to Increase Your Influence at WorkGetSmarter
 
Ride the Storm: Navigating Through Unstable Periods / Katerina Rudko (Belka G...
Ride the Storm: Navigating Through Unstable Periods / Katerina Rudko (Belka G...Ride the Storm: Navigating Through Unstable Periods / Katerina Rudko (Belka G...
Ride the Storm: Navigating Through Unstable Periods / Katerina Rudko (Belka G...DevGAMM Conference
 

Destaque (20)

Skeleton Culture Code
Skeleton Culture CodeSkeleton Culture Code
Skeleton Culture Code
 
PEPSICO Presentation to CAGNY Conference Feb 2024
PEPSICO Presentation to CAGNY Conference Feb 2024PEPSICO Presentation to CAGNY Conference Feb 2024
PEPSICO Presentation to CAGNY Conference Feb 2024
 
Content Methodology: A Best Practices Report (Webinar)
Content Methodology: A Best Practices Report (Webinar)Content Methodology: A Best Practices Report (Webinar)
Content Methodology: A Best Practices Report (Webinar)
 
How to Prepare For a Successful Job Search for 2024
How to Prepare For a Successful Job Search for 2024How to Prepare For a Successful Job Search for 2024
How to Prepare For a Successful Job Search for 2024
 
Social Media Marketing Trends 2024 // The Global Indie Insights
Social Media Marketing Trends 2024 // The Global Indie InsightsSocial Media Marketing Trends 2024 // The Global Indie Insights
Social Media Marketing Trends 2024 // The Global Indie Insights
 
Trends In Paid Search: Navigating The Digital Landscape In 2024
Trends In Paid Search: Navigating The Digital Landscape In 2024Trends In Paid Search: Navigating The Digital Landscape In 2024
Trends In Paid Search: Navigating The Digital Landscape In 2024
 
5 Public speaking tips from TED - Visualized summary
5 Public speaking tips from TED - Visualized summary5 Public speaking tips from TED - Visualized summary
5 Public speaking tips from TED - Visualized summary
 
ChatGPT and the Future of Work - Clark Boyd
ChatGPT and the Future of Work - Clark Boyd ChatGPT and the Future of Work - Clark Boyd
ChatGPT and the Future of Work - Clark Boyd
 
Getting into the tech field. what next
Getting into the tech field. what next Getting into the tech field. what next
Getting into the tech field. what next
 
Google's Just Not That Into You: Understanding Core Updates & Search Intent
Google's Just Not That Into You: Understanding Core Updates & Search IntentGoogle's Just Not That Into You: Understanding Core Updates & Search Intent
Google's Just Not That Into You: Understanding Core Updates & Search Intent
 
How to have difficult conversations
How to have difficult conversations How to have difficult conversations
How to have difficult conversations
 
Introduction to Data Science
Introduction to Data ScienceIntroduction to Data Science
Introduction to Data Science
 
Time Management & Productivity - Best Practices
Time Management & Productivity -  Best PracticesTime Management & Productivity -  Best Practices
Time Management & Productivity - Best Practices
 
The six step guide to practical project management
The six step guide to practical project managementThe six step guide to practical project management
The six step guide to practical project management
 
Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...
Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...
Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...
 
Unlocking the Power of ChatGPT and AI in Testing - A Real-World Look, present...
Unlocking the Power of ChatGPT and AI in Testing - A Real-World Look, present...Unlocking the Power of ChatGPT and AI in Testing - A Real-World Look, present...
Unlocking the Power of ChatGPT and AI in Testing - A Real-World Look, present...
 
12 Ways to Increase Your Influence at Work
12 Ways to Increase Your Influence at Work12 Ways to Increase Your Influence at Work
12 Ways to Increase Your Influence at Work
 
ChatGPT webinar slides
ChatGPT webinar slidesChatGPT webinar slides
ChatGPT webinar slides
 
More than Just Lines on a Map: Best Practices for U.S Bike Routes
More than Just Lines on a Map: Best Practices for U.S Bike RoutesMore than Just Lines on a Map: Best Practices for U.S Bike Routes
More than Just Lines on a Map: Best Practices for U.S Bike Routes
 
Ride the Storm: Navigating Through Unstable Periods / Katerina Rudko (Belka G...
Ride the Storm: Navigating Through Unstable Periods / Katerina Rudko (Belka G...Ride the Storm: Navigating Through Unstable Periods / Katerina Rudko (Belka G...
Ride the Storm: Navigating Through Unstable Periods / Katerina Rudko (Belka G...
 

Sinalização, Comunicação Térmica e Sincronização da Germinação

  • 1. Sinalização, comunicação térmica e sincronização da germinação V. J. M. Cardoso*1 Introdução Em estudos sobre a germinação de sementes, análises básicas sobre o comportamento germinativo da semente em face de variações ambientais seguem sendo imprescindíveis. Em tais análises, primeiramente é preciso escolher as variáveis, e depois é preciso saber utilizá-las e interpretá-las. Em relação às sementes, além da capacidade (germinabilidade) e velocidade de germinação, outro índice que pode nos fornecer informações importantes é a sincronização. Por exemplo, Cardoso (1999) utilizou como descritor da sincronização o índice E, computado a partir da distribuição das freqüências relativas de germinação da expressão (Labouriau e Valadares, 1976). O objetivo deste texto é recapitular a fundamentação teórica desse índice de sincronização, e as informações que ele pode trazer a respeito do modo como o embrião da semente se comunica como o meio ambiente. Teoria da comunicação O índice E ou, como também foi chamado, U (do inglês uncertainty, incerteza) remete à teoria matemática da comunicação, como formulada por Claude Shannon e publicada em 1948. De acordo com Shannon (1948) um sistema de comunicação é composto basicamente de cinco partes: 1) Uma fonte de informação, que produz a mensagem ou seqüência de mensagens a serem transmitidas ao terminal receptor. A mensagem pode 1 Professor Adjunto, aposentado pelo Depto. de Botânica, IB, UNESP, Campus de Rio Claro. e- mail: vjm.cardoso@unesp.br
  • 2. ser de vários tipos, como uma seqüência de letras ou uma função do tempo, f(t); 2) Um transmissor, que codifica a mensagem, produzindo um sinal passível de ser transmitido; 3) O canal, representado simplesmente pelo meio através do qual o sinal trafega; 4) Um receptor, que decodifica o sinal reconstituindo a mensagem original; 5) O destinatário, pessoa ou coisa a quem a mensagem é enviada. Para o destinatário que “espera” uma mensagem, informação representa um decréscimo de incerteza. A incerteza é definida pela expressão: U = -log2(p) [equação 1], onde p a probabilidade de aparecimento de um símbolo. Há incerteza porque não estamos certos se a mensagem enviada corresponde exatamente à mensagem recebida, e isso está relacionado à quantidade de ruído na transmissão da mensagem. Assim, numa máquina capaz de emitir seis letras (por exemplo, A, B, C, D, E e F) com probabilidades (p) iguais (para cada letra, p = 1/6), U valeria aproximadamente 2,585. Caso tal máquina emita a letra A, por exemplo, a incerteza diminuirá para 2,322, já que restaram apenas 5 letras. A questão também pode ser colocada da seguinte maneira: nossa surpresa ao ver uma determinada letra i é expressa pela equação, Hi = -log2 (pi). A surpresa média considerando toda a seqüência de símbolos produzida pela máquina será, na unidade bits/símbolo: H = -pi.log2(pi) [equação 2] No caso de todas as letras apresentarem a mesma probabilidade de aparecer, a fórmula pode ser simplificada para: H = log2N, sendo N o número
  • 3. de símbolos. Na condição em que todos os símbolos são equiprováveis, teremos o máximo valor de H. A informação (I), definida como um decréscimo da incerteza ou da surpresa, corresponde à diferença entre a surpresa antes (Ha) e depois (Hd) da comunicação, ou seja, I = Ha – Hd. Assim, ainda dentro do exemplo acima, a informação contida em cada símbolo emitido é a diferença entre a incerteza antes (2,585 bits) e a incerteza depois da emissão de um símbolo (2,322 bits), isto é, I = 2,585 – 2,322 = 0,263 bits. Mas, afinal, o que significa “bits/símbolo”? Suponha os símbolos A, C, G e T, cujas probabilidades (pi) sejam pA = 1/2, pC = 1/4, pG = 1/8 e pT = 1/8. simbolo probabilidade (pi) surpresas (Hi = -log2pi) pi.Ui surpresa média (H = -pi.Ui) A 1/2 1 bit 0,5 1,75 C 1/4 2 bits 0,5 G 1/8 3 bits 0,375 T 1/8 3 bits 0,375 Nesse caso, a surpresa média será: H = 1,75 bits/símbolo, significando que serão necessários uma média de 1,75 dígitos binários por símbolo para se codificar uma seqüência qualquer contendo todos os quatro símbolos (por exemplo ACATGAAC). Isso quer dizer que tal seqüência não poderia ser codificada usando-se um número menor de dígitos/símbolo. Se todos os símbolos apresentassem a mesma probabilidade de ocorrência (1/4), então a surpresa ou incerteza média seria: H = 2 bits/símbolo; sendo que, nesse caso, cada símbolo carregaria menos informação do que no caso dos símbolos com probabilidades diferentes, já que o receptor teria mais “trabalho” em decodificar a mensagem.
  • 4. A relação entre a surpresa (H) associada a um processo de transmissão de sinais e seu valor máximo (H’) também pode ser expressa em termos de uma variável denominada redundância (R). Como mencionado acima, num alfabeto com número N de símbolos, a surpresa ou incerteza máxima num gerador de símbolos corresponde a log N, condição em que todos os símbolos são equiprováveis. A razão entre H e H’ pode variar de zero a 1. Se a razão é próxima de 1, a quantidade de informação por símbolo (letra, em se tratando do alfabeto) é baixa, já que muitas letras são necessárias para passar a mensagem. Por outro lado, se a razão se aproxima de zero, então o conteúdo de informação por letra é alto, ou seja, a mesma mensagem é passada com uma quantidade menor de letras. A redundância num processo de comunicação é essa razão subtraída da unidade, de acordo com a equação: R = 1 – (H/log N)  R = 1 – (H/H’) [equação 3] A redundância indica, em porcentagem, aquilo que é dito “em excesso” numa mensagem. Comparando-se mensagens de igual tamanho, quando a razão H/H’ = 1, a informação está dispersa por toda a mensagem e a redundância, R, é baixa. Por outro lado, se essa razão é igual a zero, a informação está concentrada numa pequena porção da mensagem, de modo que a mensagem como um todo contém muita redundância, ou repetição. Surpresa e incerteza são conceitos equivalentes, com uma diferença conceitual importante: a incerteza existe antes do recebimento da mensagem, enquanto que a surpresa existe após o recebimento. Entropia Entropia é um conceito que na mecânica clássica mede o grau de desordem num sistema. Na teoria matemática da comunicação de Shannon
  • 5. (1947), a surpresa média (equação 2) pode ser reconhecida dentro da fórmula de entropia (S) definida no teorema de Boltzmann: S = k.logn W [equação 4], onde: k é a constante de Boltzmann; e W a probabilidade do sistema existir num determinado estado. Reconhecendo a conexão entre as definições de incerteza e entropia, Shannon chamou seu índice H de entropia informacional. Como já vimos, um postulado da teoria da informação prova que a entropia informacional é máxima quando todos os sinais ocorrem com a mesma probabilidade ou freqüência, situação em que a desorganização do sistema é máxima. A entropia informacional pode ser medida tanto na forma de bits, se usarmos log2 na fórmula de E, ou nats, se usarmos logaritmo natural, que expressa a desorganização de uma dada distribuição, tanto de objetos como de unidades de informação. Mas qual a analogia entre comunicação e germinação de sementes? O que expressões como informação, incerteza e entropia informacional podem contribuir para o conhecimento do processo fisiológico da germinação? Germinação e comunicação A germinação pode ser analisada em termos da distribuição do número de sementes germinadas em diferentes intervalos de tempo, o que nos permite agrupar as sementes em diferentes classes de freqüência. Tais agrupamentos podem ser descritos por intermédio de um código binário (digamos, 1 = germinação; 0 = ausência de germinação), o que requer uma determinada quantidade de dígitos. Desse modo, se ni sementes germinam no intervalo de tempo i, a quantidade de dígitos binários (Xi) necessários para codificar a quantidade de germinações – tratadas como eventos independentes – em cada um desses intervalos é calculada pela equação:
  • 6. Xi = log2ni [equação 5], onde ni é o número de germinações no intervalo i. Assim, ao fim do experimento, quando N (número total de germinações; o mesmo que ni) sementes tiverem germinado, com base na equação 2, a surpresa média (X) relativa às germinações em todos os intervalos amostrais será dada pela equação: X = (ni.Xi)/ni  (ni.log2ni.)/ni [equação 6] Se todas as n sementes apresentarem a mesma probabilidade de germinar após um dado intervalo de tempo, então o número de dígitos necessário para classificar a distribuição das freqüências será X’ = log2N, que corresponde à máxima incerteza (Labouriau e Valadares, 1976). O Quadro abaixo mostra as duas situações para um experimento hipotético com N = 60: na primeira (colunas A e B), o valor de X (calculado pela equação 1) é 3,65, enquanto que na segunda (colunas F e G), X = 5,91 (o mesmo que log2N): Quadro 1. Incertezas associadas à germinação (colunas E e J), estimadas com base na equação 2, em duas situações: germinações distribuídas em vários dias (coluna B); germinação concentrada num único dia (coluna G). ti = dias de contagem; ni = número de sementes germinadas no dia ti.; log = logaritmo base 2. Número total de germinações (N) = 60. Com base nos valores de surpresa/incerteza associados a uma distribuição de germinação, LABOURIAU e VALADARES (1976)
  • 7. propuseram um índice para medir a sincronização (E) da germinação de sementes individualizadas, expresso pela equação: E = log2 N – (ni.log2ni)/N [equação 7] Como se percebe, o valor de E corresponde à diferença entre a máxima incerteza (X’ = log2N, equivalente a H’) e a incerteza observada (X = ni.log2ni/N, equivalente a H). Portanto, quanto menor a diferença entre a X’ (quando todas as sementes germinam ao mesmo tempo) e X, menor o índice E, e mais sincronizada é a germinação. Conforme sugerido por Labouriau (1983), se expressarmos a germinação pelas respectivas freqüências relativas (fi = ni/N → ni = N.fi), fazendo-se as substituições na equação 7, o índice E pode ser expresso pela equação: E = log2 N – [(N.fi.).log2(N.fi)]/N → E = - fi.log2fi [equação 8] A equação 8, conforme aponta Labouriau (1983), é igual à da entropia informacional de Shannon, H = - pi.log pi, ou seja, o índice E também pode expressar a entropia associada à distribuição de freqüências de germinação. Assim, considerando-se apenas a natureza da comunicação entre o sinal ambiental (por exemplo, a temperatura) e o embrião, quanto maior E, maior a entropia associada à distribuição de freqüências de germinação, e menor a sincronização (Quadro 2). Quadro 2. Cálculo do índice E (colunas E e J) com base nas frequências relativas de germinação, em duas situações: germinações distribuídas em vários dias (coluna B); e germinações concentradas num único dia (coluna G). ti = dias de contagem; ni = número de sementes germinadas no dia ti.; log = logaritmo base 2. Número total de germinações (N) = 60.
  • 8. Observa-se que o valor de E (2,25 bits) corresponde à diferença entre as incertezas máxima (5,91) e observada (3,65) associadas à distribuição das germinações no Quadro 1. Em trabalhos posteriores (Labouriau e Osborn, 1984), Labouriau passou a utilizar o símbolo U (do inglês, uncertainty) ao invés de E. O valor mínimo de E (diferença entre X e X’ = E = 0), traduzido para sementes, significa a completa homogeneidade fisiológica do lote, podendo as sementes serem consideradas fisiologicamente indistinguíveis entre si. Desse modo, o índice E pode expressar informação, entropia ou sincronização. Em unidades de informação, quanto maior o valor de E, menor a incerteza ou surpresa associada à distribuição das germinações ao longo do tempo, maior a entropia associada à transmissão do sinal ambiental (por exemplo, o sinal térmico) e menor a sincronização. O termo “sincronização” talvez seja o menos apropriado para descrever o índice E, já que a sincronização (S) propriamente dita está diretamente relacionada à média de distribuições das germinações em todos os intervalos amostrais, conforme a equação: S = [(N.fi.).log2(N.fi)]/N [equação 9], onde: N = número total de sementes germinadas; e fi = frequência de germinação no intervalo de tempo i.
  • 9. Transmissão do sinal térmico A natureza da comunicação térmica entre as sementes e o meio ambiente pode também ser analisada por intermédio de testes de aderência das distribuições de freqüência da germinação isotérmica às respectivas normais ajustadas (Labouriau e Valadares, 1976) admitindo-se que, com o aumento do tamanho da amostra, tais distribuições podem ser tratadas como contínuas. No caso de distribuições contínuas unidimensionais de média aritmética x e desvio padrão , a condição de máxima entropia é verificada na distribuição normal, conforme demonstrado por Shannon (1948). A entropia de uma distribuição desse tipo é dada pela equação: H(x) = log2e [equação 10], onde:  ≈ 3,141593; e = base dos logaritmos naturais (2,71828);  = desvio padrão da amostra. Isso implica numa relação direta entre a variância e a entropia da distribuição, com a máxima variância produzindo a máxima entropia. Na semente, considerando-se temperatura do meio constante, a incerteza associada à resposta das sementes à temperatura deve decorrer dos efeitos da entropia no canal de transmissão do sinal térmico ao embrião. No caso da distribuição de freqüências de germinação isotérmica, a entropia máxima (Emax) é calculada, de acordo com Labouriau e Valadares (1976), por intermédio da fórmula: Emax = ½ log2 (2es2 t) [equação 11], onde: s2 t = variância do tempo médio de germinação = ni.(ti-tm)2 /(N-1), onde ni é o número de sementes germinadas no intervalo de tempo ti, e tm é o tempo médio de germinação. Nesse caso, a redundância (R), expressa em porcentagem, representa a razão entre E (equação 8) e Emax (equação 11) subtraída da unidade: R = - 100.[1 – (E/Emax)] [equação 12]
  • 10. Considerando-se a comunicação térmica entre o meio e o embrião da semente, Labouriau (1983) explica que isso se dá por ruído térmico (colisões moleculares aleatórias) quando e entropia associada à distribuição de freqüências de germinação é máxima. Se esse não for o caso, há um sinal superposto ao ruído, cuja natureza fisiológica deve estar relacionada a processos de transconformação proteica. Sendo a distribuição de máxima entropia gaussiana ou normal (vide acima), dada uma distribuição de freqüências de germinação isotérmica, conhecendo-se o tempo médio de germinação (tm = (ni.ti)/N) e o desvio padrão do tempo médio ( = [ni.(ti.tm)2 /(N-1)]0,5 ), pode-se calcular as freqüências esperadas (Y) de acordo com a distribuição normal: Y = [1/(.2.)].e^[-(ti-tm)2 /(2.2 )] [equação 13] Se a distribuição das frequências observadas (fi) não diferir estatisticamente (teste de Kolmogorov-Smirnov, por exemplo) da distribuição observada (Y), então pode-se assumir a distribuição experimental como sendo gaussiana. A Figura 1, elaborada a partir de dados de Labouriau e Osborn (1984), mostra a aplicação de algumas das variáveis discutidas acima, num experimento sobre a dependência térmica da germinação de sementes de tomate. Os valores de entropia (E), entropia máxima (Emax), sincronização (S), e redundância (R foram calculados, respectivamente, de acordo com as equações 8, 11, 9 e 12. Notar que, próximo às temperaturas cardeais mínima e máxima, as frequências de germinação apresentam distribuição normal, os valores de Emax são mais elevados e a sincronização é mais baixa. A redundância e a entropia apresentam tendências opostas (uma curva é praticamente a imagem especular da outra), o mesmo podendo-se afirmar em relação à Emax e à sincronização.
  • 11. Neste texto, o objetivo não é discutir em detalhes o significado desses resultados, mas, num panorama geral, poderíamos dizer que em temperaturas abaixo de 20 °C, as sementes de tomate passam a reconhecer e a responder menos ao sinal térmico, o que se manifesta em termos de uma baixa sincronização da germinação (além, é claro, da velocidade e germinabilidade). Além disso, a redundância tende a aumentar em direção à faixa ótima, quando provavelmente mais moléculas são mobilizadas e envolvidas na transmissão do sinal térmico. Outro detalhe é que a sincronização propriamente dita tende a ser baixa às temperaturas mais próxima das extremidades, sendo que nessas regiões a comunicação térmica entre o embrião e o meio deve conter muito “ruído térmico”, ou seja, a comunicação deve depender de colisões moleculares aleatórias, tipo movimento browniano (Labouriau, 1983). Figura 1. Entropia (E), entropia máxima (Emax), sincronização (S) e redundância (R) da distribuição de frequências relativas da germinação
  • 12. isotérmica de sementes de tomate (Labouriau e Osborn, 1984). Áreas cobertas pelas barras verticais azuis indicam os intervalos térmicos em que a distribuição das frequências não diferiu das respectivas normais ajustadas. Barra laranja indica a faixa térmica ótima de germinação (máxima velocidade e germinabilidade). Este é um exemplo de como a análise das distribuições de frequências de germinação possibilita inferências sobre a natureza da comunicação térmica entre o ambiente externo e o embrião, servindo de base para estudos mais aprofundados sobre a natureza fisiológica e as bases moleculares dos processos envolvidos nessas respostas
  • 13. Referências CARDOSO, V.J.M. Thermal dependence of the germination of Catharanthus roseus seeds. Revista Brasileira de Fisiologia Vegetal 11(1): 41-49, 1999. LABOURIAU, L.G. A Germinação das Sementes, Secretaria Geral da OEA, Washington, 1983. LABOURIAU, L.G. e OSBORN, J.H. Temperature dependence of the germination of tomato seeds. Journal of Thermal Biology 9(4): 285- 294, 1984. LABOURIAU, L.G. e VALADARES, M.F.B. On the germination of seeds of Calotropis procera. Anais Academia Brasileira de Ciências 48(2): 263- 284, 1976. SHANNON, C.E. A mathematical theory of communication. The Bell System Technical Journal 27: 379-423, 1948.