Esse webinar tem por finalidade apresentar os conceitos das principais técnicas atuais para a análise de distribuição de tamanho de partículas (Difração de Laser, Espalhamento Dinâmico de Luz – DLS, Imagem Dinâmica, e Rastreamento de Partículas - PTA) a fim de ajuda-los a determinar qual a melhor técnica para atender as suas necessidades.
Ver webinars:
http://bit.ly/particlewebinars
Bom dia a todos, gostaria de agradecer aos participantes que nos ouvem está manhã e ao Carlos pela introdução. Estamos contando com a partição de outros países da américa latina aos quais também agradeço.
>>También me gustaría agradecer a los participantes de otros países de Latinoamérica por su participación. Aunque este webinar sea en portugués, no dude en hacer su pregunta en español.<<
O webinar de hoje é o primeiro de uma sequência de webinar que planejamos. Embora seja uma apresentação introdutória, eu considero esse tópico muito importante. Porque análise de tamanho de partícula não é algo ensinado nas universidades, então não estamos familiarizados com elas como estão com espectroscopia, cromatografia... A maioria de nós só descobrimos que essa análise existe quando nos deparamos com elas. Eu mesmo fui conhecer tamanho de partículas quando comecei a trabalhar com a Radchrom. Então, o nosso propósito hoje é apresentar as principais técnicas e suas particularidades, para que sejamos capaz de identificar qual a técnica atende melhor a nossa necessidade.
- E porque a determinação de tamanho de partículas é tão importante? Na verdade não só a determinação do tamanho de partícula, mas também a distribuição de tamanhos de partículas é um ponto crítico para muitos processos e materiais. As consequências de um controle impróprio de partículas se refletem em produtos de baixa qualidade, altas taxas de rejeição e perdas econômicas.
A análise de tamanho de partícula é muito mais do que uma caracterização, é uma forma de avaliar e controlar a funcionalidade, a aplicação de um material.
>Afinal, a distribuição de partículas pode ser responsável por até 80% das propriedade do produto final.
O Airbag por exemplo. O que faz o Airbag inflar é a decomposição térmica da Azida de sódio em Nitrogênio. Uma resistência elétrica aquece a Azida fazendo com que ela se decomponha quando o sensor de impacto é acionado. A velocidade que a azida se decompõe é primordial para que o Airbag infle rapidamente e proteja o motorista. Está velocidade está diretamente ligada com o tamanho de partícula, pois quando menor o tamanho da partícula, maior a área superficial e mais rápido será a reação.
O mesmo ocorre com o combustível dos foguetes, que é sólido. É um compósito onde o oxidante é o perclorato de amônio, que deve ter partículas entre 30 e 400 µm e o oxidante são partículas de alumínio entre 2 e 50 µm. Está mistura deve formar uma rede em que as partículas de alumínio fiquem presas entre as partículas do oxidante para que a queima ocorra controlada e homogenia.
>Com os fogos de artifício os diferentes tamanhos de partículas queimam em velocidades diferentes construindo desenhos no céu.
Hydroxyl-terminated polybutadiene (HTPB) Hidroxi Polybutadieno
O controle da distribuição de partículas de um fármaco é essencial para que seu efeito desejado. Partículas grandes de demais podem demorar muito para serem absorvidas não atuando com o efeito que deveria. Partículas pequenas de mais levam a uma absorção muito rápida e uma sobredose do medicamento.
Um bom controle da distribuição é essencial também para o processo, além de afetar a estabilidade do produto. um baixo controle da distribuição tamanho leva a grandes perdas na compactação de comprimidos que esfarelam ao invés de se compactar. E o mesmo acontece na produção de pisos por exemplo.
Algumas efeitos ligados diretamente ao tamanho de partículas são óbvias, outras nem tanto. Por muitas vezes formuladores necessitam formular produtos com diversas misturas de tamanhos de seus constituintes e avaliar seu efeito.. Aqui eu listei os efeitos que se observam em algumas propriedades quando se diminui o tamanho de partícula. Por exemplo, a homogeneidade de uma mistura aumenta com a diminuição do tamanho de partículas, o que acaba aumentando a resistência e diminuindo seu comportamento elástico.
Um efeito notório que se observa com a diminuição do tamanho é o aumento do brilho de um material, e consequentemente diminuindo sua opacidade.
Um exemplo muito legal de como o controle dos componentes de um mistura são as tintas. Como podemos ver nesse gráfico, existe uma relação linear com o poder de cobertura de uma tintas em função a fração de partículas menores que 0,3 µm. Isso porque os espaços entre duas partículas grandes são maiores, permitindo que se veja o que está por baixo. Entretanto, como já vimos, partículas pequenas demais possuem um alto brilho, porque difratam mais a luz, e um componente com partículas maiores deve ser adicionado para controlar razão entre o brilho e a opacidade da tinta.
O mesmo acontece com as maquiagens, que devem cobrir a pele, mas não devem deixar o rosto brilhoso.
As partículas e seus aglomerados e agregados existem em diversas faixas de grandeza. Nem sempre o que nos interessa é avaliar uma partícula isolada, mas sim um agregado, seja ela sólida ou líquida, na forma de partículas encapsuladas e ou emulsões.
Aqui estão listadas as principais técnicas atuais para a determinação de tamanho de partículas. Destas técnicas só não vamos discutir as microscopias eletrônicas de transmissão e de varredura. Pelo tempo que temos hoje e também porque apesar de sua imensa magnitude como caso da transmissão que possibilita em alguns casos a visualização de átomos, as partículas são contadas manualmente e oferecem pouco estatística devido ao número de partículas contadas.
O peneiramento foi a primeira técnica a ser utilizada para analisar a distribuição de partículas. E ainda é muito utilizadas para algumas aplicações. Entender como seus resultados são gerados nos deixam mais familiarizados com os resultados das demais técnicas. Como a peneira foi a primeira técnica, muitas de suas terminologias são utilizadas até hoje, além de uma imensa quantidade de material de referência disponível na literatura e em normas técnicas.
O princípio de funcionamento da análise por peneira é muito simples. Uma amostra por ação mecânica é forçada a passar por malha com espaços bem controlados, na qual as partículas menores que esses espaços passam para a peneira seguinte. Uma das maiores distorções que observamos nos resultados de peneira está em partículas que possuem com formato de lentilha ou alongados, pois elas acabam passando pelas malhas, gerando resultados deslocados em função das partículas menores.
Na Análise por peneira, uma quantidade de amostra é pesada e colocada na peneira superior. Após o término do tempo de peneiramento o conteúdo de cada peneira é pesado e a porcentagem de cada classe é calculada em função da massa inicial. Normalmente o gráfico é plotado com a escala de tamanho em base logarítmica.
Além da curva cumulativa também podemos dispor os resultados na forma de histograma. Um dos principais valores que obtemos desta distribuição é o acumulado em 50%. Ou seja, é a classe de tamanho que 50% da amostra passou por uma determinada peneira. Estatisticamente esse valor é correspondente a mediana que representa o tamanho, ou classe de tamanho mais abundante em uma população.
> Esse valos é comumente chamado de D50.
Como uma avaliação geral, as peneiras possuem baixo custo, são fáceis de serem usadas e robustas. No entanto possuem um longo tempo de análise mais o tempo para limpar as peneiras. O tempo de limpeza aumenta consideravelmente com a diminuição do diâmetro da malha.
> A quantidade de amostra é um fator limitante. Imagem peneirar o principio ativo de um fármaco que além do valor agregado, os lotes possuem volumes baixo de produção quando comparados com outras industrias.
A técnica de Espalhamento estático de luz mais conhecida como difração de laser é uma das técnicas mais utilizadas atualmente na análise de partícula. É uma técnica muito reprodutível, com uma ampla faixa de aplicação, lendo de 10 nm a 5 mm em uma única leitura. Permitindo a análise de qualquer tipo de amostra.
Nessa técnica um feixe de laser atinge uma partícula a qual difrata parte do laser que incide sobre ela. A análise dos ângulos de difração levam a obtenção de um padrão de difração único pra cada tamanho.
Então o padrão de difração da amostra é comparado com um banco de dados do software que identifica o tamanho das partículas da amostra. Esses padrões são modelos matemáticos que assumem que a partículas são esféricas. O que é a principio soa estranho, pois sabemos que a grande maioria das amostras não são esféricas. Mas como as partículas ficam em circulação, elas são analisadas em todas as projeções possíveis o que acaba gerando o que chamamos de volume da esfera equivalente. O único caso em que a esfera equivalente é falho, é no caso de partículas onde uma das dimensões é muito discrepantes, como partículas agulhadas ou alongadas. Outro ponto importante é que Instrumentos mais antigos utilizam para os cálculos a Aproximação de Fraunhofer, que limita a análise entorno de 40-50µm. Para que seja possível a análise até 10 nm, é necessário utilizar a teoria de Mie, e ela implica que seja informada o índice de refração da amostra. Isso pode gerar uma grande discrepância de resultados quando comparamos analisadores de difração que usam modelos diferentes. Por isso é importante que as configurações do equipamento sejam descritas nas no método a fim de comprar resultados de especificações de produtos.
Aqui temos um esquema de um analisador moderno que funciona com duplo feixe capaz de analisar com grande resolução tanto partículas grandes, quanto partículas pequenas. Embora a leitura seja feita com as duas fontes de luz para todas as partículas, o Laser é principalmente espalhado pela partículas grandes e o LED pelas partículas pequenas.
Aqui podemos ver resultados de validação deste equipamento com padrões de poliestirenos. Podemos ver grande reprodutibilidade, desta técnica, todas os padrões foram analisados em triplicata. E ao lado temos algumas fotos de um padrão de 5 µm no qual vemos que as partículas são esféricas.
Aqui temo um exemplo de resultado de um fármaco. Vamos aproveitar esse resultado para explorar melhor os dados. Já vimos que o D50 representa o tamanho mediano da amostra neste caso 3,53 µm. Outros dados muito importante é determinar a largura da distribuição. Pois é possível obter matérias com o mesmo valor mediano com larguras de distribuição muito diferente. Existem várias formas que isso pode ser feito. Primeiro vamos avaliar os estremos da distribuição, os chamadas D10 e D90. Neste caso o D10 é 2,34 µm, e o D90 é 5,00 µm. Embora seja um número bem representativo, dificilmente um método estabelece o Span como um parâmetro de especificação. O Span é a diferença do D90 e o D10 em razão do D50, e pode ser calculado automaticamente pelo software. A acredito que muitas pessoas não o utilizam por não saber da existência dele. Outra forma de se avaliar a largura de uma distribuição é estabelecer faixas de aceitabilidade para o D10, 50 e 90. Mas o que normalmente se vê em controle de qualidade é uma faixa para o D50 e limites estabelecidos para o D10 e D90.
Aqui vemos uma avaliação de um catalisar em um processo após a recuperação, onde foi observado uma redução drástica no tamanho das partículas. Podemos ver pelas imagens de microscopia que as partículas não são esféricas e resultados similares foram encontrados em ambas as técnicas.
Aqui vemos duas amostras de argilas. A argila natural apresenta uma distribuição que chamamos de bimodal. Onde temos 2 populações distintas, uma com medianas de 11,2 µm e 66,3 µm. Na argila tratada vemos uma distribuição monomodal com uma mediana de 11,5 µm. Podemos deduzir que está empresa separou a fração maior do material. Mais uma vez vemos que as partículas não são esféricas e ainda sim temos uma boa reprodutibilidade das amostras e correlação com a microscopia.
Aqui temos uma análise com um propósito diferente, embora fabricantes de negro de fumo façam essa análise, está em específica é de um fabricante de moinhos, que utiliza o negro de fumo como material padrão para avaliar a performance do moinho e certificar-se de que ele está funcionando dentro das especificações.
O equipamento de difração a Laser possui 4 tipos de cela de leituras, a seguir vamos ver exemplos de cada uma delas. Todo os resultados apresentados até agora foram obtidos com cela de fluxo.
Na cela Seca, a amostra não é dispersa em um líquido, mas sim com ar. Um sistema de vibração faz com que a amostra caia dentro do funil da cela, onde um fluxo de ar pressurizado empurra as partículas que são desagregadas com a ajuda de laminas de metal. As partículas passam na frente do Laser e lidas da mesma forma como na cela de fluxo.
Aqui temos uma análise em triplicada de uma farinha de trigo com mediana de 65,31 µm e um Span de 2,64. Também é possível pedir um relatório utilizando a classificação de peneiras da Mesh da ASTM, embora o laser não seja a melhor técnica para comparação de resultados com a peneira.
Aqui temos a análise de um fármaco antes de ser compactado. A distribuição que percebemos entorno de 10 µm, provavelmente é o ativo do remédio, a maior população entorno de 650 µm são os excipientes.
A priori, a dispersão da amostra pode ser realizada em qualquer meio, desde que a amostra não se dissolva e forme uma dispersão estável. A configuração padrão da cela de fluxo pode ser utilizada com água, etanol e iso-propanol. Para outros dispersantes como tolueno por exemplo, é necessário requisitar na compra que o equipamento seja resistente a solventes. Mesmo com essa possibilidade, existe o inconveniente de utilizar grandes quantidades de solventes tóxicos e mesmo o custo, já que normalmente se utiliza 250 mL para a leitura na cela de fluxo. Para isto existe a opção da Cela de Fração. Que se utiliza como uma cubeta, onde a cela é preenchida com o meio desejado e a agitação é feita por uma barrinha magnética.
Aqui temos um exemplo de um fármaco que é analisado em revelador de filme fotográfico. Esta amostra é mais um exemplo de uma amostra bimodal, podemos ter a distribuição da amostra geral, onde a mediana é de 1,61µm. Que claramente não representa a distribuição da amostra. Então podemos tratar os picos de distribuição separadas, com sua respectiva mediana e a proporção das populações, que neste caso é de 1:5,1.
Ainda há caso de amostra que não dispersão em meios convencionais são complicadas, principalmente para alguns fármacos e alimentos, e neste caso podemos dispersar a amostra em um meio viscoso como Glicerina, Nujol e usar a Cela de Pasta. Nesta análise dispersamos a amostra e colocamos 1 ou 2 gotas sobre um das placas e pressionamos a outra placa para espalhar a dispersão e prensemos as placas no suporte de leitura.
Aqui temos a análise de uma amostra de chocolate em Nujol
Já nessa outra temos uma emulsão de pectina em óleo de soja. Vejam que ela apresenta uma ótima reprodutibilidade.
Assim como a cela de fluxo, todas as celas podem ser validadas. Na parte superior vemos os resultados dos padrões na cela de pasta em triplicata, e na figura inferior uma comparação das leituras realizadas em ambas as celas.
Em resumo a técnica de Difração de Laser possui grande aplicação devido a sua ampla faixa de leitura e sua versatilidade. Suas maiores limitações são em relação as partículas alongadas e a impossibilidade de realizar análise de formato.
A análise dinâmica digital, é uma técnica relativamente nova que vem ganhando muito destaque e por sua simplicidade, precisão e aplicações únicas. Assim como na Difração a Laser o, está técnica também possui acessórios para leituras via seca e úmida. No entanto há mais acessórios para a leitura em dispersão seca, as quais compreende a maioria das aplicações desta técnica.
O princípio desta técnica é simples. Um amostrador vibratório leva a amostra até a entrada da área de leitura onde as partículas são fotografadas a uma taxa de 310 quadros por segundo. A área iluminada é fotografado por 2 câmeras, uma Câmera Base, que tira foto da área total, e uma Câmera de Zoom que fotografa uma área menos, mas no entanto com uma alta resolução para determinação das partículas pequenas.
Como o equipamento tira uma foto das partículas, ele possui todos os recursos de uma análise de microscopia. A principal delas é a análise formato. Para está partícula por exemplo, é possível ao mesmo tempo realizar várias medias em uma mesma partícula, como largura, comprimento, área projetava, a qual é equivalente a medida do Difração de Laser.
Além das medidas mais convencionais, existem uma grande lista de relações de medidas parâmetros de formato como aspecto, esfericidade, simetria dentre muitas outros que fazem com que está técnica forneça uma quantidade imensa de dados para uma única amostra.
Neste gráfico por exemplo, temos o resultados de uma mesmas amostra disposto em relação 3 medidas diferente. Para isso é importante estabelecer qual parâmetro oferece a melhor informação para a sua aplicação. Essa é uma decisão que deve ser tomada com cuida, frente ao grande número de informações e recursos que está técnica oferece.
Aqui vemos um foto de duas partículas pertencentes a mesma amostra, ambas possuem larguras muito similares, no entanto quando observamos o aspecto. Quando mais próximo de 1 a razão de aspecto de uma partícula, mais esférica é uma partícula. Uma vez identificado essa diferença vem a pergunto sobre o que fazer com essa informação.
E isso vai depender de cada aplicação. Caso seja uma amostra de esferas de vidros, as partículas que não são esféricas são partículas quebradas. Então podemos estabelecer parâmetros para separa as partículas e determinar a porcentagens de partículas inteiras das quebradas. Neste caso espero que não seja um fabricante de esferas de vidro, pois somente 33% das amostras estão inteiras.
Um exemplo oposto a este é a classificação de grãos como o arroz. Onde as partículas inteiras possuem uma baixa esfericidades, e as partículas mais próximas de uma esferas são grãos de arroz quebrados.
Este catalisador é um bom exemplo de partículas alongada. A leitura em azul, Xmin que é a largura, mostra uma distribuição bimodal, muito parecida com o resultados que se obteria na difração de laser. No entanto pela análise de imagem podemos utilizar o resultado do comprimento, que é mais representativo e adequado para esta amostra.
Uma das grandes vantagens da análise imagem é a possibilidade de comparação dos resultados com as peneiras. Uma vez que a dimensão que mais importa para a peneira não é nem o comprimento, nem o diâmetro, mas sim largura da partícula, plotasse o resultado em função deste valor. E aqui podemos ver em preto e vermelho os resultados a equivalência dos resultados.
Aqui temos vendo uma análise do nosso combustível de foguete, onde vemos que o D50 é 175 µm e o D90 400 µm, dentro das especificações encontradas na literatura, o que não significa que seja essa exatamente os parâmetros que o fabricante segue, só estou usando como forma de exemplo. Da mesma forma, podemos avaliar está amostra de micropartículas de alumínio que se encontra dentro das espeficicações.
A Análise de Imagem possui todas as vantagens de uma análise de microscopia somada a quanta representatividade e praticidade de uma análise automatizada. Sendo sua maior desvantagem sei limite inferior de detecção que é limitado pela resolução da câmera.
Partindo para uma outra escala de partículas, encontramos o Espalhamento de Luz Dinâmico, comumente referida pela sigla em inglês DLS. Está técnica permite também a determinação de outras propriedades como potencial Zeta e peso molecular.
O Principio técnica vem do espalhamento causado pela movimentação aleatória das partículas em suspensão, e por isso espalhamento dinâmico. Esse movimento é conhecido como movimento Browniano, e está ligado a fatores como viscosidade e temperatura do meio, e também o tamanho da partícula que influencia diretamente na sua cinética. Embora seja possível detectar partículas com alguns microns, a sua presença interfere na leitura devido ao fato de que partículas maiores que 1 µm começam a sedimentar, o que foge da cinética do movimento Browniano. Isso faz desta técnica um analisador essencialmente manométrico.
Embora tenha que se ter cuidados com a preparação da amostras a leitura é muito simples. A amostra é colocada em uma cubeta, que é irradiada por um laser verde. Um detector determina a transmitância do meio enquanto uma fotomultiplicadora detecta o espalhamento dinâmico. O espalhamento pode ser detectado tanto a 90° ou a 173°, dependendo da concentração da amostra.
O sinal coletado então é convertido a uma função de correlação, dendê é obtida uma constante de decaimento e aplicada na equação de Stokes para calcular o diâmetro hidrodinâmico. Que é uma esfera que se move como sua partícula.
Aqui vemos um exemplos da determinação de uma enzima com 20 nm.
Neste outro exemplo vemos a análise um lipossomo utilizado para encapsulamento de fármacos para o tratamento de câncer com D50 de 150 nm.
Neste exemplo vemos uma sílica coloidal utilizada para classificação de bebidas. Sua mediana é de 37 nm, imagino que o nome HS-40 se refere a mediana das partículas do produto.
O potencial Zeta é uma medida da magnitude da repulsão ou da atração eletrostática entre partículas. E é teorizada pela existência de uma camada dupla, onde a primeira camada, imóvel, composta por cargas opostas a carga da partícula, e uma cama externa mais maleável.
Mas como uma partículas adquire carga. Vamos considerar uma partícula que possua ácidos carboxílicos em sua superfície. A ionização desses ácidos vão fazer com que eles adquiram uma carga negativa. O que irá atrair partículas com carga +, como os próprios H+ e outros íons positivos da presentes na solução, formando uma camada + fortemente ligada a partícula. Então outros íons presentes no meio são atraídos mais fracamente e formam uma segunda camada. Quanto maior a carga dessas partículas, mas forte será a repulsão entre elas, diminuindo a taxa de aglomeração.
Então, sistemas com maior potencial Zeta, tendem a serem mais estáveis, sejam esses sistemas suspensões ou emulsões. Sistemas com baixo potencial Zeta mesmo que estáveis a priori, tendem com o tempo aglomerar e decantar, diminuindo o tempo de prateleira dos produtos.
Aqui vemos um esquema que representa como o potencial Zeta é medido. A amostra pe colocada num cubeta com eletrodos, o feixe de luz incidente é divido para a obtenção de um feixe de referência que é medido simultaneamente com o deixe de luz espalhado pela movimentação das partículas causadas pela aplicação de cargas pelos eletrodos.
Como a variação da frequência do feixe espalhada é muito pequena em relação ao feixe de referência, os dois são lidos simultaneamente, assim as interações entre os dois feixes se tornam mias visíveis. Dessas interações são determinadas as frequências de deslocamentos e aplicadas no Modelo de Smoluchowski para a determinação do Potencial Zeta.
Normalmente os estudos de potencial Zeta são realizados em função do pH, para afim de se encontrar o ponto iso elétrico. pHs onde o potencial Zeta está muito próximo de zeros são instáveis e tendem a agregar e flocular rapidamente. A não ser que esse seja o seu objetivo, cristalizar uma proteína, ou efetuar uma floculação no caso de tratamento de água, o ponto isoelétrico deve ser evitado. Nessa tabela encontramos alguns ponto isolétricos e potenciais de estabilidades eletrostática para alguns sistemas. Podemos ver que as emulsões óleo/água se precisão de menos potencial para estabilizarem, quanto ´suspensões com metais requerem um potencial Zeta maior.
Neste exemplo vemos a alteração do potencial Zeta de partículas de TiO2 que foram recobertas por Sílica para prevenir as catálise invejada pelas partículas de TIO2. Na coluna do lado vemos o aumento do tamanho das partículas de TiO2 com o recobrimento, saindo de 53 m, para 577 nm.
O espalhamento dinâmico ainda permite a determinação de massa molecular de polímeros pera utilização da Equação de Rayleigh. Algumas soluções do polímero com concentrações diferentes são preparadas e lidas no equipamento. Pela determinação do segundo coeficiente Virial, a Massa Molar média é calculada. Neste exemplo temos um Poliestireno com uma massa de 105 kDa.
O Espalhamento Dinâmico é uma excelente técnica para a determinação de nanopartículas. Muitos amostras requerem um bom método de preparo, mas uma vez a metodologia estabelecida, os resultados de tamanho médio possuem grande confiabilidade. Além da possibilidade da determinação do potencial Zeta.
A análise de rastreamento de partículas é umas das técnicas mas recentes e mais promissoras na área de nanotecnologia.
O princípio desta análise se baseia do espalhamento dinâmico luz, como na técnica que vimos anteriormente, mas ao invés de um detector de transmitância, é uma câmera de vídeo que regista a luz espalhada.
Assim como no espalhamento dinâmico, a análise também monitora o movimento Browniano das partículas, mas pelo monitoramento das partículas, dai o nome da técnica. Ao invés de tirar uma, como na Imagem dinâmica, a câmera grava um vídeo. Esse vídeo é depois analisado quadro a quadro para a obtenção dos dados a serem utilizados para os cálculos de tamanho e outras propriedades.
Para garantir um monitoramento de com máxima resolução em e sensibilidade em toda a faixa de operação da técnica, o equipamento utiliza três lasers diferentes para realizar as leituras.
Os laser podem ser utilizados separadamente ou em conjunto dependendo da aplicação, ou para a investigação de um comportamento da amostra.
Aqui vemos uma análise onde os 3 lasers foram utilizados e partículas de tamanhos muito diferentes foram determinas com equivalência a sua concentração real. Isso é algo que não pode ser atingido com o Espalhamento Dinâmico.
Além das análises de determinação de tamanho de partículas e dispersão feitas por outras técnicas, eu gostaria de focar nas aplicações que está técnica possui que não outra capaz de fazer. Como é o caso do estudo da cristalização de uma proteína em tempo real. Neste experimento, a proteína for monitorar em relação ao tempo. Podemos ver que até 180 min as proteínas estavam livres em solução, então as proteínas começaram a sedimentar e em 350 min os cristais começaram a crescer. Em 430 min foi adicionado um tampão fosfato para interromper o crescimento dos cristais. Após 100 da adição do tampão a proteína já tinha se dissolvido completamente. O mesmo estudo pode ser feito com medicamentos e avaliar seu comportamento em vários sistemas.
Monitoring detector intensity over time; crystal particles remained submicron in size for the first five hours. Size determination was determined by sinking speed for larger particles after about six hours. Addition of PBS at two time points stopped crystallization reaction and began dissolving the crystals, respectively.
Uma outra possibilidade fantástica, é a utilização de filtros. Existem dois tipos de filtros. Os longpass, que bloqueiam toda a luz abaixo de um determinado comprimento de onda.
E temos os filtros Bandpass, que permitem que apenas uma faixa de comprimento de ondas passe. O uso desses filtros criam uma detecção com enorme seletividade. Principalmente para o uso de fluorescência.
Aqui vemos um exemplo de uma mesma amostras lidas com filtros diferentes. Isso abre caminho para uma investigação profundo no desenvolvimento de muitas produtos, principalmente farmacêuticos, pois células fluorassem diferente dependo do seu estado. Isso serve para avaliar a cinética da ação de medicamentos a nível celular de uma forma nunca antes feita.
O Rastreamento de Partículas, embora seja uma análise que não é tão rápida como as demais, e não ofereça análise de forma, é uma tecnologia nova que permite a realizam de experimentos sem paralelo, com um alto de precisão e automação que fará certamente um grande impacto no desenvolvimento de muitos materiais.