Uma seleção de artigos de uma página sobre temas tecnológicos, escritos por mim e vários colegas que foi publicado em um eBook patrocinado pelo Technology Leadership Council da IBM Brasil (TLC-BR).
4. 4
Apresentação
Transformação e mudança: A decisão é sua – Lidere ou desista
Rodrigo Kede de Freitas Lima, General Manager IBM Brasil
Estamos em um momento de grandes transformações. Se você
vive no Brasil e trabalha em tecnologia tem motivo de sobra
para se sentir em uma montanha-russa. Toda montanha- russa
desperta uma serie de sensações – enquanto uns tem medo,
outros se divertem, outros sentem frio na barriga; mas uma
coisa é certa – a maioria no final da viagem tem uma sensação
de desafio cumprido e de ter vencido.
Podemos começar falando do Brasil. Em 1985, depois de mais
de 20 anos de regime militar, tivemos novamente um presidente
civil (Tancredo Neves), eleito pelo congresso nacional, que
nem chegou a tomar posse, pois
faleceu antes disso. A nova geração
talvez não conheça os detalhes do
movimento “Diretas Já” que mostrou a
força que tem um povo unido que briga
pelos seus direitos. Entre 1985 e 1990
passamos por vários planos econômicos
fracassados e uma eleição presidencial
– a primeira na qual o povo foi às urnas
e escolheu seu presidente. Estávamos
ainda engatinhando no restabelecimento
da tal democracia, algo completamente
esquecido nos quase 21 anos de regime
militar. Hoje, olhando para trás, fica mais
fácil entender a história toda, mas não
é possível “(re)aprender democracia” em 5 anos. Cometemos
muitos erros e alguns acertos.
Em 1989, fomos às urnas e elegemos um presidente da República
jovem, que prometia mudar o país, corrigir a onda de corrupção
que assolava o nosso querido Brasil. Pouco mais de 2 anos
depois de sua eleição, o povo foi mais uma vez às ruas para
pedir o impeachment do então presidente Fernando Collor.
Seu vice-presidente assumiu o poder e concluiu o mandato em
1995. Foram anos de muito aprendizado para o povo, para os
políticos e para o sistema. Eu costumo dizer que esse foi um
período importante de transformação do país em uma democracia
(por mais rudimentar e problemático que tenha sido o período,
conseguimos restabelecer um país democrático).
Novamente fomos às urnas e elegemos um novo presidente.
Fernando Henrique Cardoso, ex-ministro da Fazenda do governo
Itamar, um dos pais do Plano Real, construiu a credibilidade com
o país inteiro enquanto era ministro para se candidatar e ganhar
as eleições. FHC, como era conhecido, foi responsável por uma
fase fundamental no desenvolvimento do país. Nos seus dois
mandatos, foi o responsável por estabilizar a economia e mudar
o cenário do país: criou a lei de responsabilidade fiscal, saneou
o sistema financeiro, construindo um dos mais sólidos do mundo,
privatizou vários setores como o de Telecomunicações e Energia.
Antes do seu Plano Real, vivíamos um mundo de 40% de inflação
ao mês; algo inimaginável nos dias de
hoje – os preços nos supermercados
mudavam várias vezes ao longo do dia
(dá para viver assim?). Considero a fase
do Governo FHC como de eficiência
operacional e estabilização econômica.
Novamente estamos falando de quase
10 anos de muita transformação.
Em 2002, a população elegeu Luis
Inácio Lula da Silva, ou Lula apenas.
Lula certamente surpreendeu muitos
durante sua gestão, menos radical do
que era esperado por alguns setores.
Honrou contratos, manteve a filosofia de
gestão econômica do governo anterior e colocou em cargos-chave
pessoas com bastante credibilidade como o presidente
do Banco Central – Henrique Meirelles (ex CEO Global do Bank
Boston). Lula focou seus esforços em resolver o problema de
pobreza no país, sua principal bandeira. No final de suas duas
gestões, acho que existem, assim como nos governos anteriores,
alguns marcos que foram fundamentais para o desenvolvimento
do país. O primeiro foi o que chamo de Mobilidade Social – uma
democracia em algum momento aprende a gerir o país e estabilizar
sua economia. Depois disso é natural que a pirâmide social
comece e mudar. Tínhamos uma classe média que representava
pouco mais de 20% da população e hoje estamos falando de
quase 60% da população. O Brasil também se beneficiou por
Technology Leadership Council Brazil
5. 5
ser um dos maiores produtores de commodities do mundo e
aumentou significativamente o nível de exportações para a
China, segunda economia do mundo, que virou nosso maior
parceiro comercial, trazendo muita riqueza para o país. Natural,
depois do restabelecimento da democracia e da estabilização
da economia. O país cresceu acima da média das décadas
anteriores graças a uma nova classe de consumidores. Nosso
crescimento como país foi resultado do crescimento do consumo
interno e do sucesso da China.
Em 2010, Dilma foi eleita presidente da República. Desde
2008, com a crise mundial, crescer ficou mais difícil. Somente o
consumo doméstico não é suficiente para fazer o país crescer nos
patamares necessários. A China, apesar de continuar crescendo,
cresce menos e compra menos. E agora? O nome do jogo para
o Brasil é eficiência e competitividade. Para conseguir isso,
precisamos de um investimento enorme em infraestrutura e
educação para disponibilização de mão de obra qualificada.
Com aproximadamente 5% de taxa de desemprego, como
vamos crescer? Temos que fazer mais com o mesmo, ser mais
eficientes e produtivos. Portos, aeroportos, ferrovias, tecnologia,
pesquisa e desenvolvimento nas mais diversas áreas, investimento
pesado em educação básica... Estamos no meio dessa batalha.
Já começamos esse trabalho como país. Muitas são as críticas e
o povo, com legitimidade, foi às ruas questionar e pedir solução
para os seus problemas.
Sou um eterno otimista e acredito que, apesar dos erros e da
velocidade, estamos fadados a crescer e nos tornar um país
desenvolvido em algum momento. Temos 19% da terra arável e
12% da água potável do mundo. Quanto vai valer isso em 2050,
quando 70% da população mundial estará vivendo em cidades?
Temos que acelerar os investimentos e o desenvolvimento. Essa
será a única forma de termos um país desenvolvido para os
nossos netos.
Vivemos, portanto, num país em uma enorme Transformação.
E cada um de nós tem seu papel nessa jornada.
Você deve estar pensando qual a relação disso com tecnologia
e com a IBM. Na minha opinião, absolutamente tudo. Toda
essa transformação só existirá com uso intenso de tecnologia
pela empresas, governos e instituições. Nós da IBM investimos
100 anos trabalhando pelo progresso da sociedade, portanto
podemos e teremos um papel ainda mais fundamental na
transformação do Brasil.
Por esta razão, gostaria de falar sobre outra transformação que
esta acontecendo no mercado de TI. Os clientes estão cada vez
mais comprando outcomes, soluções de negócio, específicos
para cada setor, ao invés de infraestrutura. Temos que pensar
que agora a commoditização não será dos produtos apenas
e sim dos modelos. O mundo caminha a passos largos para
cloud, mobile, social business e big data. A tecnologia está
saindo do back office e indo cada vez mais para o front office.
Está deixando de ser custo e virando fonte de receitas. “Dados”
já são o novo recurso natural e as empresas e instituições que
entenderem isso sairão na frente. No caso específico da IBM,
somos a única empresa do mercado que desenvolveu a tecnologia
de Computação Cognitiva, que na minha opinião vai mudar a
forma como vivemos e trabalhamos.
Estamos, portanto, vivendo um momento de transformação intensa
em tecnologia também. Tenho certeza de que daqui a 5 anos,
teremos novos players e alguns concorrentes desaparecerão.
Precisamos, cada vez mais, nos especializar nas novas tendências
da tecnologia e não somente nos produtos – e isso é válido
para vendas, para o time técnico, para delivery e até mesmo
para o back office.
Dizemos que a cada 30-40 anos, a tecnologia passa por uma
onda disruptiva. Esse momento é agora.
Brasil e Tecnologia, ambos num momento crucial de transformação.
Combinação “especial”. Como disse, tem gente que gosta de
montanha-russa (como eu), outros não.
A jornada é longa, mas o jogo é ganho a cada dia.
Lidere ou desista.
Technology Leadership Council Brazil
7. Sumário
Computadores Híbridos, a próxima fronteira da computação.....................................................................................10
Como ler em cinquenta anos o que foi escrito hoje?................................................................................................... 11
A maneira Lean de se pensar ......................................................................................................................................12
Então, você quer trabalhar com Arquitetura de TI?......................................................................................................13
Computação Quântica.................................................................................................................................................14
O desafio da modernização de sistemas legados.......................................................................................................15
Tecnologia para Cidades Inteligentes..........................................................................................................................16
Tudo como Serviço....................................................................................................................................................... 17
O Nevoeiro e o Sapo....................................................................................................................................................18
Boas práticas para a elicitação de requisitos..............................................................................................................19
O homem que enxergou a forma das coisas...............................................................................................................20
Métricas de Software...................................................................................................................................................21
Gestão por Competências: é hora do C.H.A...............................................................................................................22
Daily Scrum para todos!...............................................................................................................................................23
Como agradar ao cliente que contrata serviços?........................................................................................................24
Especial Centenário da IBM: SAGE, um berço de inovação.......................................................................................25
Integrar conhecimentos: o desafio do consultor..........................................................................................................26
Especial Centenário da IBM: IBM RAMAC: O início de uma era na computação comercial......................................27
A evolução do modelo de entrega de serviços de TI...................................................................................................28
Especial Centenário da IBM: IBM 1401, quando os tempos eram outros....................................................................29
A Internet das Coisas...................................................................................................................................................30
Especial Centenário da IBM: O Programa Espacial e a Tecnologia da Informação....................................................31
Colaboração eficiente em um Planeta Inteligente........................................................................................................32
Especial Centenário da IBM : Enxergando o mundo melhor.......................................................................................33
Vivemos em um mundo cada vez mais instrumentado................................................................................................34
Especial Centenário da IBM: Elementar, meu caro Watson.........................................................................................35
Impactos da revolução multi-core no desenvolvimento de software...........................................................................36
Especial Centenário da IBM: A IBM e a Internet..........................................................................................................37
Governança, Risco e Conformidade............................................................................................................................38
Especial Centenário da IBM: IBM Tape: Quebrando barreiras no armazenamento de dados....................................39
O novo Bug do Milênio?...............................................................................................................................................40
Manutenções de sistemas na velocidade do negócio................................................................................................. 41
Escalabilidade e Gerenciamento em Cloud Computing..............................................................................................42
A evolução da Web na direção dos negócios..............................................................................................................43
Agilidade Financeira em TI...........................................................................................................................................44
Gestão de Custos de TI................................................................................................................................................45
FCoE, a integração das redes LAN e SAN..................................................................................................................46
Poder, muito poder, de processamento.......................................................................................................................47
8. O Poder da Tecnologia Social......................................................................................................................................48
Meninas e Tecnologia..................................................................................................................................................49
Sobre Profetas e Bolas de Cristal.................................................................................................................................50
Cidades inteligentes: o trabalho se move para que a vida siga................................................................................... 51
Tecnologia especial para a inclusão social..................................................................................................................52
Agile: você está preparado?.........................................................................................................................................53
A Teoria das Inteligências Múltiplas e as Profissões em TI..........................................................................................54
Analytics ao alcance dos seus dedos..........................................................................................................................55
A importância do processo de RCA.............................................................................................................................56
Posso ver os dados?....................................................................................................................................................57
Aprender Brincando.....................................................................................................................................................58
Processamento de áudio em placas gráficas..............................................................................................................59
Unicode ♥ דוקינו ☻ Уникод ♫ 60 ...........................................................................................................................وكينوي
A verdade é um caminho contínuo...............................................................................................................................61
Tudo (que importa) a seu tempo...................................................................................................................................62
Computação em Nuvem e Sistemas Embarcados......................................................................................................63
Nanotecnologia — Como Isso Muda Nossas Vidas?....................................................................................................64
TI com Sustentabilidade e Eficiência............................................................................................................................65
A estratégia e sua operacionalização..........................................................................................................................66
A evolução do NAS......................................................................................................................................................67
Vai para a nuvem ou não vai?.......................................................................................................................................68
Profissão: Arquiteto de Negócios.................................................................................................................................69
Quatro Horas?..............................................................................................................................................................70
Se botar sua reputação na vitrine, ela vai valer mais que R$ 1,99?.............................................................................71
O que é Segurança da Informação..............................................................................................................................72
A matemática do acaso................................................................................................................................................73
A Origem do Logical Data Warehouse (LDW).............................................................................................................. 74
Storage & Fractais........................................................................................................................................................75
Social Business versus Social Business Model...........................................................................................................76
Método Científico e Trabalho.......................................................................................................................................77
Qual é o tamanho do link?............................................................................................................................................78
Bancos de dados NoSQL............................................................................................................................................79
Os desafios da Internet das Coisas.............................................................................................................................80
Traga seu dispositivo móvel.........................................................................................................................................81
O céu é o limite para a automação inteligente.............................................................................................................82
Inteligência em segurança, uma nova arma contra o cyber crime..............................................................................83
Tecnologia Transformando Cidades Inteligentes.........................................................................................................84
Crowdsourcing: o poder da multidão...........................................................................................................................85
TOGAF – O que é e por quê?........................................................................................................................................86
Revele o cliente que está por trás dos dados..............................................................................................................87
9. Singularidade: Você está pronto para viver para sempre?..........................................................................................88
Agora eu posso twittar.................................................................................................................................................89
O novo consumidor......................................................................................................................................................90
Transformando riscos em oportunidades de negócio..................................................................................................91
QoS em redes de acesso em banda larga..................................................................................................................92
As máquinas sentem?..................................................................................................................................................93
Alinhando TI e TA.........................................................................................................................................................94
O “Vale do Grafeno” e a Revolução Tecnológica.........................................................................................................95
O tempo não para, mas pode ser melhor aproveitado.................................................................................................96
Ontologias e a Web Semântica....................................................................................................................................97
Customização em massa: obtendo uma vantagem competitiva.................................................................................98
Software Defined Network: O Futuro das Redes.........................................................................................................99
Uma vista privilegiada do planeta Terra.......................................................................................................................100
Sorria, você pode estar nas nuvens.............................................................................................................................101
IBM Mainframe – 50 anos de Liderança Tecnológica e Transformação.......................................................................102
A Interoperabilidade da Internet das Coisas................................................................................................................103
Gerência de Projetos Ágil ou PMBOK®?......................................................................................................................104
Sangue, suor e Web: como a World Wide Web foi criada............................................................................................105
Acesso Direto à Memória: vulnerabilidade por projeto?...............................................................................................106
Big Data e o nexo das forças.......................................................................................................................................107
Desmistificando Capacidade Virtual, Parte I...............................................................................................................108
Desmistificando Capacidade Virtual, Parte II..............................................................................................................109
Considerações Finais e Agradecimentos.................................................................................................................... 110
10. 10
Computadores Híbridos, a próxima fronteira da computação
Daniel Raisch
Por mais de 20 anos a indústria
de TI conseguiu manter válida
a Lei de Moore, dobrando a
capacidade de processamento
dos chips a cada 18 meses,
mas ultimamente tornou-se um
grande desafio manter tal ritmo,
o que pode significar uma
ameaça para o mercado, que
segue demandando por mais
capacidade.
A atual arquietura de chips atingiu sua limitação física,
considerando-se a curva de desempenho versus a dissipacão de
calor gerada e a energia necessária para o seu funcionamento.
Não é mais possível continuar entregando mais capacidade sem
uma mudança de conceito e de arquitetura. Já foram tentadas
algumas soluções, como por exemplo a fabricação de chips
multicore, mas ainda não se resolveu esse impasse. Por outro lado,
o mercado de TI continua precisando de mais capacidade para
atender às novas demandas de negócio, através de aplicações
cada vez mais complexas, as quais requerem computadores
cada vez mais potentes.
A indústria está buscando alternativas para endereçar essa
questão. Uma consiste no aumento do nível de paralelismo entre
os diversos núcleos de processamento de um mesmo chip, o
que requer novos conceitos de programação e redesenho dos
atuais sistemas para que possam explorar essa arquitetura de
processadores. Outra alternativa consiste na implementação de
um novo conceito de computadores, baseado numa arquitetura
híbrida de processadores.
Computadores híbridos são compostos por distintos tipos
de processadores, fortemente acoplados sob um sistema
integrado de controle e gestão, que possibilita o processamento
de cargas complexas e variadas. A Intel e AMD, por exemplo,
estão trabalhando em chips multicore nos quais os núcleos de
processamento são distintos entre si, para possibilitar ganhos
de desempenho sem bater no teto da dissipação de calor.
Mas ainda não há previsão de liberação desses novos chips
para o mercado.
A IBM está trabalhando em um novo servidor da plataforma
z/Series, o qual conterá processadores das suas tradicionais
famílias (Mainframe, POWER7 e x86) dispostos numa única
plataforma computacional, gerenciada de forma centralizada e
integrada. No passado recente a IBM disponibilizou um servidor
z/Series integrado com processadores Cell para atender uma
necessidade específica da Hoplon, empresa brasileira que
atua no mercado de infojogos. Essa experiência foi muito bem
sucedida e possibilitou o avanço na direção do conceito de
servidor híbrido. Com essa nova plataforma, que está em
fase final de desenvolvimento, a IBM pretende prover uma
solução de grande desempenho e escalabilidade, capaz de
atender às demandas por soluções que requerem poder de
processamento com características mistas entre as tradicionais
aplicações comerciais e aplicações de computação intensiva
(High Performance Computing).
Com os computadores híbridos pretende-se ultrapassar as
limitações impostas pelas atuais arquiteturas e também resolver
os problemas gerados pela forte dependência existente entre
as aplicações e a plataforma computacional para as quais
foram originalmente projetadas. Esse novo tipo de computador
funcionará como se fossem vários servidores lógicos virtualizados
num único servidor físico, com uma camada de gerência integrada,
capaz de distribuir partes de uma aplicação para o processador
que lhe for mais propício, dando ao seu usuário as facilidades
e os beneficios de uma plataforma fisicamente centralizada,
mas logicamente distribuída, endereçando os atuais desafios
do mundo descentralizado relativos à integração de aplicações,
segurança, monitoração, distribuição de carga e contabilidade
do uso de recursos, entre outros.
Simplificação da TI, redução do número de servidores instalados
(e de seus requisitos de espaço, energia e refrigeração), maior
capacidade de gerência de ponta-a-ponta e, consequentemente,
redução do custo total de propriedade. Essas são as propostas
de valor das arquiteturas híbridas.
Estamos na iminência de uma nova plataforma computacional,
a qual poderá representar uma mudança de paradigma na
indústria de TI e possibilitar novas soluções de negócios, abrindo
horizontes para as empresas e para toda a sociedade.
Para saber mais:
http://www.redbooks.ibm.com/abstracts/redp4409.html
Technology Leadership Council Brazil
11. 11
Como ler em cinquenta anos o que foi escrito hoje?
Roberto F. Salomon
Faz relativamente pouco tempo que começamos a usar arquivos
em mídia eletrônica para armazenar documentos. Além do papel,
já usamos diversos outros suportes para os nossos documentos
como madeira, pedra, barro e cera. Ao usar esses suportes
nossos antepassados os tornavam indissociáveis do documento
propriamente dito.
Com a chegada da mídia eletrônica, conseguimos separar, pela
primeira vez, o suporte de um documento de seu conteúdo. Assim,
os documentos se tornaram “virtuais”, sendo armazenados em
arquivos digitais gerados por algum aplicativo. Graças ao suporte
digital, uma cópia de um documento é idêntica ao seu original.
Seria o melhor dos mundos se não houvesse a questão da
recuperação e leitura posterior desses documentos. Trabalhamos
bem a analogia de uso de softwares para a produção de
documentos: uma folha de papel em branco exibida na tela
na mesma posição em que estaria uma folha em uma máquina
de escrever.
No entanto, não houve, até recentemente, uma discussão
adequada sobre o formato de armazenamento desses
documentos, resultando em problemas de compatibilidade
com os quais convivemos até hoje. A vinculação dos formatos
aos softwares que os criaram tornou-se uma barreira à adoção
de novas tecnologias e soluções.
O problema gerado pela ausência de padronização no
armazenamento de documentos é apenas a parte mais visível
da questão. A falta de padronização na comunicação entre
os componentes de software que adquirimos é tão grande
quanto o número de fornecedores existentes no mercado.
Enquanto a adoção de soluções que suportem padrões abertos
e publicados faz sentido econômico para a iniciativa privada,
no setor público essa adoção é vital para a preservação das
informações do Estado.
A preocupação com o uso de padrões abertos em documentos
oficiais levou a União Européia a publicar uma definição do que
é um padrão aberto. Há várias, mas todas concordam que um
padrão aberto deve:
• ser mantido por organização sem fins lucrativos, através
de um processo aberto de decisão:
• ser publicado e acessível sem custo, ou a um custo
meramente nominal;
• garantir o acesso gratuito, sem o pagamento de royalties,
a toda propriedade intelectual do padrão.
Vários padrões se adequam a essa definição comum, dentre
eles o ODF – OpenDocument Format, que define o formato de
armazenamento para documentos eletrônicos textuais.
No Brasil, o Governo Federal já reconheceu a importância da
adoção de padrões que permitam a integração aberta entre os
seus órgãos e os demais poderes e esferas da administração
pública. A edição do e-PING – Padrões de Interoperabilidade
de Governo Eletrônico, demonstra que o Governo Federal já
entende ser necessário estabelecer quais os padrões que
serão usados para a comunicação com a sociedade. Essa
definição deve ser o mais independente possível de pressões
econômicas de grupos de interesse. Iniciativas como a do e-PING
são estratégicas e necessárias.
Há hoje um consenso sobre sua importância, demonstrado
por eventos como a “Government Interoperability Framework
Global Meeting 2010”, promovida pelo PNUD (Programa das
Nações Unidas para o Desenvolvimento) realizada no Rio em
maio de 2010.
Os governantes precisam ter claro que em um mundo cada
vez mais digital o Estado não pode se furtar de estabelecer
o uso de padrões abertos, o que comprometeria seriamente
a capacidade de colaboração entre órgãos governamentais
e entre estes e a sociedade civil, criando obstáculos para a
preservação de investimentos e da memória da nação.
Para saber mais:
http://www.odfalliance.org
Technology Leadership Council Brazil
12. 12
A maneira Lean de se pensar
Diego Augusto Rodrigues Gomes
Vivenciamos um conjunto de mudanças de pensamento em
várias esferas do conhecimento. Na economia, muitos órgãos e
empresas tentam diminuir suas despesas. No contexto do meio
ambiente, temos acordos entre países para a redução de gases
de forma a estancar o aumento da temperatura global. Além
disso, estamos sob crescente incentivo à economia de água,
energia elétrica e à diminuição da poluição. Também estamos
frequentemente criando mecanismos inteligentes para o uso
doméstico diário. E o que é comum a tudo isso?
O esforço na redução do consumo de recursos e o seu melhor
aproveitamento. Com base na cultura e nos princípios de
gerenciamento adaptados do Sistema Toyota de Produção,
que surgiu no Japão como alternativa ao sistema de produção
em massa, foi criado o termo Lean (enxuto) para descrever
os sistemas de produção que buscam fornecer, a um custo
reduzido, valor aos clientes por meio da melhoria dos fluxos
entre processos.
Ao eliminar-se o desperdício em todos os fluxos que geram
valor, criam-se processos que demandam menos esforço,
menos espaço, menos capital e que requerem menos tempo
para a criação de produtos e serviços. Tudo isso com menos
defeitos e com maior qualidade quando comparados aos
processos tradicionais.
Os cinco princípios norteadores do pensamento Lean afirmam
que é imprescindível:
1. definir o que é valor para o cliente e procurar satisfazê-lo;
2. definir o fluxo de valor de maneira a eliminar processos
que não agreguem ao produto final (eliminar desperdícios);
3. dar fluidez aos processos, criando um fluxo contínuo de
produção, atendendo rapidamente às necessidades do
cliente (flexibilidade);
4. não mais empurrar o produto para o consumidor, e sim,
fazer com que ele o retire de acordo com sua necessidade;
5. buscar a excelência e perfeição (qualidade e melhoria
contínua).
A melhoria dos processos se dá não apenas pela redução,
mas pela eliminação de desperdícios, categorizados em sete
tipos: superprodução (produção além da demanda); espera
(períodos de inatividade devido à espera pelo próximo passo
da produção); transporte (movimento de partes desnecessárias
ao processamento); excesso de processamento (retrabalho);
deslocamento (pessoas ou equipamentos se movimentando
mais que o necessário para a execução de um procedimento);
inventário (estoque de insumos que não estão diretamente ligados
à necessidade atual); defeitos (perda de unidades de produção
e de tempo gasto para construí-las).
A busca pela qualidade segue duas estratégias: treinar e
desenvolver a força de trabalho e tornar os processos estáveis
e capazes de atender às necessidades do cliente. Pessoas
motivadas e que abraçam a cultura e filosofia da empresa são
o coração desse modelo. Cada um é responsável por melhorar
o fluxo de processos da instituição, sugerindo soluções e novas
abordagens, mesmo que não sejam responsáveis diretos por isso.
A flexibilidade nesse modelo é fruto do trabalho de profissionais
com múltiplas habilidades, os quais não só conhecem a sua
atividade e sabem operar suas ferramentas, mas também sabem
executar as atividades de outros profissionais, dando, assim,
maior fluidez ao fluxo de atividades que compõem a execução
dos processos.
Esse modelo de pensamento tem sido aplicado com sucesso em
diversos ramos de atividades, tais como manufatura, distribuição,
gestão da cadeia de suprimentos, desenvolvimento de produtos,
engenharia, entre outros. Mais recentemente, inclusive, tem
sido aplicado no processo de desenvolvimento de software.
Em síntese, falar de Lean é falar de maneiras coerentes de se
eliminar aquilo que não é necessário. Significa romper com o
pensamento “quanto mais, melhor”, agregar mais valor com
menos trabalho, reduzir custos, otimizar os tempos de produção
e entrega e melhorar a qualidade dos produtos e serviços.
Em outras palavras, é eliminar tudo aquilo que não agrega valor
e que não é importante ao resultado final. Adotar a filosofia Lean
como uma nova maneira de pensar e agir pode ser um bom
começo para tornar nosso planeta mais inteligente.
Para saber mais:
http://www.lean.org
http://www.lean.org.br
Livro: O Modelo Toyota, Jeffrey K. Liker (2005)
http://agilemanifesto.org/
Technology Leadership Council Brazil
13. 13
Então, você quer trabalhar com Arquitetura de TI?
Cíntia Barcelos
Eu ainda lembro quando, há alguns anos, falei para meu pai
que iria mudar de função na empresa em que trabalho há
16 anos. Mencionei que tinha conseguido uma excelente
oportunidade em uma nova área como arquiteta de TI. Ele
ficou feliz, mas confuso (apesar de ter um doutorado em Física
Teórica), e me disse: “Mas minha filha, você não se formou em
Engenharia?”. Ele até já tinha aceitado eu ter sido contratada
como analista de sistemas, mas virar uma arquiteta era um
pouco estranho para ele.
Afinal, o que faz um arquiteto de TI? Ele projeta soluções baseadas
em Tecnologia da Informação para resolver problemas de negócio,
as quais comumente integram diversos sistemas e se utilizam de
múltiplas tecnologias, serviços e produtos. Esse profissional, que
tem um amplo conhecimento técnico e experiência em diversas
disciplinas, consegue identificar e avaliar as possibilidades até
chegar à solução que melhor vai atender às necessidades do
negócio. Por isso é um profissional que deve conhecer bem a
indústria e o negócio em que trabalha e, a partir desses contextos,
fazer a conexão com a área de tecnologia.
Ao projetar uma solução, o arquiteto de TI precisa entender bem
o ambiente e os padrões estabelecidos na empresa no qual a
solução será inserida. Na sua caixa de ferramentas estão, além da
ampla experiência, metodologias de projeto de sistemas, técnicas
de modelagem, conhecimentos de padrões de arquitetura e
habilidades de consultoria e gerência de projetos.
Apesar de possuir conhecimento e ferramentas, o arquiteto
de TI nunca cria uma solução sozinho, sempre trabalha em
conjunto com especialistas que possuem conhecimento profundo
em cada um dos componentes da solução. E é nesse ponto
que entram outras qualidades necessárias ao arquiteto de TI:
liderança, comunicação, trabalho em equipe e negociação.
São principalmente esses conhecimentos não-técnicos que
diferenciam esse profissional dos demais.
Outra forma de entender o que um arquiteto de TI faz é dizer o
que ele não faz. Ele não é um “super especialista” que conhece
profundamente todas as tecnologias, produtos ou serviços,
mas tem bastante experiência e um bom conhecimento sobre
como essas coisas funcionam e como podem ser combinadas.
O mais importante da sua atividade é saber enxergar cada
tecnologia ou componente da solução como uma “caixa preta”,
com suas entradas e saídas, entendendo o que cada “caixa”
é capaz de gerar, muito mais do que saber em detalhes o que
acontece lá dentro. Ele não é um gerente de projeto, mas precisa
ter conhecimentos básicos dessa disciplina e, geralmente,
torna-se o braço direito desse outro profissional, pois precisa
entender e orientar a implementação da solução que projetou.
Ele também não é um consultor, mas precisa conhecer técnicas
e metodologias de consultoria.
E nem preciso dizer que o arquiteto de TI não é o mesmo que
um super desenvolvedor ou um analista de suporte sênior.
A profissão de arquiteto de TI está em alta e a demanda por
esse profissional segue aumentando. No mercado já existe
certificação nessa profissão, oferecidas pelo OpenGroup, IASA
e Zachman, entre outras. Ao me tornar uma arquiteta de TI,
encontrei a função e a carreira que sempre almejei. Nunca quis
largar a área técnica, porque é minha vocação e, de certa forma,
meu grande diferencial. Ao mesmo tempo, como arquiteta de
TI posso exercer funções de liderança, entender do negócio e
da indústria. Ainda não tenho muita certeza se meu pai entende
exatamente o que eu faço, mas tudo bem, eu também nunca
consegui entender muito bem as publicações da pesquisa dele.
Acho que vou dar esse artigo para ele ler...
Para saber mais:
http://www.iasahome.org/web/home/certification
Technology Leadership Council Brazil
14. 14
Computação Quântica
Conrado Brocco Tramontini
A computação quântica (CQ) consiste no processamento de
dados representados por partículas subatômicas e seus estados.
Mas antes de olhar diretamente para a CQ, é necessário observar
um pouco dos princípios da mecânica quântica, a base de
diversos ramos da física e da química, cujos estudos começaram
no início do Século XX, com os trabalhos do alemão Max Planck
e do dinamarquês Niels Bohr, premiados com o Nobel de Física
em 1918 e 1927, respectivamente.
Os conceitos da Mecânica Quântica são tão incomuns que
o próprio Einstein não aceitou essa teoria como completa.
Niels Bohr já advertira, em 1927, que “qualquer um que não se
chocasse com a teoria quântica não a compreenderia”. Segundo
a Mecânica Quântica o estado de um sistema
físico é o conjunto de todas as informações que
podem ser extraídas desse sistema ao se efetuar
alguma medida, incluindo a soma desses estados.
É exatamente isso que você entendeu, o estado
de um sistema físico é o conjunto de todos
os seus possíveis estados. Esse fenômeno
é chamado de “superposição” e é uma das
bases para a CQ.
Um experimento teórico conhecido como “o gato
de Schröndinger”, demonstra a estranha natureza
das superposições quânticas, nele um suposto
gato está preso a uma caixa, com um frasco de
veneno que será liberado caso ocorra uma reação em uma
partícula quântica. O gato tem 50% de chance de estar vivo ou
morto. Já para a mecânica quântica, entende-se que devido
a superposição de estados da partícula, o gato está vivo e
morto ao mesmo tempo, esperando apenas que a influência do
observador defina seu estado. Aqui aparece outra importante
característica, o Princípio da Incerteza de Heisenberg, que diz
que não podemos determinar simultaneamente, e com precisão,
a posição e o momento de uma partícula. Para livrar o bichano
dessa situação e saber o que aconteceu, deve-se abrir a caixa
e espiar. Nesse momento é feito uma medida sobre o estado
do sistema, que colapsa em um único estado (vivo ou morto).
Até que isso ocorra os estados ficam superpostos.
Se você ficou meio chocado com o que leu até aqui, significa
que estamos no caminho certo...
Enquanto um computador clássico utiliza pulsos elétricos para
representar o estado dos bits com valores 0 ou 1, a CQ utiliza
partículas e propriedades quânticas superpostas, como átomos
excitados ou não ao mesmo tempo, fótons que podem estar
simultaneamente em dois lugares, elétrons e pósitrons ou prótons
e neutrons com estados sobrepostos.
Uma molécula de um único transistor pode conter milhares
de prótons e nêutrons que podem ser usados como qubits.
A superposição torna possível representar muito mais dados,
aumentando a capacidade dos canais de comunicação
da informação, permitindo à CQ efetuar processamentos
exponencialmente mais velozes do que a computação tradicional
porque, ao invés de processar um dado por vez, irá “raciocinar”
em bloco, processando vários dados ao mesmo
tempo, como se existisse um só.
A Google demonstrou em dez/2009, no
controverso chip quântico desenvolvido pela
D-wave, um sistema de busca em imagens que,
por usar superposição, se mostrou mais rápido do
que os atuais. É como se você pudesse procurar
suas meias em todas as gavetas, de uma só vez.
Outra importante aplicação é a criptografia
quântica na qual um servidor emaranha o qubit
B ao qubit A e os envia respectivamente para as
máquinas A e B e em seguida, o que a máquina
A escreve em seus qubits é replicado para os
qubits da máquina B, sem oferecer risco de ser interceptado
uma vez que não se utiliza de nenhum meio ou contato físico
mas sim de um outro fenômeno chamado, não por acaso, de
teletransporte.
Os sistemas quânticos ainda apresentam dificuldades para serem
controlados pois se mostram sensíveis às mínimas interferências
e também porque o tempo em que se consegue controlar as
partículas ainda é muito pequeno. No entanto, a despeito desses
desafios, existe um consenso de que o desenvolvimento dessa
tecnologia vem ocorrendo mais rápido do que se imaginava
inicialmente. Com a computação quântica, podemos dizer que
a computação clássica está viva e morta ao mesmo tempo?
Para saber mais:
http://www.fisica.net/computacaoquantica/
http://qubit.lncc.br/index.html
Technology Leadership Council Brazil
15. 15
O desafio da modernização de sistemas legados
Victor Amano Izawa
No cenário atual, a maioria das empresas
precisa modernizar seus sistemas para
atender suas necessidades de negócio.
Essas atualizações nem sempre são simples
e muitas vezes necessitam implementar grandes
mudanças, afetando partes desses sistemas que podem ser
essenciais ao negócio.
A modernização pode ser necessária para o cumprimento de
leis regulatórias ou mesmo para cortar gastos e otimizar os
processos de negócio, com os quais as empresas visam manter-se
competitivas num mercado cada vez mais agressivo.
Quando se trata de modernização de sistemas legados, o custo
é a principal causa que impede as empresas de mudarem seus
sistemas. E mesmo que esses gastos sejam considerados como
um investimento nos negócios da empresa, existe ainda um outro
fator crítico, relacionado ao risco do processo de modernização,
o que contribui para desencorajar muitas ideias ou hipóteses
de modernização.
Nenhuma empresa quer arriscar seus negócios e ficar meses
aguardando a finalização do processo de modernização. Mas
isso significa que as empresas devem sacrificar seus negócios
e se tornarem menos competitivas? Como contornar isso de
maneira a minimizar esses riscos?
Uma solução adotada por várias empresas é modernizar
sua infraestrutura de sistemas utilizando-se de arquiteturas
distribuídas (clusters de servidores de alto desempenho). Sendo
assim, as empresas podem manter seus sistemas legados
com desempenho e capacidade elevados, fazendo uso de
computadores com alto poder de processamento, discos rígidos
de rápida resposta para grandes volumes de dados e redes
de fibra óptica com alta capacidade de transferência de dados,
por exemplo.
Quando as empresas decidem adotar uma estratégia e uma
política de modernização em seus sistemas, alguns fatores
devem ser considerados, tais como a adoção de um modelo de
processo de desenvolvimento de software e o gerenciamento
de escopo e risco.
Inicialmente deve-se avaliar se existe algum modelo de processo
de desenvolvimento de software vigente que possa atender às
necessidades da empresa ou se será adotado um novo modelo,
como o Open Unified Process (OpenUP) ou Rational Unified
Process (RUP), para que a modernização seja feita de maneira
organizada e otimizada.
Como muitas necessidades são apresentadas como melhorias no
sistema, é importante que cada uma seja analisada de maneira
que o escopo definido não seja muito alterado. A inclusão de
uma simples melhoria pode aumentar bastante a complexidade
da modernização e, consequentemente, impactar nas demais
partes do sistema. E isso significa considerar novos riscos e
aumentar o custo de desenvolvimento. Portanto, gerenciar riscos
é muito importante para que determinadas modificações não
impliquem em complicações futuras.
O desafio de manter-se atualizado pode ser enfrentado desde
que se saiba gerenciar os riscos, os custos e o processo como
um todo adequadamente. No mercado atual, uma empresa deve
demonstrar competência para sempre inovar e estar à frente da
concorrência, enfrentando com sabedoria os novos desafios.
Para saber mais:
Livros: Legacy Systems: Transformation Strategies (2002) – William M. Ulrich; Prentice Hall PTR
Modernizing legacy systems: Software technologies, engineering processes, and business practices
(2003) – Robert Seacord, Daniel Plakosh, Grace Lewis; Addison-Wesley
Technology Leadership Council Brazil
16. 16
Tecnologia para Cidades Inteligentes
José Carlos Duarte Gonçalves
Há algum tempo falamos que a globalização está deixando o
mundo cada vez mais plano, com menos barreiras geográficas.
Mas estamos começando a perceber um fenômeno ainda maior:
o planeta também está se tornando mais inteligente.
Quando comecei minha carreira em TI, há 33 anos, a memória
de um computador IBM S/370 era capaz de armazenar até
64Kbytes de informação. Atualmente qualquer telefone celular
possui milhares de vezes essa quantidade de memória.
O alcance da tecnologia também deu um enorme salto ao longo
desse tempo. Hoje já existe mais de quatro bilhões de usuários
de telefonia celular no mundo, o que representa quase 70% da
população mundial. Até o final de 2010, estima-se que haverá
mais de um bilhão de transistores para cada ser humano, cada
um custando um décimo de milionésimo de centavo de dólar.
Estima-se também que haverá mais de 30 bilhões de etiquetas
de RFID (identificação por rádio frequência) em circulação, além
de dois bilhões de pessoas conectadas à Internet.
O que isso tudo significa? Que pela primeira vez na história, as
infraestruturas digitais e físicas do mundo estão convergindo
e praticamente qualquer coisa pode se tornar digitalmente
conectada a um baixo custo. O mundo está caminhando para
ter um trilhão de coisas conectadas – a “Internet das Coisas”
feita de carros, geladeiras, prédios, rodovias, etc.
Mas para termos um mundo realmente mais inteligente temos
que cada vez mais nos preocupar com o meio ambiente, a
sustentabilidade do planeta e o não esgotamento dos seus
recursos naturais. Temos hoje a oportunidade de usar a tecnologia
para resolver ou minimizar os grandes problemas da sociedade,
tais como congestionamentos de trânsito, conservação de água
potável, distribuição de alimentos e energia, serviços de saúde,
entre outros.
Uma das questões mais críticas é o transporte, com seus
engarrafamentos caóticos nas grandes cidades. Só em São
Paulo, o custo do congestionamento, levando-se em conta
o tempo ocioso das pessoas nos horários de trânsito mais
intenso, passa de R$ 27 bilhões por ano. Se forem considerados
também os gastos referentes ao consumo de combustível e o
impacto dos poluentes na saúde da população, teremos um
custo adicional anual de R$ 7 bilhões.
Como resolver? Cidades como Estocolmo, Cingapura, Londres e
Brisbane já estão buscando soluções inteligentes para gerenciar
melhor o trânsito e reduzir a poluição. As iniciativas vão desde
a previsão do tráfego aos sistemas de pedágio inteligentes e
dinâmicos. Em Estocolmo, com a implementação do pedágio
urbano, o congestionamento já foi reduzido em 25%, a redução da
poluição chegou a 40% e o uso de transporte público aumentou
em 40 mil pessoas/dia.
Os líderes de governo e das instituições, precisam identificar as
oportunidades certas e obter os investimentos necessários por
meio de incentivos e programas de apoio. É importante ressaltar
que tornar-se mais inteligente não se aplica apenas às grandes
corporações, mas também às empresas de pequeno e médio
porte que são os motores de nosso crescimento econômico.
Cada vez mais, seremos medidos pela maneira como aplicamos
nosso conhecimento e nossa capacidade para resolver os
grandes problemas. É um desafio que devemos entender e
receber de braços abertos, de maneira a buscar resolver os
problemas e tornar as cidades mais inteligentes.
Para saber mais:
http://www.ibm.com/innovation/us/thesmartercity
http://cities.media.mit.edu/
http://www.smartcities.info/
Technology Leadership Council Brazil
17. 17
Tudo como Serviço
Sergio Varga
A evolução e maturidade das tecnologias de virtualização, os
avanços de desempenho e capacidade dos servidores e redes,
e o aumento de aplicações compartilhadas estão permitindo
às empresas disponibilizarem uma vasta gama de soluções no
modelo “as a Service” (aaS). Aplicações que até há pouco tempo
atrás não se imaginava que poderiam ser implementadas nesse
modelo agora já estão disponíveis. Como um exemplo, no final
de 2009 a IBM lançou no mercado o TivoliLive, um ambiente
de monitoração disponível no modelo “Monitoring as a Service”.
Noutro exemplo temos as já conhecidas Box.net e Salesforce.com,
que integraram o modelo de armazenamento de documentos
de uma com o de gestão de relacionamento com clientes da
outra, oferecendo novos serviços
combinados no modelo “Software
as a Service” (SaaS).
Communication as a Service
(CaaS), Infrastructure as a Service
(IaaS), Platform as a Service
(PaaS), Service Management as
a Service (SMaaS) são alguns
outros exemplos desse modelo de
serviços que tem crescido muito
nos últimos anos. Esse mercado,
segundo a previsão do IDC, saltará
dos US$ 17.4 bilhões em 2009 para
mais de US$ 44 bilhões em 2013. Outra pesquisa, da Saugatuck
Technologies, afirma que ao fim de 2012, 70% das pequenas
e médias empresas e 60% das grandes terão pelo menos uma
aplicação SaaS, ou seja, esse modelo não será restrito a um
determinado tamanho de empresa.
O primeiro grande grupo de aplicações a entrar no modelo “as a
Service” foram as de CRM, Recursos Humanos e Procurement,
ou seja, principalmente aquelas voltadas para usuários finais.
A partir de então, outras começaram a serem portadas para
esse modelo e hoje temos uma enorme lista de aplicações, até
mesmo aquelas desenvolvidas localmente. Outro grande uso
das soluções aaS é para projetos-piloto e análise de aplicações
a serem implementadas na empresa.
Um fator importantíssimo para a explosão dessas aplicações é
o cloud computing, que está se tornando uma realidade. Várias
empresas já estão disponibilizando esse tipo de infraestrutura,
como a Amazon que em 2006 lançou o Elastic Compute Cloud,
e a IBM que em 2009 lançou o Cloudburst.
No entanto, para a disseminação do modelo “as a Service”, existem
quatro grandes desafios, identificados em outra pesquisa feita pelo
IDC ainda em 2008: segurança, desempenho, disponibilidade e
integração. Aumentar a segurança das soluções implementadas
através da Internet e garantir a privacidade das informações
é a maior prioridade para empresas que proveem aplicações
no modelo “as a Service”. A segunda maior preocupação é
Technology Leadership Council Brazil
disponibilizar aplicações com um
desempenho aceitável e para isso,
além de servidores de grande
capacidade, também podem ser
necessários vários pontos de
presença espalhados pelo mundo
para minimizar a latência de rede.
Para ter alta disponibilidade nesses
ambientes são necessários planos
de continuidade e monitoração
ininterrupta. Outro desafio é habi-litar
soluções que sejam fáceis de
ser integrar com os sistemas dos
clientes, eventualmente em nuvens diferentes.
Apesar dos desafios, a facilidade de implementação, o baixo
custo sugerido e a inexistência de investimentos em hardware
e software são grandes atrativos para os clientes adotarem
aplicações oferecidas nesse modelo.
O que provavelmente veremos num futuro próximo? As empresas
de TI batalhando nesse nicho de mercado e os consumidores
deixando de investir em ativos de TI e usando soluções de
negócio como serviços.
Para saber mais:
http://blogs.idc.com/ie/?p=543
www.ibm.com/services/us/gts/flash/tivoli_live.swf
http://www.saugatech.com/
18. 18
O Nevoeiro e o Sapo
Wilson E. Cruz
Um dos fatos mais perturbadores de nosso tempo é o excesso
de estímulos que hoje passam por nossos olhos e ouvidos e, com
alguma sorte, invadem nosso cérebro. A todo momento aparece
alguém dizendo: “É muita informação! Não dá prá gerenciar!”.
O fenômeno, muito novo, vertiginosamente crescente, e já no
limiar da sanidade, tem perturbado, tanto no âmbito pessoal
quanto no profissional, a maioria das pessoas “conectadas”.
Para me ajudar no diagnóstico da situação e abrir a porta para
alguns temas de reflexão, uso aqui Dee Hock, fundador do
conceito que define a Organização VISA, e seu fantástico livro
“Nascimento da Era Caórdica”: “Com o tempo, os dados vão se
transformando em informações, as informações em conhecimento,
o conhecimento em compreensão
e, depois de bastante tempo
(...) a compreensão pode se
transformar em sabedoria.
(...) As sociedades nativas (...)
tiveram tempo para desenvolver
a compreensão e a sabedoria.”.
Perceba que a palavra “tempo”
aparece três vezes.
Aproveitando o quinto aniversário
do Mini Paper Series, e sua
tradição como instrumento de
divulgação, arrisco algumas
questões e ideias que talvez
tragam alguma luz aos que buscam direção no meio da névoa.
Comecemos pelas questões:
• Quantos Mini Papers você já leu? E, mais importante, em
quantos deles você buscou a informação do quadrinho
chamado “Para saber mais”?
• Por que razão o resultado de suas pesquisas, naqueles
sites famosos, saem naquela ordem, mesmo que todas as
cem primeiras respostas tenham 100% de aderência ao
seu argumento de pesquisa?
• E, finalmente, o que faz um sapo quando está no meio de
um nevoeiro?
Se suas respostas não lhe trouxeram a sensação de estar apenas
arranhando a superfície dos assuntos mais importantes de sua
vida, não perca tempo com o resto deste artigo. Vá para o próximo
assunto, e para o próximo. Se, por outro lado, as respostas
deixaram você um pouco incomodado ou ressabiado, vale a
pena refletir sobre alguns pontos (refletir, não necessariamente
concordar):
• Saia da armadilha de que “o mais acessado é o melhor”:
em qualquer site da moda, aparece no topo da lista de
recomendações a música mais baixada, a notícia mais lida,
o vídeo mais assistido. Quem garante que a quantidade
(sobretudo a quantidade gerada por outros) lhe garante
qualidade?
• Crie, cultive e conserve a sua lista de fontes, baseada em
seu sistema de valores e preferências. Você paga suas
Technology Leadership Council Brazil
contas, portanto não é escravo da
"enciclopédia universal” dos outros.
• Preste atenção, e, preferen-cialmente,
formalize suas re-gras
e critérios de mérito. O que
lhe é bom? O que faz diferença
para você?
• Reserve tempo para discutir.
Já foi dito aqui, mas vale
repetir que no final da frenética
sequência que vai do ruído
à sabedoria, a discussão é o
filtro final.
• E, finalmente, desacelere. Pre-me-di-ta-da-men-te. Cal-cu-
la-da-men-te. Perceba que bem perto do solo a névoa
é menor, e dê pequenos pulos, mais curtos e certeiros,
gastando mais tempo no solo, para olhar em volta e avaliar
o mundo ao redor.
Mas no meio disso, como ficam os aniversariantes, o TLC-BR
(seis anos!) e o Mini Paper Series (cinco anos)? Eles podem ser
disseminadores de informação e conhecimento útil, o que já é
bastante neste nevoeiro denso e baixo. Mas eu torço por mais.
Eu torço por vê-los como a “sociedade nativa” de Dee Hock,
buscando o pensamento, a reflexão, e com isso a compreensão
e a sabedoria.
Para saber mais:
http://www.onevoeiroeosapo.blog.br
HOCK, Dee – “Nascimento da Era Caórdica” – São Paulo: Editora Cultrix, 1999
19. 19
Boas práticas para a elicitação de requisitos
Cássio Campos Silva
A atividade de elicitação de requisitos é uma das mais importantes
práticas da engenharia de software. Através dela, busca-se o
entendimento das necessidades do usuário e dos requisitos
de negócio, de forma a endereçá-los posteriormente através
de uma solução tecnológica.
Algumas literaturas adotam o termo elicitação, ao invés de
levantamento, pois essa prática não trata simplesmente o
levantamento de requisitos, mas também da identificação dos
fatos que os compõem e os problemas a serem solucionados. Por
ser uma atividade interpessoal, essa prática é muito dependente
da capacidade de entendimento do analista e da habilidade do
usuário em expressar as suas necessidades.
Em uma pesquisa realizada pelo Standish Group foram mapeados
cinco fatores críticos para o sucesso de um projeto: Envolvimento
do Usuário; Suporte Gerencial Executivo; Descrições claras dos
requisitos; Planejamento adequado; Expectativas realísticas.
Repare que os fatores grifados são aqueles diretamente
relacionados aos requisitos.
Considerando-se a complexidade na execução das atividades
de elicitação de requisitos e a dependência do relacionamento
entre os envolvidos, algumas boas práticas devem ser adotadas
pelos analistas de forma a facilitar o processo:
Preparação: Prepare-se previamente e de forma adequada para
as atividades planejadas, as quais são geralmente realizadas
através de entrevistas, questionários, brainstorms e workshops.
Stakeholders: Mapeie (com antecedência) quem serão os
participantes do processo, quais os seus papéis no projeto e
na organização e quais são os seus níveis de conhecimento
e influência. É imprescindível que as pessoas corretas sejam
envolvidas o quanto antes.
Postura: Busque sempre a efetividade nas comunicações, assim
como procure demonstrar ponderação durante as situações
de conflito.
Entendimento: Procure focar no entendimento do problema e
evitar conclusões precipitadas. Nesse primeiro momento o mais
importante é saber escutar.
Experiências passadas: Utilize de forma positiva as experiências
vividas anteriormente para ajudar a melhor compreender o
problema. Evite considerar que o problema atual é igual a algum
outro que tenha sido resolvido em um cliente ou projeto passado.
Documentação: descreva o problema de forma clara
e objetiva. Em caso de dúvidas, consulte o cliente e
evite inferências. Procure usar exemplos citados pelos
stakeholders. A adoção de diagramas e figuras sempre
ajuda na documentação e entendimento dos requisitos.
A criação de protótipos também contribui para o entendimento
comum da solução proposta.
Validação: Faça com que os stakeholders validem a documentação,
verificando o entendimento do problema e as melhorias desejadas
e eventualmente façam solicitações de mudanças.
Ao final do processo deverá ser possível demonstrar de maneira
documental o entendimento do problema, as necessidades
do cliente e as oportunidades de melhorias. Isso delimitará
o escopo do projeto e deverá nortear o desenho da solução,
assim como o planejamento do projeto.
A mensuração do tamanho, complexidade e riscos de um projeto
dependerá da qualidade e coerência dos requisitos. É crucial que
essa atividade seja executada de forma criteriosa e detalhada,
pois qualquer falha nesse momento poderá gerar projetos mal
sucedidos, perdas financeiras e clientes insatisfeitos.
Para saber mais:
http://en.wikipedia.org/wiki/Requirements_elicitation
http://www.volere.co.uk
Livro: Requirements Engineering 2nd Edition - Ken Jackson
Technology Leadership Council Brazil
20. 20
O homem que enxergou a forma das coisas
Fábio Gandour e Kiran Mantripragada
Benoît Mandelbrot faleceu no dia 14 de outubro de 2010. Poderia
ser apenas mais um nome exótico da ciência mas ele foi bem
mais do que isso. Filho de poloneses com ascendência judaica,
Mandelbrot nasceu em Varsóvia, em 1924, no seio de uma família
com forte tradição acadêmica. Estudou inicialmente na França
e depois nos Estados Unidos. Em 1958, começou a trabalhar
como cientista da IBM T.J. Watson Research Lab, onde chegou
aos títulos de IBM Fellow e Cientista Emérito.
Benoît Mandelbrot foi o matemático que melhor entendeu e
divulgou uma nova formulação
para representar os fenômenos
da natureza. Seu entendimento
levou à criação da palavra “fractal”,
inspirada no Latim fractus, que
significa fraturado, quebrado.
Ele afirmava que a natureza é
regida pela Geometria Fractal,
pois a Geometria Euclidiana não
conseguia descrever formas
naturais mais complexas, como
nuvens, árvores, o traçado dos rios
e cadeias de montanhas.
A Geometria Euclidiana clássi-ca
Technology Leadership Council Brazil
é construída a partir de 3
elementos: o ponto, a reta e o
plano. O ponto não tem dimen-são,
ou seja, é um elemento zero-dimensional. A linha
por sua vez, tem uma única dimensão, o comprimento, e portanto,
pode apresentar uma grandeza mensurável. Finalmente, o plano
apresenta duas dimensões, o comprimento e a largura. Com
estes 3 elementos, Euclides de Alexandria, que viveu entre 360
e 295 A.C., construiu a Geometria Euclidiana.
Alguns matemáticos, como Bernhard Riemann, observaram que
os conceitos descritos por Euclides podem ser extrapolados
para objetos de “n” dimensões, como hiperesferas, hiperplanos,
simplex n-dimensionais e outras “figuras”.
Mandelbrot, por sua vez, observou de forma brilhante que
existem dimensões “quebradas”, ou seja, que realmente existem
objetos “n-dimensionais”, onde “n” é um número real. Assim, se
uma reta apresenta uma única dimensão e o plano apresenta
duas dimensões, como seria um objeto “1,5 dimensional”? De
fato, Mandelbrot mostrou que tais objetos existem e podem ser
descritos pela teoria que ele chamou de Geometria dos Fractais.
A Geometria Fractal estuda objetos com propriedades
interessantes, como por exemplo, o Tapete de Sierpinski, que
é o resultado da remoção sucessiva do quadrado central, após
divisão do quadrado maior original em nove quadrados menores
e iguais, formando um objeto com área que tende a zero e
perímetro que tende ao infinito. A imagem mostrada abaixo é
uma extrapolação do “Tapete” para um “Cubo de Sierpinski”.
Observem que a quebra [fratura] de uma dimensão em outra
menor, de mesma forma e contida dentro da primeira, cria uma
dimensão sem fim.
Benoît Mandelbrot pode ter
sido vítima da beleza de sua
própria criação pois as imagens
construídas a partir da Geometria
Fractal tiveram um forte apelo para
o mundo das artes.
Este apelo fez com a Geometria
Fractal fosse vista e usada mais
como uma ferramenta de ilustração
do que como um modelo matemático
para representação da natureza. Por
exemplo, a busca da palavra “fractal”
no Google Images apresenta mais
de 1 milhão de resultados, todo eles
de grande apelo visual.
Por ser matemático, Mandelbrot
nunca foi considerado um candidato ao Prêmio Nobel, pois
não existe essa categoria na premiação. Mas a utilização
prática da Geometria Fractal poderá, no futuro, reconhecer
a sua contribuição para outras áreas, como a Física ou a
Economia. Se alguém mostrar, por exemplo, que a evolução
das crises financeiras também tem um comportamento fractal,
a justiça terá sido feita. Em outra linha, Stephen Wolfram
e a teoria dos Autômatos Celulares, explicada no seu livro
“A New Kind of Science”, pode ser o começo da correção desse
equívoco histórico.
Para saber mais:
http://tinyurl.com/34f59ty
http://www.math.yale.edu/mandelbrot/
http://www.wolframscience.com/
21. 21
Métricas de Software
Daniela Marques
É indiscutível que qualidade é um item importante para qualquer
produto ou serviço. Um software usado como ferramenta para
suportar diversas linhas de negócios nas empresas também deve
apresentar, a cada versão, níveis mais elevados de qualidade.
É fato também que novas versões são exigidas para atender
às novas demandas, assim como para oferecer novidade aos
clientes. Essas afirmações trazem à tona a questão de como
aumentar a produtividade no desenvolvimento de software
mantendo ou elevando os padrões de qualidade.
Uma das ferramentas que a engenharia de software utiliza são as
métricas de software. Essas métricas podem ser consideradas
como um conjunto de atributos, previamente documentados e
conhecidos do ciclo de desenvolvimento de software.
Apesar da existência da
norma IEEE 1061-1998, ain-da
Technology Leadership Council Brazil
persiste uma falta de con-senso
na utilização dessas
métricas, ainda que poucos
duvidem que elas sejam
essenciais para o processo
de desenvolvimento de qual-quer
software. Afinal, com as
métricas é possível realizar
análises nas informações
coletadas, de forma a poder acompanhar o desenvolvimento
de um software, traçar planos para manter o cronograma do
projeto em dia e atingir o nível desejado de qualidade.
Em relação à qualidade, é importante ressaltar que todos os
envolvidos no processo de desenvolvimento de um software
devem participar na determinação do seu respectivo nível de
qualidade, assim como no tratamento das inconformidades
no atendimento aos requisitos inicialmente especificados. As
métricas de software podem ser classificadas em medidas diretas
(quantitativas) e medidas indiretas (qualitativas). As medidas
diretas são aquelas que representam uma quantidade observada,
tais como custo, esforço, número de linhas de código, tempo
de execução e número de defeitos. Já as medidas indiretas
são aquelas que exigem análise e estão relacionadas com a
funcionalidade, qualidade, complexidade e manutenibilidade.
As métricas de software auxiliam diretamente no planejamento
do projeto. Por exemplo, a métrica “LOC (Lines of Code)” é
utilizada para dimensionar prazo e custo através da contagem
de linhas de código.
A produtividade durante cada teste (derivada do tempo de
execução) e o número de defeitos encontrados trazem como
benefício a informação necessária para a estimativa de
finalização do projeto e do esforço exigido em cada fase de
testes. A quantidade de defeitos encontrados também fornece
dados para a determinação da qualidade do software (medida
indireta), assim como a análise da causa-raiz dos defeitos ajuda
a formalizar um plano de melhorias para as futuras versões (veja
exemplo no quadro).
Diversas são as métricas
existentes e as suas apli-cações
no ciclo de vida de um
software. Cabe ao gerente de
projeto coordenar as ações
para determinar o padrão de
qualidade requerido e definir
quais elementos devem ser
medidos e monitorados
durante esse ciclo. A
coleta dessas informações
permite não só um melhor acompanhamento do processo
de desenvolvimento de um software, mas também a análise
qualitativa desse software como um produto. A base histórica
das métricas permite que futuras propostas de mudança ou
criação sejam mais precisas, visto que projetos similares tendem
a passar pelos mesmos problemas e soluções.
Para manter ou elevar o nível de qualidade de um software
é essencial medir e monitorar durante todo o seu ciclo de
desenvolvimento. As extrações de métricas fornecem não só
uma visão da situação real mas, principalmente, permitem
planejar e tomar providências na busca de melhoria contínua.
Para saber mais:
http://www.kaner.com/pdfs/metrics2004.pdf
http://standards.ieee.org/findstds/standard/1061-1998.html
22. 22
Gestão por Competências: é hora do C.H.A.
Pablo Gonzalez
Podemos afirmar que gerir pessoas é uma ciência em constante
evolução e repleta de desafios. Neste contexto, um modelo que
vem se tornando cada vez mais notório nas organizações é a
chamada gestão por competências, na qual o objetivo principal
é melhorar o preparo dos colaboradores em busca de maior
produtividade e adequação ao negócio, valorizando assim o
capital intelectual da organização.
Com base nesta premissa, gerir competências significa
coordenar e incentivar os colaboradores a reduzirem os gaps
(necessidades de melhoria), saber o que eles são capazes de
executar (competências atuais) e entender o que a empresa
espera deles (competências requeridas).
O termo “competência” pode ser representado
por três propriedades correlacionadas,
resumidas na sigla C.H.A. Conhecimento,
Habilidade e Atitude. O Conhecimento
refere-se à assimilação de informações
que a pessoa acumulou no decorrer da
vida e que causam impacto sobre seu
julgamento ou comportamento — o saber. Já
a Habilidade refere-se à aplicação produtiva
do conhecimento — o saber fazer. Por fim, a
Atitude refere-se à conduta da pessoa em
situações distintas e na sociedade — o agir.
Para exemplificar a aplicação deste conceito em uma organização,
vamos imaginar que numa escala de zero a dez, a sua habilidade
em “Negociação” seja seis, e, supondo que o grau mínimo
requerido pela empresa seja dez, podemos afirmar que você
tem um gap de valor quatro nesta competência.
Com base nesse resultado, e, juntando-se os resultados de
outras técnicas de análise de desempenho como o Feedback
360º, cria-se um plano de redução de gaps, através do qual a
empresa vai sugerir como e quando esses gaps serão trabalhados.
O intuito é aprimorar as competências existentes de maneira
alinhada aos objetivos estratégicos da organização, através de
um plano de desenvolvimento profissional individual.
A implementação da gestão por competências não é complexa,
porém requer alguns métodos e instrumentos específicos. Ter
a missão, visão, valores, objetivos estratégicos, e processos
bem definidos são alguns dos passos fundamentais para a
sua adoção.
Cabe ao RH definir a matriz de competências requeridas
juntamente aos gestores de cada área. Outro fator essencial
é manter a comunicação ativa durante todo o projeto, a fim
de esclarecer os objetivos e manter os avaliados informados.
É importante, ainda, salientar que a falta de preparo das
pessoas para avaliar e dar feedback e a resistência de alguns
colaboradores podem dificultar a adoção do modelo. No entanto,
tal dificuldade pode ser mitigada através da capacitação prévia
e conscientização.
O uso da tecnologia pode ser um acelerador, já que auxilia na
identificação e armazenamento histórico das competências,
além de permitir a geração de gráficos e relatórios para análise.
Seguindo esse modelo a empresa poderá
estruturar melhor os papéis profissionais e
competências fundamentais para o negócio,
aumentar a eficácia na execução das tarefas,
identificar talentos e garantir que seus
profissionais apresentem os diferenciais
competitivos exigidos pelo mercado.
Assim, a gestão das competências é flexível
o bastante para ser adotada em empresas de
qualquer porte, desde pequenas organizações
até multinacionais, mostrando ser viável e
eficiente em múltiplos cenários.
Empresas como Coca-Cola, Embraer, IBM, Petrobras e Shell, entre
muitas outras, já adotaram medidas voltadas para a gestão por
competências e relataram melhorias significativas em termos de
eficácia na execução das tarefas, reconhecimento e motivação
dos funcionários, entre outros benefícios.
Em suma, cabe à empresa utilizar esse modelo num ciclo de
melhoria contínua no qual, a cada novo projeto ou ciclo de
avaliação, novos indicadores deverão ser criados e os antigos
reavaliados, de forma a mensurar os resultados obtidos e
planejar os próximos passos. E é dentro desse contexto que
a gestão por competências busca a excelência corporativa e
a satisfação daqueles que representam o maior bem de uma
empresa: as pessoas.
Para saber mais:
http://slidesha.re/19HNtL
http://bit.ly/fMylgE
http://www.gestaoporcompetencias.com.br
Technology Leadership Council Brazil
23. 23
Daily Scrum para todos!
Renato Barbieri
Hora do almoço no
Morumbi Shopping em
São Paulo. Cheguei bem
cedo pois, como sabem
os frequentadores dos
restaurantes desse shop-ping,
essa é a única forma
de garantir lugar nas mesas
maiores quando não há
reserva. No restaurante es-colhido,
garçons e maitres
estão reunidos num círculo,
todos em pé. Os maitres
conduzem a rápida reunião
com orientações gerais e algumas específicas.
Alguns dos garçons são novos e são apresentados ao time, que
lhes dá as boas-vindas. Alguns garçons comentam situações,
tiram dúvidas rápidas e em dez ou quinze minutos a reunião está
encerrada. Isso ocorre diariamente em todos os restaurantes
da rede, segundo me informou um dos maitres. Corta a cena.
O Movimento Ágil nasceu como uma iniciativa de desenvolvedores
de software com o objetivo de encontrar alternativas aos métodos
tradicionais de desenvolvimento que tornassem essa atividade
mais leve, mais ágil, e culminou com a publicação do Manifesto
Ágil (Agile Manifest) em fevereiro de 2001.
Entre as novas metodologias que surgiram a partir desse
movimento, a Extreme Programming (XP) prega como um dos
seus príncipios básicos reuniões diárias, de no máximo quinze
minutos, na qual todos os participantes permanecem em pé
e utilizam esse momento para compartilhar experiências e
dificuldades.
Outra metodologia ágil, a Scrum, também incentiva as reuniões
diárias e rápidas conhecidas como Daily Scrum Meetings (ou
simplesmente Daily Scrum), com o mesmo propósito do exemplo
anterior: compartilhar experiências e dificuldades de maneira
rápida, ágil e frequente.
Numa Daily Scrum, três perguntas básicas devem ser respondidas
por cada participante:
• O que foi feito desde a última reunião?
• O que pretendo fazer até a próxima reunião?
• O que me impede de prosseguir?
A ideia não é transformar esses momentos em meras reuniões
de status, mas compartilhar o que cada um já fez e ainda irá
fazer para alcançar o objetivo comum do grupo. Questões e
problemas são apenas citados resumidamente e seus detalhes
e soluções deverão ser tratados externamente com as pessoas
apropriadas.
A metodologia Scrum prevê um agente facilitador na equipe,
o qual tem papel fundamental na Daily Scrum: o de Scrum
Master. Ele age como moderador das reuniões e guardião da
metodologia, não permitindo que discussões se estendam além
do tempo e do escopo determinado. Ele mantém o foco no que
é necessário e alerta para exageros e distrações.
A prática da Daily Scrum pode ser adotada em muitas situações
além do desenvolvimento de software. Temos exemplos práticos
de seu uso em equipes de suporte, e como mostra o exemplo
no começo deste artigo, restaurantes também a utilizam, de
forma adaptada às suas necessidades, mas mantendo o objetivo
primordial: a colaboração no trabalho em equipe.
E por que não adaptar uma boa ideia?
É comum pensarmos em metodologias como camisas-de-força,
que ao invés de apoiar e ajudar os profissionais, acabam
por restringir ações e inibir a criatividade. Esse é um conceito
ultrapassado e o Movimento Ágil quebrou esse paradigma.
As melhores práticas são maleáveis por princípio, e permitem a
revisão de seus conceitos e implementações. A Daily Scrum não
é exceção e nem mesmo precisa ser diária, como o nome original
sugere, mas deve ser frequente, e o mais importante de tudo:
que esses encontros resultem na união de seus participantes
e assegure, para cada um deles, que todos colaborem para
alcançar um objetivo comum.
Para saber mais:
http://www.agilemanifesto.org
http://www.scrumalliance.org
http://www.extremeprogramming.org
Technology Leadership Council Brazil
24. 24
Como agradar ao cliente que contrata serviços?
Rosemeire Araujo Oikawa
Imagine as seguintes situações do cotidiano:
• Ficar sem toalhas por quase um dia inteiro num quarto de
hotel ao voltar da praia;
• Receber o seu carro do manobrista com arranhões após
um jantar perfeito num restaurante;
• Esperar dez minutos para ser atendido por um Call Center
e não conseguir solucionar seu problema.
A lista de situações adversas que podem ocorrer quando
contratamos serviços é enorme. E com os consumidores cada
vez mais exigentes e conscientes dos seus direitos, a tendência
é que essa lista continue a crescer. As empresas prestadoras
de serviço precisam estar preparadas para lidar com isso.
Hoje o mercado de serviços
representa 68,5% do PIB mun-dial.
Agricultura Manufatura
Serviço
Technology Leadership Council Brazil
Veja no gráfico ao lado a
100%
90%
80%
representatividade desse setor
na economia global. As empresas
já aprenderam a terceirizar o que
não é o foco do seu negócio, a
vender produtos como serviços,
a criar serviços especializados,
e muitas estão aprendendo a
trabalhar de maneira orientada
a processos. Mas em meio a tudo isso parece que muitas
esqueceram o mais importante: atender às expectativas dos
seus clientes.
Firmar um Acordo de Nível de Serviço ou SLA (Service Level
Agreement) é a chave para iniciar um relacionamento de sucesso
com o cliente. É através desse documento que o prestador
de serviço traduz as expectativas do cliente em objetivos a
serem entregues, penalidades que poderão ser aplicadas e
responsabilidades que deverão ser cumpridas. O grande desafio
é ter os SLAs bem definidos, pois as falhas ocorrem justamente
quando as expectativas do cliente não são corretamente
traduzidas nesse acordo.
Para se ter SLAs bem definidos os seguintes aspectos, devem
ser levados em consideração:
• Conhecer as necessidades dos usuários do serviço (usuário
é quem utiliza o serviço, e cliente é quem paga);
• Entender como o serviço suportará os negócios do cliente
e os impactos que lhes poderá causar;
• Estabelecer níveis alcançáveis e que possam, de fato, ser
medidos;
• Estruturar o acordo com um pensamento de provedor de
serviços e não de vendedor de produtos;
• Criar um modelo de custos que suporte os níveis de serviço
oferecidos ao cliente;
• Especificar níveis de serviço
para todos os componentes
do serviço principal, incluindo
as partes terceirizadas;
• Definir acordos com as áreas
internas e externas responsáveis
pela execução do serviço.
A eficácia na definição e gestão
dos SLAs é a base para a entrega
de serviços com qualidade. A
formalização das expectativas do cliente e o entendimento claro
entre as partes do que foi contratado e o que será entregue
molda a percepção sobre um serviço, tornando-o mensurável
e objetivo.
Atingir um SLA é entregar o que já é esperado e excedê-lo pode
comprometer o custo e até passar despercebido pelo cliente. Por
outro lado, SLAs não cumpridos podem comprometer a relação
com o cliente ou a percepção de qualidade de todo o serviço.
Os SLAs devem ir além da pura medição e ser um instrumento
de suporte à melhoria contínua dos serviços e dos processos
de negócio nas empresas.
Para saber mais:
http://www.gartner.com/DisplayDocument?id=314581
Fonte dos dados: Banco Mundial http://data.worldbank.org
70%
60%
50%
40%
30%
20%
10%
1800 1815 1830 1845 1860 1875 1890 1905 1920 1935 1950 1965 1980 1995 2000
Fonte dos dados: Banco Mundial (http://data.worldbank.org)
0%
25. 25
Especial Centenário da IBM: SAGE, um berço de inovação
Marcelo Sávio
A Força Aérea dos Estados Unidos, impulsionada pela repercussão
da explosão das bombas atômicas experimentais soviéticas
no início da década de 50, deu início a um projeto ambicioso
chamado SAGE (Semi-Automatic Ground Environment) para
criação e implantação de um sistema de defesa contra aviões
bombardeiros.
Esse sistema foi implantado entre 1957 e 1961 e operava de
maneira distribuída por vinte e três centros de processamento
de dados instalados em bunkers gigantescos na América do
Norte, cada qual contendo dois computadores de grande porte
chamados de AN/FSQ-7 (Army-Navy Fixed Special eQuipment).
Essa máquina, especialmente desenvolvida pela IBM, foi rotulada
de “cérebro eletrônico” nas manchetes da imprensa da época
e é, até hoje, considerado o maior computador que já existiu.
Pesava mais de 250 toneladas e usava mais de 50 mil válvulas
eletrônicas, que consumiam 3 megawatts de energia elétrica.
O sistema processava um conjunto de informações oriundas
de centenas de radares, calculava rotas aéreas e comparava
com dados armazenados para viabilizar tomadas de decisão
que, de forma rápida e confiável, efetuassem a defesa contra
os aviões bombardeiros inimigos potencialmente carregados
de artefatos nucleares altamente destrutivos.
Para fazer tamanha complexidade funcionar, uma série de
inovações foram introduzidas no projeto, tais como o uso do
modem para a comunicação digital através de linhas telefônicas
comuns, monitores de vídeo interativos, computação gráfica,
memórias de núcleo magnético, métodos de engenharia de
software (o sistema possuía mais de 500 mil linhas de código
escritas por centenas de programadores), técnicas de detecção
de erros e manutenção de sistemas, processamento distribuído
em tempo real e operação em alta disponibilidade (cada bunker
possuía sempre um de seus dois computadores operando em
modo stand-by).
A experiência adquirida pelas pessoas e empresas (Bell,
Burroughs, IBM, MIT, SDC e Western Electric) participantes
do SAGE foi posteriormente estendida a outros projetos de
sistemas militares e civis. Algumas por exemplo, trabalharam
no projeto da ARPANET, a rede de computadores que resultou
na Internet que todos usamos. Outras trabalharam no sistema
de controle de tráfego aéreo civil da FAA (Federal Aviation
Administration) nos Estados Unidos. O SAGE também serviu
de modelo para o sistema SABRE (Semi-Automatic Business-
Related Environment), criado pela IBM em 1964 para controlar,
em tempo real, as reservas de passagens aéreas da companhia
American Airlines, que funciona até hoje.
O SAGE funcionou até o final de 1983, apesar de que, quando
ficou totalmente pronto, no início de 1962, as principais
ameaças à segurança aérea já não eram mais os grandes
aviões bombardeiros, mas sim os velozes mísseis balísticos
intercontinentais, contra os quais o sistema era inútil. Apesar
dessa breve “obsolescência”, o SAGE representa um marco
importante na história da ciência e da tecnologia, pois, ao se
tornar o primeiro sistema on-line, em tempo real e geograficamente
distribuído do mundo, desbravou um território inexplorado, com
a ajuda de tecnologias e ideias inovadoras que abasteceram
de maneira indelével a então nascente indústria de informática.
Para saber mais:
http://www.ibm.com/ibm100/us/en/icons/sage/
http://www.youtube.com/watch?v=iCCL4INQcFo
Technology Leadership Council Brazil
26. 26
Integrar conhecimentos: o desafio do consultor
Márcia Vieira
A sociedade atual, que está sendo chamada de “hiper-moderna”,
ressalta uma cultura marcada pelo excesso de
consumo, de informações, de coisas descartáveis e rela-cionamentos
temporários. A velocidade das mudanças e a
falta de tempo disponível conduzem a um estilo de vida em
ritmo acelerado e a um estado de constante atenção e busca
por informação sobre diversos temas. Esse novo cenário gera
oportunidades de trabalho para consultoria em diversas disciplinas
organizacionais, tais como gestão empresarial, tecnologia da
informação, marketing e vendas, entre outras.
De acordo com o Instituto Brasileiro dos
Consultores de Organização, o trabalho de
consultoria pode ser definido como
“o processo interativo entre um agente de
mudanças (externo e/ou interno) e seu
cliente, que assume a responsabilidade
de auxiliar os executivos e colaboradores
do respectivo cliente nas tomadas de
decisão, não tendo, entretanto, o controle
direto da situação que deseja ser mudada
pelo mesmo”.
Como agente de mudança, o consultor deve
ser hábil na identificação e solução de problemas, e demonstrar
paixão por disseminar conhecimento. Quando isso não ocorre,
há risco de ser descartado pela lógica da hipermodernidade.
Basicamente significa que para ser um bom consultor em qualquer
disciplina organizacional, deve-se buscar conhecimento útil,
prático e aplicável, com foco na obtenção de resultados.
Manter-se atualizado sobre aquilo que já faz bem e ampliar o
conhecimento é o maior desafio e ao mesmo tempo um dos
maiores motivadores da carreira profissional em consultoria.
Boas memórias em minha carreira como consultora remetem a
profissionais que se diferenciaram pelas habilidades em trazer
soluções criativas e chegar a ótimos resultados a partir de um
vasto conjunto de informações e conhecimentos adquiridos.
Como o conhecimento é a matéria-prima essencial do consultor,
pode-se afirmar que o processo de geração de conhecimento
é o ponto de partida, no qual os consultores devem sempre
buscar uma visão de causa e efeito e gerenciar as expectativas
dos clientes em relação às soluções dos problemas.
A geração de conhecimento estabelece um ciclo contínuo e
uma relação sinérgica entre os conhecimentos explícito e tácito.
O conhecimento explícito, em geral, é obtido mais facilmente,
seja através das bases corporativas, cursos, treinamentos, ou
nas mídias disponíveis.
Já o conhecimento tácito é decorrente
da experiência de cada profissional. Em
um mundo globalizado, torna-se mais
complexo integrar esses conhecimentos.
Por essa razão é imprescindível que o
consultor mantenha uma extensa rede de
relacionamentos e desenvolva novas formas
de atuação junto a indivíduos e grupos
(teamwork), com objetivo de integrar as
partes e visões do problema, assim como
aprofundar todos os seus aspectos.
A competência para integrar conhecimentos
e obter uma visão do todo é fundamental para o consultor.
Além disso, buscar o entendimento de como os conceitos
são construídos e articulados, e não simplesmente aceitar o
conhecimento das partes, ajuda a identificar problemas, sugerir
mudanças e trazer visões de outras culturas.
O consultor é aquele que, além de saber fazer, deve saber pensar e,
portanto, precisa ter um nível elevado de educação e uma atitude
de formação permanente, na qual as habilidades de aprender
a aprender e de trabalhar em equipe atuem como fio condutor.
Para saber mais:
http://www.ibco.org.br/
Livros: Aprendizes e Mestres: A nova cultura da aprendizagem. Juan Ignácio Pozo (2002) e Introdução
ao pensamento complexo. Edgar Morin (2003)
Technology Leadership Council Brazil
27. 27
Especial Centenário da IBM: IBM RAMAC: O início de uma era na computação comercial
José Alcino Brás
Na década de cinquenta do século passado os computadores
deixaram de ser exclusivos das aplicações militares e passaram
a ser necessários na automação de processos de negócio das
empresas. Foi para atender a essa demanda de mercado que
a IBM lançou, em 1956, o IBM 305 RAMAC (Random Access
Method of Accounting and Control) o seu primeiro computador
produzido em série projetado para executar aplicativos de
contabilidade e controle de transações comercias, tais como
processamento de pedidos, controle de inventário e folha
de pagamento.
A grande novidade do 305 RAMAC não estava na sua capacidade
de processamento mas na utilização de um novo equipamento
periférico para a entrada e saída de dados, denominado “Unidade
de Disco IBM 350”, o qual permitia a gravação e leitura de dados
de forma extremamente rápida quando comparada aos outros
meios de armazenamento usados até então. Do tamanho de
dois refrigeradores, o IBM 350 consistia de 50 discos de 60 cm
de diâmetro montados e centralizados em único pivô movido
por um motor e que somavam 5 megabytes de capacidade, os
quais eram acessados a uma taxa de 10 kilobytes por segundo.
A unidade de disco do RAMAC representou um verdadeiro
marco na evolução da tecnologia, no qual diversos obstáculos
técnicos foram suplantados, tais como encontrar o material
adequado para confecção do disco e da superfície magnética,
criar o mecanismo de leitura e gravação com movimento rápido
e certeiro posicionando-o sobre o local físico do dado que girava
a 1.200 rotações por minuto, além de garantir que o mesmo não
tocasse fisicamente a superfície do disco magnético através
da injeção de ar comprimido entre a superfície do disco e o
cabeçote de leitura e gravação.
Ao possibilitar que a informação fosse gravada, lida e alterada
em poucos segundos e, principalmente, pudesse ser acessada
de forma aleatória, eliminou a necessidade de se classificar os
dados em sequência antes do seu processamento, o que até
então era um requisito imposto pela tecnologia dos equipamentos
de fita magnética ou cartões perfurados, que eram os meios
disponíveis para se armazenar dados mais usados na época.
O sucesso do RAMAC fez sua produção alcançar mais de mil
unidades comercializadas e instaladas ao redor do mundo,
inclusive no Brasil, onde chegou em 1961. Essa máquina
principiou o fim da era dos cartões perfurados e introduziu
uma nova era, na qual as corporações passaram a utilizar
computadores para conduzir e agilizar seus negócios, fazendo
uso do processamento de transações on-line e armazenamento
de grandes volumes de dados em discos magnéticos.
A tecnologia introduzida no RAMAC foi a semente que gerou os
discos magnéticos produzidos até os dias atuais - antigamente
ainda chamados de “winchesters”, depois “discos rígidos” e hoje
simplesmente de “HDs” — os quais se encontram disponíveis
no mercado com capacidade de armazenamento superiores
a 2 terabytes, giram a 15 mil rotações por minuto e alcançam
taxas de transferência de dados superiores a 200 megabytes
por segundo (mais de 20 mil vezes superior ao IBM 350).
Aquele grupo de engenheiros do laboratório da IBM talvez não
imaginasse que o RAMAC representaria o início de uma era
para uma das tecnologias mais importantes na indústria da
computação, a qual influenciaria por completo no modo de
armazenar e processar a informação, um bem intangível e de
grande valor para inúmeros segmentos da sociedade, que
por sua vez segue demandando e gerando cada vez mais
informação, num volume de crescimento estimado, ano passado,
em mais de 1 zettabytes (1 milhão de terabytes). Haja disco
para armazenar tudo isso!
Para saber mais:
http://www.ibm.com/ibm100/us/en/icons/ramac/
http://www.youtube.com/watch?v=CVIKk7mBELI
http://www.youtube.com/watch?v=zOD1umMX2s8
Technology Leadership Council Brazil
28. 28
A evolução do modelo de entrega de serviços de TI
Eduardo Sofiati
O mercado de serviços de TI tem evoluído significativamente
nos últimos anos. Provedores e clientes têm buscado ampliar
as modalidades de contratação dos serviços, visando obter
maiores benefícios — e não apenas redução de custos — por
meio de um melhor alinhamento das soluções de tecnologia
com as necessidades de negócio.
O modelo tradicional possui provedores especializados na entrega
de serviços repetitivos, os quais se baseiam em ganhos de
eficiência e escala, proporcionando competividade. Como o
mercado de serviços de TI apresenta muitos competidores,
cada provedor busca propor diferenciais para atrair e manter
clientes e assim aumentar sua participação
nesse mercado.
Alguns provedores apostam em modelos
que trazem maior valor para os serviços
ofertados para atender aos requisitos de
negócios de seus clientes. O provedor,
nesse caso, é percebido pelo cliente
como um parceiro estratégico ao invés
de fornecedor e passa a oferecer não
commodities, mas sim soluções.
Como exemplo, podemos citar a evolução nas ofertas de serviços
recentemente lançadas pelo segmento de outsourcing de
infraestrutura e telecomunicações, que estão alinhadas às últimas
tendências de tecnologia, tais como Cloud Computing, SaaS
(Software as a Service), Virtual Desktops, Unified Communications
e segurança de redes. Essa evolução está transformando o
modelo tradicional de outsourcing, em um modelo utility-based,
que muda o conceito de propriedade sobre os ativos de TI.
Segundo o Gartner, até 2012, 20% das empresas não terão
mais ativos de TI, o que se transforma em oportunidades para
os provedores alavancarem ofertas mais completas, capazes
de entregar serviços com mais agilidade e qualidade através
da adoção de tecnologias de ponta
Em relação ao desempenho dos provedores de serviços também
houve bastante evolução nos últimos anos. Através do uso de
KPIs (Key Performance Indicators) tem sido possível mensurar
a efetividade dos processos e soluções de tecnologia que
têm sido empregados nos contratos. Os SLAs (Service Level
Agreements), que regem os contratos de outsourcing há bastante
tempo, também têm evoluído na definição de indicadores mais
alinhados à disponibilidade dos serviços e sistemas que causam
impacto aos negócios dos clientes.
Para as empresas de serviços conseguirem sobreviver e crescer
nesse mercado tão acirrado e ainda manter resultados saudáveis,
as seguintes estratégias estão sendo adotadas, principalmente
pelas empresas globais:
Padronização: maximizar o uso de modelos comuns para a
maior parte do portfólio de serviços, como
forma de viabilizar a repetição na entrega,
o que resulta em economia de escala e
simplificação nas estruturas de delivery;
Integração: Executar modelos de entrega,
na forma mais eficiente possível, usando
todo o alcance que o provedor possua,
visando obter o menor custo possível com
pessoal aproveitando a disponibilidade de
skills existentes em cada região;
Automação: Reduzir as tarefas manuais
ao máximo para baixar custos e ainda elevar a qualidade do
serviço entregue.
É possível refletir acerca da notável evolução ocorrida com
a prestação de serviços de TI ao longo dos anos. Na forma
antiga, os provedores criavam uma abordagem nova para cada
projeto, propondo modelos customizados para cada cliente,
um método ineficiente que gerava desperdício de tempo e
dinheiro. Atualmente se busca simplificar a concepção dos
projetos, sobretudo suas bases, através de modelos padronizados
e simplificados, baseados nas melhores práticas de TI e no
conhecimento da indústria. Com isso, mais tempo é dedicado
na solução de problemas de negócios específicos de cada
cliente, transformando a TI numa alavanca para estimular o
crescimento, gerando economias para a empresa e preparando-a
para atender novos desafios.
Para saber mais:
http://www.ibm.com/services
Technology Leadership Council Brazil