segunda-feira, 30 de setembro de 2019

IBM Quantic computer sharing time

Para entender Trump e Bolsonaro, por Helio Gurovitz

Comentario papal--habemus strada.......novidades à esquerda, ha também vias alternativas....mas obrigam a trabalhar e nao somente "empulhar"...., intelectualmente ou politicamente no "terreno".
-----------------------------------------------------------------------------
Por que ambos insistem em falar apenas para a própria base eleitoral?
O presidente americano, Donald Trump, cumprimenta o presidente brasileiro, Jair Bolsonaro, durante a Assembleia Geral da ONU na última terça-feira (24/9), em Nova York. — Foto: Alan Santos/Presidência da República

O comportamento de Jair Bolsonaro e Donald Trump costuma levantar uma crítica recorrente: ambos falam para a própria base eleitoral, apenas aos eleitores fieis, o mundinho regido pela mesma ideologia que os move. Com isso, correm o risco de perder apoio entre os “moderados”, aqueles de quem dependerão para ser reeleitos.

A crítica ressurgiu recentemente, tanto no Brasil quanto nos Estados Unidos. Aqui, por causa do discurso de Bolsonaro semana passada na Assembleia Geral das Nações Unidas. Lá, em virtude da reação de Trump às acusações que levaram à abertura do processo de impeachment na Câmara dos Representantes.

Tal estratégia não lhes rende amigos, contribui para que se tornem objeto de ataques duros e percam eleitores que preferiram ambos aos adversários. Por que, se arriscam perder apoio, agem assim?

Por que Bolsonaro, na tribuna da ONU, insiste em atacar os mesmos fantasmas que alimentam sua paranoia: o socialismo, o globalismo, o Foro de São Paulo, Cuba, Venezuela, PT e até o cacique Raoni? 
Por que Trump, na primeira entrevista coletiva depois do início do processo de impeachment, repete a mesma lenga-lenga: o muro na fronteira mexicana, o endurecimento contra a imigração, o êxito econômico do protecionismo, a perfídia dos democratas, a “caça às bruxas” contra ele e, naturalmente, as “fake news” da imprensa?
Nenhum dos dois foi agressivo como noutras ocasiões. Mesmo assim, não deixaram de lado os cacoetes que os projetaram eleitoralmente, nem fizeram nenhum tipo de gesto que sugerisse um abrandamento ou moderação em suas posições. Por quê?
Há duas razões, nenhuma delas agradável para quem se acostumou a ver Trump e Bolsonaro como riscos à democracia, ao meio ambiente, aos ideais iluministas, aos direitos das minorias ou ao que o valha.

A primeira razão é óbvia, embora frequentemente esquecida pelos críticos de ambos: eles estão no poder. Foram eleitos com uma plataforma não convencional (alguns diriam “disruptiva”), que desagrada acadêmicos, jornalistas, ambientalistas ou juristas. Mas é uma plataforma real, com propostas concretas de mudança.

Tomemos o caso de Bolsonaro (raciocínio paralelo semelhante pode ser feito para Trump). Ele acredita mesmo que a violência policial ajuda no combate ao crime, que o ambientalismo é um plano de dominação estrangeira, que o tal “globalismo” é um mal maior que o aquecimento global ou que a famigerada “ideologia de gênero” e o “materialismo socialista” são os principais problemas do ensino nas nossas escolas.

Se hoje tais ideias são estranhas à maioria dos brasileiros de bom senso, isso não significa que sejam desprezíveis. 

O objetivo de quem está no poder não é esquecê-las ou sufocá-las, em nome de um governo pragmático. Ao contrário, deve ser disseminá-las pelo maior público possível, para que consiga manter o poder. Que palanque é melhor que a Assembleia Geral da ONU? Por que parecer conciliador, quando o objetivo é conquistar mais adeptos?
Quem está no poder não tem motivo para fazer concessões em sua agenda, a não ser a fraqueza. Foi esse o caso de Dilma Rousseff, eleita condenando o ajuste fiscal, depois obrigada a pô-lo em prática antes mesmo de tomar posse. Por que Bolsonaro deveria se portar assim?
Verdade que a popularidade dele sofreu queda ao longo do ano, mas demonstra uma resiliência surpreendente, a levar em conta suas gafes e absurdos. Reuni no gráfico abaixo todas as pesquisas de opinião sobre o governo Bolsonaro publicadas desde janeiro:

A linha azul, que representa a evolução na média das avaliações “ótimo” e “bom”, sofreu uma queda da ordem de dez pontos percentuais, mas se mantém, desde a décima semana de governo, estável na marca dos 30 pontos. A linha vermelha, que acompanha o “ruim” e “pésimo”, subiu para em torno de 38 pontos. Só que não à custa dos que aprovavam Bolsonaro, mas sobretudo dos que viam o governo como “regular” ou que não sabiam opinar.
Esse quadro permite enxergar a segunda razão para o comportamento de Bolsonaro e Trump: há lógica eleitoral em manter vivo e forte o laço com os partidários mais ideológicos e mais fieis. Tanto no Brasil quanto nos Estados Unidos, o eleito não precisa necessariamente da maioria dos eleitores a esta altura da disputa. Lá, em virtude do Colégio Eleitoral. Aqui, por causa do segundo turno.
Se obtiver entre 25% e 30% dos votos no primeiro turno – patamar que corresponde aproximadamente ao seu nível atual de aprovação –, Bolsonaro praticamente garante a passagem ao segundo. Caso o adversário seja novamente um candidato do PT, repete-se a estratégia da polarização entre “nós” e “eles” que o levou à vitória.

Não custa lembrar que o PT chegou em primeiro ou segundo lugar em todas as eleições desde a redemocratização. Mesmo que o adversário não seja petista, será automaticamente tachado de “esquerdista”, “comunista”, “globalista” ou o que o valha. Será caricaturado como encarnação do mal, inimigo a bater.

Nos Estados Unidos, a estratégia de Trump não é muito diferente. A popularidade dele também mantém uma resiliência supreendente perante o noticiário negativo, como demonstram as médias mantidas pelo RealClearPolitics ou pelo FiveThirtyEight (importante: a medida de popularidade americana é diferente da usada no Brasil, portanto ambas não são comparáveis).

A eleição americana é decidida, na verdade, em cinco ou seis estados. Quem quer que seja o candidato ou candidata democrata, vencerá na Califórnia, em Nova York, nos estados da Nova Inglaterra e da Costa Oeste. Trump vencerá na Virgínia Ocidental, Montana ou Alabama.
Mesmo que Texas ou Arizona possam ter se tornado mais vulneráveis aos avanços democratas, a dúvida mesmo é se Trump manterá os três estados do Meio-Oeste que lhe deram a vitória em 2016: Michigan, Pensilvânia e Wisconsin. A eleição americana não é propriamente uma eleição para a Presidência dos Estados Unidos. Pode ser, no limite, entendida como uma eleição para a Presidência no Wisconsin.
Para Trump, portanto, pouco importa, com declarações desastradas ou a insistência em erguer o muro na fronteira mexicana, perder votos em estados onde ele já não tem chance. Importa manter a fatia demográfica que lhe garantiu a vitória (brancos sem diploma superior) e evitar que os com maior propensão a votar nos democratas compareçam às urnas (negros, latinos e minorias). Por que acenar a eles ou parecer conciliador?

Não, não há motivo algum para esperar que Bolsonaro ou Trump ajam de modo diferente. Eles são aquilo que são. Se venceram eleições em regimes democráticos, é porque uma fatia significativa dessas sociedades apoia a plataforma deles.
Se quiserem derrotá-los, os oposicionistas, lá e cá, não ganham nada ao criticá-los pelas gafes ou atacá-los pelos absurdos (fazer isso é apenas entrar no jogo da polarização que os favorece). Precisam é convencer o eleitorado de que têm plataforma melhor.

Arte de RAL

random image

The Next Decade in Quantum Computing—and How to Play, By Philipp Gerbert and Frank Rueß

LATED EXPERTISE:TECHNOLOGY & DIGITAL, BIG DATA & ADVANCED ANALYTICS---NOVEMBER 15, 2018

The experts are convinced that in time they can build a high-performance quantum computer. Given the technical hurdles that quantum computing faces—manipulations at nanoscale, for instance, or operating either in a vacuum environment or at cryogenic temperatures—the progress in recent years is hard to overstate. In the long term, such machines will very likely shape new computing and business paradigms by solving computational problems that are currently out of reach. They could change the game in such fields as cryptography and chemistry (and thus material science, agriculture, and pharmaceuticals) not to mention artificial intelligence (AI) and machine learning (ML). We can expect additional applications in logistics, manufacturing, finance, and energy. Quantum computing has the potential to revolutionize information processing the way quantum science revolutionized physics a century ago.

Every company needs to understand how quantum computing discoveries will affect business.
The full impact of quantum computing is probably more than a decade away. But there is a much closer upheaval gathering force, one that has significance now for people in business and that promises big changes in the next five to ten years. Research underway at multiple major technology companies and startups, among them IBM, Google, Rigetti Computing, Alibaba, Microsoft, Intel, and Honeywell, has led to a series of technological breakthroughs in building quantum computer systems. 
These efforts, complemented by government-funded R&D, make it all but certain that the near to medium term will see the development of medium-sized, if still error-prone, quantum computers that can be used in business and have the power and capability to produce the first experimental discoveries. Already quite a few companies are moving to secure intellectual property (IP) rights and position themselves to be first to market with their particular parts of the quantum computing puzzle. Every company needs to understand how coming discoveries will affect business. Leaders will start to stake out their positions in this emerging technology in the next few years.
This report explores essential questions for executives and people with a thirst to be up-to-speed on quantum computing. We will look at where the technology itself currently stands, who is who in the emerging ecosystem, and the potentially interesting applications. We will analyze the leading indicators of investments, patents, and publications; which countries and entities are most active; and the status and prospects for the principal quantum hardware technologies. We will also provide a simple framework for understanding algorithms and assessing their applicability and potential. Finally, our short tour will paint a picture of what can be expected in the next five to ten years, and what companies should be doing—or getting ready for—in response.

How Quantum Computers Are Different, and Why It Matters
The first classical computers were actually analog machines, but these proved to be too error-prone to compete with their digital cousins. Later generations used discrete digital bits, taking the values of zero and one, and some basic gates to perform logical operations. As Moore’s law describes, digital computers got faster, smaller, and more powerful at an accelerating pace. Today a typical computer chip holds about 20x109 bits (or transistors) while the latest smartphone chip holds about 6x109 bits. Digital computers are known to be universal in the sense that they can in principle solve any computational problem (although they possibly require an impractically long time). Digital computers are also truly reliable at the bit level, with fewer than one error in 1024 operations; the far more common sources of error are software and mechanical malfunction.

Qubits can enable quantum computing to achieve an exponentially higher information density than classical computers.
Quantum computers, building on the pioneering ideas of physicists Richard Feynman and David Deutsch in the 1980s, leverage the unique properties of matter at nanoscale. They differ from classical computers in two fundamental ways. First, quantum computing is not built on bits that are either zero or one, but on qubits that can be overlays of zeros and ones (meaning part zero and part one at the same time). Second, qubits do not exist in isolation but instead become entangled and act as a group. These two properties enable qubits to achieve an exponentially higher information density than classical computers.

There is a catch, however: qubits are highly susceptible to disturbances by their environment, which makes both qubits and qubit operations (the so-called quantum gates) extremely prone to error. Correcting these errors is possible but it can require a huge overhead of auxiliary calculations, causing quantum computers to be very difficult to scale. In addition, when providing an output, quantum states lose all their richness and can only produce a restricted set of probabilistic answers. Narrowing these probabilities to the “right” answer has its own challenges, and building algorithms in a way that renders these answers useful is an entire engineering field in itself.

That said, scientists are now confident that quantum computers will not suffer the fate of analog computers—that is, being killed off by the challenges of error correction. But the requisite overhead, possibly on the order of 1,000 error-correcting qubits for each calculating qubit, does mean that the next five to ten years of development will probably take place without error correction (unless a major breakthrough on high-quality qubits surfaces). This era, when theory continues to advance and is joined by experiments based on these so-called NISQ (Noisy Intermediate-Scale Quantum) devices, is the focus of this report. (For more on the particular properties of quantum computers, see the sidebar, “The Critical Properties of Quantum Computers.” For a longer-term view of the market potential for, and development of, quantum computers, see “The Coming Quantum Leap in Computing,” BCG article, May 2018. For additional context—and some fun—take the BCG Quantum Computing Test.)

The Emerging Quantum Computing Ecosystem
Quantum computing technology is well-enough developed, and practical uses are in sufficiently close sight, for an ecosystem of hardware and software architects and developers, contributors, investors, potential users, and collateral players to take shape. Here’s a look at the principal participants.
TECH COMPANIES
Universities and research institutions, often funded by governments, have been active in quantum computing for decades. More recently, as has occurred with other technologies (big data for example), an increasingly well-defined technology stack is emerging, throughout which a variety of private tech players have positioned themselves.

An increasingly well-defined technology stack is emerging.
At the base of the stack is quantum hardware, where the arrays of qubits that perform the calculations are built. The next layer is sophisticated control systems, whose core role is to regulate the status of the entire apparatus and to enable the calculations. Control systems are responsible in particular for gate operations, classical and quantum computing integration, and error correction. These two layers continue to be the most technologically challenging.Next comes a software layer to implement algorithms (and in the future, error codes) and to execute applications. This layer includes a quantum-classical interface that compiles source code into executable programs. At the top of the stack are a wider variety of services dedicated to enabling companies to use quantum computing. In particular they help assess and translate real-life problems into a problem format that quantum computers can address.

End-to-End Providers. These tend to be big tech companies and well-funded startups. Among the former, IBM has been the pioneer in quantum computing and continues at the forefront of the field. The company has now been joined by several other leading-edge organizations that play across the entire stack. Google and more recently Alibaba have drawn a lot of attention. Microsoft is active but has yet to unveil achievements toward actual hardware. Honeywell has just emerged as a new player, adding to the heft of the group. Rigetti is the most advanced among the startups. (See “Chad Rigetti on the Race for Quantum Advantage: An Interview with the Founder and CEO of Rigetti Computing,” BCG interview, November 2018.)
Each company offers its own cloud-based open-source software platform and varying levels of access to hardware, simulators, and partnerships. In 2016 IBM launched Q Experience, arguably still the most extensive platform to date, followed in 2018 by Rigetti’s Forest, Google’s Cirq, and Alibaba’s Aliyun, which has launched a quantum cloud computing service in cooperation with the Chinese Academy of Sciences. Microsoft provides access to a quantum simulator on Azure using its Quantum Development Kit. Finally, D-Wave Systems, the first company ever to sell quantum computers (albeit for a special purpose), launched Leap, its own real-time cloud access to its quantum annealer hardware, in October 2018.
Hardware and Systems Players. Other entities are focused on developing hardware only, since this is the core bottleneck today. Again, these include both technology giants, such as Intel, and startups, such as IonQ, Quantum Circuits, and QuTech. Quantum Circuits, a spinoff from Yale University, intends to build a robust quantum computer based on a unique, modular architecture, while QuTech—a joint effort between Delft University of Technology and TNO, the applied scientific research organization, in the Netherlands—offers a variety of partnering options for companies. An example of hardware and systems players extending into software and services, QuTech launched Quantum Inspire, the first European quantum computing platform, with supercomputing access to a quantum simulator. Quantum hardware access is planned to be available in the first half of 2019.

Software and Services Players. Another group of companies is working on enabling applications and translating real-world problems into the quantum world. They include Zapata Computing, QC Ware, QxBranch, and Cambridge Quantum Computing, among others, which provide software and services to users. Such companies see themselves as an important interface between emerging users of quantum computing and the hardware stack. All are partners of one or more of the end-to-end or hardware players within their mini-ecosystems. They have, however, widely varying commitments and approaches to advancing original quantum algorithms.

Specialists. These are mainly startups, often spun off from research institutions, that provide focused solutions to other quantum computing players or to enterprise users. For example, Q-CTRL works on solutions to provide better system control and gate operations, and Quantum Benchmark assesses and predicts errors of hardware and specific algorithms. Both serve hardware companies and users.
The ecosystem is dynamic and the lines between layers easily blurred or crossed, in particular by maturing hardware players extending into the higher-level application, or even service layers. The end-to-end integrated companies continue to reside at the center of the technology ecosystem for now; vertical integration provides a performance advantage at the current maturity level of the industry. The biggest investments thus far have flowed into the stack’s lower layers, but we have not yet seen a convergence on a single winning architecture. Several architectures may coexist over a longer period and even work hand-in-hand in a hybrid fashion to leverage the advantages of each technology.
APPLICATIONS AND USERS
For many years, the biggest potential end users for quantum computing capability were national governments. One of the earliest algorithms to demonstrate potential quantum advantage was developed in 1994 by mathematician Peter Shor, now at the Massachusetts Institute of Technology. Shor’s algorithm has famously demonstrated how a quantum computer could crack current cryptography. Such a breach could endanger communications security, possibly undermining the internet and national defense systems, among other things. Significant government funds flowed fast into quantum computing research thereafter. Widespread consensus eventually formed that algorithms such as Shor’s would remain beyond the realm of quantum computers for some years to come and even if current cryptographic methods are threatened, other solutions exist and are being assessed by standard-setting institutions. This has allowed the private sector to develop and pursue other applications of quantum computing. (The covert activity of governments continues in the field, but is outside the scope of this report.)

Quite a few industries outside the tech sector have taken notice of the developments in, and the potential of, quantum computing, and companies are joining forces with tech players to explore potential uses. The most common categories of use are for simulation, optimization, machine learning, and AI. Not surprisingly, there are plenty of potential applications. 
Despite many announcements, though, we have yet to see an application where quantum advantage—that is, performance by a quantum computer that is superior in terms of time, cost, or quality—has been achieved.1

However, such a demonstration is deemed imminent, and Rigetti recently offered a $1 million prize to the first group that proves quantum advantage. (We provide a framework for prioritizing applications, where a sufficiently powerful quantum computer, as it becomes available, holds the promise of superior performance.
Investments, Publications, and Intellectual Property
The activity around quantum computing has sparked a high degree of interest.
2 People have plenty of questions. How much money is behind quantum computing? Who is providing it? Where does the technology stand compared with AI or blockchain? What regions and entities are leading in publications and IP?
With more than 60 separate investments totaling more than $700 million since 2012, quantum computing has come to the attention of venture investors, even if is still dwarfed by more mature and market-ready technologies such as blockchain (1,500 deals, $12 billion, not including cryptocurrencies) and AI (9,800 deals, $110 billion).

The bulk of the private quantum computing deals over the last several years took place in the US, Canada, the UK, and Australia. Among startups, D-Wave ($205 million, started before 2012), Rigetti ($119 million), PsiQ ($65 million), Silicon Quantum Computing ($60 million), Cambridge Quantum Computing ($50 million), 1Qbit ($35 million), IonQ ($22 million), and Quantum Circuits ($18 million) have led the way. 
A regional race is also developing, involving large publicly funded programs that are devoted to quantum technologies more broadly, including quantum communication and sensing as well as computing. China leads the pack with a $10 billion quantum program spanning the next five years, of which $3 billion is reserved for quantum computing. Europe is in the game ($1.1 billion of funding from the European Commission and European member states), as are individual countries in the region, most prominently the UK ($381 million in the UK National Quantum Technologies Programme). The US House of Representatives passed the National Quantum Initiative Act ($1.275 billion, complementing ongoing Department of Energy, Army Research Office, and National Science Foundation initiatives). Many other countries, notably Australia, Canada, and Israel are also very active.
The money has been accompanied by a flurry of patents and publishing. 
North America and East Asia are clearly in the lead; these are also the regions with the most active commercial technology activity. Europe is a distant third, an alarming sign, especially in light of a number of leading European quantum experts joining US-based companies in recent years. Australia, a hotspot for quantum technologies for many years, is striking given its much smaller population. The country is determined to play in the quantum race; in fact, one of its leading quantum computing researchers, Michelle Simmons, was named Australian of the Year 2018.
Two things are noteworthy about the volume of scientific publishing regarding quantum computing since 2013. 
The first is the rise of China, which has surpassed the US to become the leader in quantity of scientific articles published.
The second is the high degree of international collaboration (in which the US remains the primary hub). The cooperation shows that quantum computing is not dominated by national security interests yet, owing in large part to consensus around the view that cryptographic applications are still further in the future and that effective remedies for such applications are in the making. The collaboration activity also reflects the need in the scientific community for active exchange of information and ideas to overcome quantum computing’s technological and engineering challenges.
A Brief Tour of Quantum Computing Technologies
The two biggest questions facing the emerging quantum computing industry are, When will we have a large, reliable quantum computer, and What will be its architecture?
Hardware companies are pursuing a range of technologies with very different characteristics and properties. As of now, it is unclear which will ultimately form the underlying architecture for quantum computers, but the field has narrowed to a handful of potential candidates.

It is still unclear which technology will ultimately form the underlying architecture for quantum computers.
CRITERIA FOR ASSESSMENT
We use three sets of criteria to assess the current status of the leaders pursuing the mainstream circuit-based approaches and the challenges they still need to overcome.
Size of the Quantum System. Size refers to the number of qubits a system uses and is the most common standard for quantum technologies because it is the initial determinant for both the scale and the complexity of potential operations. The number of physical qubits currently ranges from 2 to 20 in machines that have been built and are known to be well-calibrated and performing satisfactorily. Scientists believe that computers with a few hundred physical qubits are within technological reach. A better standard for size and capability in the future would be the number of fully error-corrected “logical qubits,” but no one has yet developed a machine with logical qubits, so their number across all technologies is still zero (and will likely remain so for a while).
Complexity of Accurate Calculations. The factors that determine a computer’s calculating capability include a number of factors. 
They are:
Qubit lifetime, currently 50 microseconds to 50 seconds
Operation accuracy, in particular the most sensitive two-qubit gate fidelity (currently 90% to 99.9%, with 99.9% minimally required for reasonably effective scaling with error correction)
Gate operation time, currently one nanosecond to 50 microseconds
Connectivity, currently from the worst (one-to-one) to the best (all-to-all)—this is important, because entanglement is a distinguishing factor of quantum computing and requires qubits to be connected to one another so they can interact
Technical Maturity and Scalability. The third set of criteria includes general technology readiness level or maturity (on a scale of 1 to 9), and, equally important, the degree of the challenges for scaling the system.
Unfortunately, the comparative performance of algorithms on different hardware technologies cannot be directly determined from these characteristics. Heuristic measures typically involve some notion of volume, such as the number of qubits times the number of gate operations that can be reliably performed until an error occurs, but the devil is in the details of such concepts.4 The most common approach for performance assessments is a benchmarking on randomized algorithms by independent companies. End-to-end software and specialist players are offering services at different levels of sophistication both to assess the performance of specific algorithms on the available hardware and to help with developing the best quantum algorithm based on these assessments.

CURRENT TECHNOLOGIES
Exhibit 7 reflects our assessment of the most important current technologies, ordered by an outside-in view of technical maturity, providing the performance along the criteria above. 
Two technologies are currently in the short-term lead:
Superconducting Qubits (IBM, Google, Rigetti, Alibaba, Intel, and Quantum Circuits). 
The basic element is a two-level energy system of a superconducting circuit which forms a somewhat noise-resistant qubit (a so-called transmon, first developed at Yale University—the alma mater of many key people in superconducting qubits R&D).
Ion Traps (IonQ, Alpine Quantum Technologies, Honeywell, and others). The core elements are single ions (charged atoms) trapped in magnetic fields and the energy levels of their intrinsic spin form the qubit.

Their most immediate scaling challenge may seem somewhat mundane—electric cabling and control electronics.

Both technologies (we discuss a third, annealers, separately) have produced promising results, but most leading large tech companies seem to be betting on superconducting qubits for now. We see two reasons for this. One is that superconducting circuits are based on known complementary metal-oxide semiconductor technology, or CMOS, which is somewhat more standardized and easier to handle than ion traps or other approaches. Second, the near-term path to medium scale might be more predictable. Ion traps face a significant hurdle when they reach about 50 qubits, generally considered the limit of a single trap. Connecting a second trap introduces new challenges and proposed solutions are still under scientific investigation. Superconducting qubits have mastered the short-term architectural challenges by inserting the operational micropulses from the third dimension onto the planar chip and moving toward regular autocalibration of the easily disturbed qubits. In fact, their most immediate scaling challenge may seem somewhat mundane—electric cabling and control electronics. The current way of addressing a qubit with two to four cables, while also maintaining cryogenic temperatures, triggers severe engineering challenges when the number of qubits runs into the hundreds.

All leading players in the superconducting camp have made their smaller chips accessible externally to software and service companies and preferred partners. Some have opened lower-performing versions and simulators to the community at large. This sign of commercial readiness has further strengthened the general expectation that superconducting qubits could lead over other technologies over the next three to four years.

That being said, even superconducting qubit architectures have achieved only about 20 reliable qubits so far, compared with 1010bits on a chip for classical computing, so there is still some ways to go. For IBM (50 qubits) and Google (72 qubits) the next-generation hardware is expected to become publicly accessible shortly, and Rigetti (128 qubits) has also announced it will offer access to its next generation by August 2019. The roadmaps of all these players extend to about 1 million qubits. They have a strong grip on what needs to be resolved consecutively along the journey, even if they do not yet have workable solutions for them.
The leading players have a strong grip on what needs to be resolved, even if they do not have workable solutions for them yet.
OTHER PROMISING TECHNOLOGIES
Beyond the near-term time frame, the research landscape is more open, with a few promising candidate technologies in the race, all of which are still immature. They face several science questions and quite a few challenging engineering problems, which are particular to each technology. Only when the fog settles can a global ecosystem form around the dominant technology and scale up, similar to Moore’s law for digital computing. 

Each approach has its attractive aspects and its challenges. Photons, for example, could have an advantage in terms of handling because they operate at room temperature and chip design can leverage known silicon technology. For instance, PsiQ, a Silicon Valley startup, wants to leapfrog the NISQ period with an ambition to develop a large-scale linear optical quantum computer, or LOQC, based on photons as qubits, with 1 million qubits as its first go-to-market product within about five years. This would be a major breakthrough if and when it becomes available. The challenges for photons lie in developing single photon sources and detectors as well as controlling multiphoton interactions, which are critical for two-qubit gates.

Another approach, silicon-based qubit technologies, has to further master nanoengineering, but research at Australia’s Centre for Quantum Computation & Communication Technology has made tremendous progress. In the longer run, it could prove easier, and thus faster, to scale these atomic-size qubits and draw from global silicon manufacturing experience to realize a many-qubit architecture.

The core ambition of the final—still very early-stage—topological approach is an unprecedented low error rate of 1 part per million (and not excluding even 1 part per billion). This would constitute a game changer. The underlying physical mechanism (the exotic Majorana quasiparticle) is now largely accepted, and the first topological qubit is still expected by Microsoft to become reality in 2018. Two-qubit gates, however, are an entirely different ballgame, and even a truly ambitious roadmap would not produce a workable quantum computer for at least five years.

One could think that the number of calculation cycles (simply dividing qubit lifetime by gate operation time) is a good measure to compare different technologies. However, this could provide a somewhat skewed view: in the short term, the actual calculation cycles are capped by the infidelities of the gate operations, so their number ranges between 10 and 100 for now and the near future. Improving the fidelity of qubit operations is therefore key for being able to increase the number of gates and the usefulness of algorithms, as well as for implementing error correction schemes with reasonable qubit overhead.

Once error correction has been implemented, calculation cycles will be a dominant measure of performance. However, there is a price on clock speed that all gate-based technologies will have to pay for fault-tolerant quantum computing. Measurement times, required in known error-correction schemes, are in the range of microseconds. Thus, an upper limit on clock speed of about one megahertz emerges for future fault-tolerant quantum computers. This in turn will be a hurdle for the execution speed-up potential of quantum algorithms.
ODD MAN OUT
There is an additional important player in the industry: D-Wave, the first company to ever build any kind of (still special-purpose) quantum computer. 
It has accumulated the largest IP portfolio in the field, which was in fact the company’s original purpose. Later, D-Wave embarked on building what is called a “quantum annealer.” This is different from all previously discussed technologies in that it does not execute quantum gates but is rather a special-purpose machine that is focused on solving optimization problems (by finding a minimum in a high-dimensional energy landscape). D-Wave’s current hardware generation consists of 2,000 of a special type of very short-lived superconducting qubits.

D-Wave has sparked near-endless debates on whether its annealing truly performs quantum computing (it is now largely accepted that D-Wave uses quantum-mechanical properties to run algorithms) and how universal its specific type of problem solver can become. Being the only kind of quantum computer available for actual sale (assuming you have $10 million to $15 million to spare) has made D-Wave unique for several years, although the mainstream attention has now shifted away from its approach. Enabling more general operations is the biggest hurdle for quantum annealers going forward.

That being said, D-Wave’s recently launched real-time cloud platform, called Leap, opens up widespread access to its quantum application environment and has the potential to be quickly embraced by the user community. The company also plans a new quantum chip by early 2020 with more than 4,000 (still short-lived) qubits and improved connectivity. Both could put D-Wave back into the game for real-time applications or inspire new classical algorithms during the NISQ period, when medium-sized gate-based quantum computers will still lack error correction.

In summary, the near-term focus in quantum computing will be on what can be achieved over the next five years by the applications based on superconducting and ion trap circuit systems with a few hundred qubits each, as well as annealing. In parallel, the technology players will keep fighting it out for the next generation of scalable quantum computers.
Simplifying the Quantum Algorithm Zoo
The US National Institute for Standards and Technology (NIST) maintains a webpage entitled Quantum Algorithm Zoo that contains descriptions of more than 60 types of quantum algorithms. It’s an admirable effort to catalog the current state of the art, but it will make nonexperts’ heads spin, as well as those of some experts.

Quantum algorithms are the tools that tell quantum computers what to do. Two of their attributes are especially important in the near term:
Speed-Up. How much faster can a quantum computer running the algorithm solve a particular class of problem than the best-known classical computing counterpart?
Robustness. How resilient is the algorithm to the random “noise,” or other errors, in quantum computing?
There are two classes of algorithm today. 
We call the first purebreds—they are built for speed in noiseless or error-corrected environments. The ones shown in the exhibit have theoretically proven exponential speed-up over conventional computers for specific problems, but require a long sequence of flawless execution, which in turn necessitate very low noise operations and error correction. This class includes Peter Shor’s factorization algorithm for cracking cryptography and Trotter-type algorithms used for molecular simulation. Unfortunately, their susceptibility to noise puts them out of the realm of practical application for the next ten years and perhaps longer.
The other class, which we call workhorses, are very sturdy algorithms, but they have a somewhat uncertain speed-up over classical algorithms. The members of this group, which include many more-recent algorithms, are designed to be robust in the face of noise and errors. They might have built-in error mitigation, but the most important feature is their shallow depth—that is, the number of gate operations is kept low. Most of them are then integrated with classical algorithms to enable longer, more productive loops (although these still have to be wary of accumulating errors).

The workhorses should be able to run on anticipated machines in the 100-qubit range (the annealing approaches, although somewhat different, also fall into this category). The dilemma is that very little can be proven about their speed-up performance with respect to classical algorithms until they are put to experimental testing. Challenging any quantum advantage has become a favorite pastime of theorists and classical algorithm developers alike, with the most productive approaches actually improving upon the performance of the classical algorithms with which they are compared by creating new, quantum-inspired algorithms.
Remember that deep learning, which today dominates the fast-growing field of AI, was also once a purely experimental success.
The lack of proof for speed-up might frustrate the purist, but not the practical computer scientist. Remember that deep learning, which today dominates the fast-growing field of AI, was also once a purely experimental success. Indeed, almost nothing had been proven theoretically about the performance of deep neural networks by 2012 when they started to win every AI and ML competition. The real experiments in quantum computing of the coming years will be truly interesting.
Of less certain immediate impact are the universal and well-known Grover algorithm and its cousins. They share the noise-susceptibility with purebreds, but at a much lower, although proven, speed-up.5 Their strong performance on some other dimensions might someday make up for these weaknesses.
Quantum computing companies are currently betting on the workhorses, which are likely to be the useful algorithms during the error-prone NISQ period of the next decade. The individual performance of any single algorithm on a specific hardware does remain an uncertain bet, but taken as a group the gamble is reasonable. If none of the algorithms were to perform well for any of the problems under investigation would be a true surprise (and one that could point toward a new, more fundamental phenomenon that would need to be understood).
From a practical point of view, the value of the potential ease of cloud access (compared with supercomputer queues) and quantum experiments inspiring new classical approaches should not be underestimated—both are tangible and immediate benefits of this new, complementary technique.

How to Play the Next Five Years and Beyond
It can be reasonably expected that over the next five years universal quantum computers with a few hundred physical qubits will become available, accompanied by quantum annealers. They will continue to be somewhat noisy, error-prone, and thus constrained to running workhorse algorithms for which experiments will be required to determine the quantum speed-up. That said, in science, the interplay of theory and experiment has always led to major advances.

But what of more practical applications? What problems might be solved? How should companies engage? What can they expect to achieve in the field and what effort is required?
DETERMINING TIMING AND ENGAGEMENT
Industries and potential applications can be clustered on the basis of two factors—the expected timing of quantum advantage and the value of this advantage to business. They can then be grouped into four categories of engagement: racing team members, riders, followers, and observers. 
Racing team members are at the forefront of immediate business benefits. Their expected time frame to quantum advantage is shortest and the potential business benefit is high. These are the industries and applications driving current investment and development. Riders will profit from similar developments, but for less critical value drivers, and are therefore less likely to fund core investments.
Followers see high potential but long development time frames to quantum advantage. For observers, both a clear path to benefits and the development time are still unclear.
Among racing team members, those with the highest tangible promise of applications are companies experimenting with quantum chemistry, followed by AI, ML, or both. They are most likely working with end-to-end providers and a few may even start to build a quantum computer for their own use and as an offering to other companies.
New advances could have an incredible impact in many areas, including agriculture, batteries, energy, which are critical to climate change.

Quantum chemistry is particularly interesting because many important compounds, in particular the active centers of catalysts and inhibitors, can be described by a few hundred quantum states. 
A number of these compounds are important factors in the speed and cost of production of fertilizers, in the stability and other properties of materials, and potentially in the discovery of new drugs. For these companies and applications, quantum computing provides a highly valuable complementary lens and even outright quantum advantage could be within reach of the next generation of quantum computers. The latter can come in the form of higher precision, speed-up, or simply easier cloud access to run quantum algorithms and thus lower the cost of experimentation. New advances and discoveries could have an incredible impact in agriculture, batteries, and energy systems (all critical in fighting climate change), and on new materials across a wider range of industries, as well as in health care and other areas.
Next, speeding up AI and ML is one of the most active fields of research for quantum computing, and combined classical-quantum algorithms are arguably the most promising avenue in the short term. At the same time, AI-based learning models (assuming sufficient volumes of data) can address many of the same business needs as quantum computing, which leads to a certain level of competition between the approaches. We can expect an interesting period of co-opetition.

Overall, quantum computing can help solve simulation and optimization problems across all industries, albeit with varying business values and time frames. In many instances, quantum computers do not focus on replacing current high-performance computing methods, but rather on offering a new and complementary perspective, which in turn may open the door to novel solutions. Risk mitigation or investment strategies in finance are two such examples. Many more areas are under active exploration, and we are bound to see some unexpected innovations.

Here’s how race team members, riders, and some followers, can approach quantum computing during the NISQ era.
Analyze the potential. Companies need to quantify the potential of quantum computing for their businesses. They should also monitor the progress of the ecosystem, systematically assessing where to develop or secure promising future IP that is relevant for a particular industry.

Gain experience. Companies can experiment with and assess quantum algorithms and their performance on current and upcoming quantum hardware using cloud-based access. This requires only a minimal investment in a small, possibly virtual, quantum group or lab. Building capabilities by collaborating with key software and service players can be complemented with partnerships and potential investments in, or acquisitions of, small players.

Lead your own effort. Companies can build their own quantum unit with dedicated resources to lead quantum pilots in collaboration with outside providers, which guarantees direct access to hardware and the latest technology developments. Direct collaboration with an end-to-end tech player allows partners to leverage technology-specific speed-ups and take early advantage of rising technology maturity. However, at this stage companies should avoid locking in to a particular technology or approach—pioneers confirm the importance of testing the performance on several technologies.

Launch new offerings. This scenario requires an even larger investment in a cross-functional group of domain and quantum computing experts. It will likely be based on either a preferential collaboration with leading technology players to assure frontline access to top-notch hardware or, for a select few companies, building their own quantum computer. Either way, the ambition is to realize the first-mover advantage of a new discovery or application more than to demonstrate quantum advantage. Such players become active drivers of the ecosystem.
THE CURRENT STATE OF PLAY
Businesses are already active at all levels of engagement. A few companies with deep pockets and a significant interest in the underlying technology—such as Northrop Grumman and Lockheed Martin in the aerospace and defense sectors, or Honeywell, with considerable strength in optical and cryogenic components and in control systems—already own or are building their own quantum computing systems.

We are seeing a number of partnerships of various types take shape. JP Morgan, Barclays, and Samsung are working with IBM, and Volkswagen Group and Daimler with Google. Airbus, Goldman Sachs, and BMW seem to prefer to work with software and services intermediaries at this stage. Commonwealth Bank and Telstra have co-invested in Sydney’s Silicon Quantum Computing startup, which is a University of New South Wales spinoff, while Intel and Microsoft have set up strong collaborations with QuTech.

A number of startups, such as OTI Lumionics, which specializes in customized OLEDs, have started integrating quantum algorithms to discover new materials, and have seen encouraging results collaborating with D-Wave, Rigetti, and others. A more common—and often complementary—approach is to partner with active hardware players or tech-agnostic software and services firms.

The level of engagement clearly depends on each company’s strategy, and its specific business value potential, financial means, and risk appetite. But over time, any company using high-performance computing today will need to get involved. And as all of our economy becomes more data-driven, the circle of affected businesses expands quickly.
A Potential Quantum Winter, and the Opportunity Therein
Like many theoretical technologies that promise ultimate practical application someday, quantum computing has already been through cycles of excitement and disappointment. The run of progress over past years is tangible, however, and has led to an increasingly high level of interest and investment activity. But the ultimate pace and roadmap are still uncertain because significant hurdles remain. While the NISQ period undoubtedly has a few surprises and breakthroughs in store, the pathway toward a fault-tolerant quantum computer may well turn out to be the key to unearthing the full potential of quantum computing applications.

Some experts thus warn of a potential “quantum winter,” in which some exaggerated excitement cools and the buzz moves to other things. Even if such a chill settles in, for those with a strong vison of their future in both the medium and longer terms, it may pay to remember the banker Baron Rothschild’s admonition during the panic after the Battle of Waterloo: “The time to buy is when there’s blood in the streets.” During periods of disillusionment, companies build the basis of true competitive advantage. Whoever stakes out the most important business beachheads in the emerging quantum computing technologies will very likely do so over the next few years. The question is not whether or when, but how, companies should get involved.

domingo, 29 de setembro de 2019

Arte de CELLUS

random image

Nos 100 anos do fascismo, seu fantasma assombra Itália, nas folhas

Benito Mussolini (1883-1945) revista soldados enviados para ajudar as forças alemãs a invadirem a União Soviética, no que ficou conhecido como Operação Barbarossa ̶ Foto: Getty Images 

A ascensão da extrema direita no mundo trouxe de volta ao debate público um alerta sobre o fascismo e seu eventual ressurgimento, discussão que há algumas décadas é presente na Itália, berço do movimento e que recentemente flertou com a guinada conservadora. No ano do centenário de nascimento do movimento fascista, o assunto voltou a ser um dos mais discutidos pelos italianos - incendiando não só a política, mas há 2 dias também os setores cultural e universitário e até o futebol - e coincide com a consolidação nacional de Matteo Salvini, ex-ministro do Interior e atualmente o político mais popular do país, que derrubou o governo no mês passado pedindo para os eleitores lhe darem “plenos poderes”. 

Matteo Salvini, ex-ministro do Interior italiano, defende bandeiras como o cerco à imigração, a liberalização do porte de armas e a defesa da família cristã ̶ Foto: AP

Salvini usou a mesma frase dita por Benito Mussolini em 1922, quando o ditador fascista chegou ao poder, para tentar convocar novas eleições, mas sua manobra falhou. Num rearranjo que o jogou para a oposição, um novo Executivo foi formado no Parlamento entre o Movimento 5 Estrelas (antigo aliado do ex-ministro) e o Partido Democrático, de centro-esquerda - um dos principais argumentos para o acordo entre duas siglas adversárias era evitar que um político extremista chegasse ao poder. 
Referência da extrema direita europeia e aliado de nomes como o brasileiro Jair Bolsonaro e o húngaro Viktor Orbán, Salvini também recorre a símbolos religiosos e defende bandeiras como o cerco à imigração, a liberalização do porte de armas e a defesa da família cristã. 
Não por acaso, ele se tornou para os críticos a encarnação de um suposto novo fascismo que se dissemina pelo mundo - o que na Itália não é propriamente uma novidade. Criado por Benito Mussolini em 1919, o movimento fascista foi o primeiro regime autoritário da Europa ocidental no século XX e abriu caminho para o nazismo de Adolfo Hitler na Alemanha, na década seguinte. Ambos acabaram em 1945, com o fim da Segunda Guerra. No país, contudo, os fantasmas do fascismo são muitas vezes considerados eternos ou atemporais. Um dos motivos tem a ver com a proliferação de grupos neofascistas que evocam o legado do governo de Mussolini e são responsáveis por ataques xenófobos, e praticamente todos defendem as bandeiras de Salvini, político camaleão que já trocou de pele algumas vezes - no passado, antes de se tornar o líder da Liga e se aproximar da direita radical, ele flertou com uma seção do Partido Comunista. “A quem fala em onda negra [referência aos camisas negras, como eram conhecidos os fascistas no tempo de Mussolini], peço respeito não a mim, mas aos 34% dos italianos que não me parecem extremistas, racistas ou fascistas” , declarou o político após a eleição continental, respondendo às críticas e insinuações feitas na Itália e em diversas partes do mundo. Nos 14 meses de existência do governo que formou com o Movimento 5 Estrelas, partido antissistema, Salvini passou a ditar a agenda do país e se envolveu em inúmeras polêmicas sobre o passado fascista. Uma delas foi se recusar a participar dos eventos pelo 25 de abril, feriado nacional que recorda a liberação do país do nazifascismo. Ele boicotou a celebração argumentando que “comunismo e fascismo estão no passado”. Não foi o primeiro. 
Antes dele, nos anos 1990, após o sistema político explodir por causa das Mãos Limpas, Silvio Berlusconi foi eleito para o governo numa aliança que abrangeu também um partido neofascista. “A tese do eterno retorno do fascismo se baseia no uso de analogias que geralmente produzem falsificações históricas” , diz em seu mais recente livro o historiador Emilio Gentile, 74 anos, considerado na Itália o maior especialista vivo do assunto. Professor emérito da Universidade Sapienza de Roma, ele publicou neste ano “Quem É Fascista” , escrito para aproveitar o boom do mercado editorial sobre o tema. “Resolvi fazer o livro para parar de responder às mesmas perguntas repetidas nas últimas quatro décadas” , afirmou Gentile ao Valor. A frequência atual das perguntas é comparável ao período 25 anos atrás, quando o escritor Umberto Eco publicou “O Fascismo Eterno” (que voltou a ser bem vendido), em que define o movimento como uma retórica, uma forma de pensar e expressar o mundo. Gentile é categórico: o fascismo foi um fenômeno datado, portanto não se repete mais. Ele acha um desserviço acusar de fascista quem não é, cujo resultado costuma ser adverso: anula o seu significado real e seduz jovens que nada sabem sobre o fascismo histórico. “Se eu procuro um fascista, encontro sempre” , comenta o historiador, ressaltando que o uso excessivo do termo por parte da esquerda contribuiu por banalizá-lo - no Brasil, em campanhas eleitorais passadas, o PT utilizou a palavra contra o senador paulista José Serra (PSDB). Bolsonaro é um dos políticos da direita radical mencionado no livro de Gentile. Ele é conciso e didático ao explicar que populistas que falam em nacionalismo, soberania (palavra cara para Salvini) e democracia direta exaltam elementos que eram extremamente negados pelo fascismo. O historiador ressalta o risco de ver fascistas em todos os lugares e perder a atenção para a verdadeira ameaça: os políticos democraticamente eleitos com agenda antidemocrática. 
A ascensão do fascismo foi rápida e, com ele, a palavra logo passou a ser utilizada fora da Itália para definir políticos como o jovem Hitler, admirador de Mussolini e descrito como fascista pelos jornais alemães ainda na década de 1920. A palavra faz parte de um seleto grupo  que a língua italiana legou para a linguagem universal, a exemplo de pizza e máfia, também usadas sem tradução. 
Ex-socialista, Mussolini criou o chamado Fascio di Combattimento em 1919, ao lado de ex-combatentes da Primeira Guerra (1914-18), sindicalistas e delinquentes. Com a Itália imersa num caos econômico, social e político, e sob a sombra do comunismo russo (o país chegou a ter o maior Partido Comunista do Ocidente), o grupo logo se transformou no Partido Nacional Fascista e chegou ao poder em 1922. Regime de partido único, com desejos imperiais e um controle repressivo organizado e eficiente, que muitas vezes recorria a um terror organizado, Mussolini liderou a criação de uma sociedade antidemocrática, baseada na guerra e que imprimiu nos seus 23 anos um novo conceito sobre o homem, o poder, as massas, a cultura, a arquitetura e a política institucional. 
O totalitarismo que nasceu ali não teve um antecessor (embora fosse influenciado pelo mito da Roma Antiga) nem se replicou depois. Gentile insiste que qualquer tentativa de relacionar outros regimes e políticos ao fascismo não se baseia no rigor histórico. Segundo ele, não há um fascismo universal, nem se pode chamar de fascista todo aquele que se diz contrário ao comunismo ou à democracia. “Quem se apresenta como fascista pode achar que faz parte de uma força presente em todo o mundo, o que é um engano. Se pensarmos assim, o catolicismo do passado era fascista, o islamismo é fascista ou as ditaduras latino-americanas também eram fascistas.” Após a Segunda Guerra, durante a reconstrução da Europa, Itália e Alemanha fizeram percursos diferentes. Os alemães se submeteram a um programa de desnazificação conduzido pelos Aliados - o país também tem seus grupos neonazistas, mas Hitler não é festejado publicamente, como ocorre com Mussolini na Itália. No dia 28 de abril, quando se recordou a data da morte do Duce, várias faixas foram vistas no país, uma delas ao lado do Coliseu. “A experiência fascista permaneceu entranhada na sociedade italiana muito além de 1945. A Itália não teve a possibilidade nem o interesse de acertar as contas com o passado, e a resistência ao fascismo preferiu deixar esse assunto em stand-by” , disse o historiador Francesco Filippi. Autor de um dos tantos livros lançados nos últimos meses sobre o tema, com o irônico título de “Mussolini Ha Fatto Anche Cose Buone” [“Mussolini Também Fez Coisas Boas”], Filippi trata de desconstruir os mitos e inverdades sobre o regime e o líder fascista que ainda circulam nas redes e entre políticos da extrema direita - a lista é ampla, de supostas melhorarias econômicas à relação do Duce com a legalidade, as mulheres e o estado social italiano. O objetivo dos saudosistas da ditadura é ressaltar aquele período como um dos grandes momentos da história italiana. Outro aspecto, ressaltam os historiadores, é que o fascismo não ficou marcado pelo genocídio como o nazismo. “As vítimas do fascismo foram alguns milhares, mas não centenas de milhares. Isso ajudou a criar a imagem de uma ditadura benevolente, feita de água de rosa. Na Itália nunca discutiu seriamente o fascismo porque os antifascistas, num determinado momento, negaram a coparticipação dos italianos, os consideraram inocentes em 20 anos de regime, que passou a ser descrito como uma ópera bufa com alguns casos criminosos.” A falta de um acerto de contas favoreceu o desenvolvimento, na segunda metade do século XX, daquele que ficou conhecido como o maior movimento neofascista da Europa no pós-guerra: o MSI, sigla de Movimento Social Italiano, que reivindicava a herança e os ideais de Mussolini. Nos anos 1990 o MSI virou a Aliança Nacional, partido levado ao governo por Berlusconi. “A questão é que o fascismo deixou de ser um substantivo e se transformou num adjetivo” , afirmou o sociólogo Domenico De Masi ao Valor . Professor emérito da mesma Sapienza, De Masi não se atém ao fascismo histórico, citando aspectos retóricos e culturais que têm origem no autoritarismo e que estão presentes no atual cenário político, como a criação de inimigos externos no alto (a elite global e a União Europeia) e abaixo (imigrantes e ciganos, por exemplo). “Salvini com frequência aparecia em atos do governo com uma jaqueta militar, da polícia ou de outras forças de segurança. É um gesto impensável para qualquer outro político que ocupou anteriormente o Ministério do Interior” , diz o sociólogo. Ele concorda que a sociedade italiana falhou ao discutir o passado e atribui a Berlusconi (hoje um crítico da visão eurocética de Matteo Salvini) o feito de abrir o caminho institucional às viúvas do fascismo. 
A discussão não é só semântica. Há em atuação em toda a Itália, segundo levantamentos jornalísticos recentes, pelo menos 15 grupos neofascistas. Muitos deles estão envolvidos em ataques contra minorias que ganharam as páginas policiais nos últimos anos, como os disparos realizados contra imigrantes africanos (ninguém morreu) em fevereiro de 2018 na cidade de Macerata. O autor era um jovem italiano que já tinha se candidatado a um cargo público (sem sucesso) pela Liga e flertava com grupos extremistas. Um deles é o CasaPound, o maior do país, que nasceu a partir da ocupação de um prédio abandonado no centro de Roma e que desde 2009 é também um partido político. 
Batizado em homenagem ao poeta Ezra Pound, com o símbolo de uma tartaruga, a CPI (CasaPound Italia, como é conhecida) conquistou na eleição nacional do ano passado pouco mais de 312 mil votos. “Reivindicamos forte relação com os aspectos sociais e culturais do fascismo, mas aceitamos o jogo democrático, respeitamos a Constituição e participamos de eleições. CasaPound é uma tentativa ambiciosa e difícil de conciliar a memória daquela época, cara a milhões de italianos, com o arranjo institucional de hoje” , afirmou Adriano Scianca, espécie de curador cultural do grupo e diretor do “Il Primato Nazionale” , seu jornal. Scianca critica o que chama de cruzada para, 74 anos a pós guerra, encerrar as memórias do fascismo, que, segundo ele é popular, ao contrário do antifascismo - muito criticado pelos extremistas e tratado como “histeria”. Aliados no passado, o CasaPound tem o mesmo slogan trumpista adotado por Salvini durante seu tempo no governo - “primeiro os italianos”- e defende políticas semelhantes, como a saída do euro e da União Europeia (seguindo a nova tática dos eurocéticos, agora Salvini espera reformá-la por dentro), o cerco à imigração e o viés nacionalista. “Ele é o político menos pior para a Itália neste momento” , comenta Scianca. Neste ano, o grupo esteve envolvido em atos xenófobos e de intolerância ideológica que voltaram a ganhar as manchetes. E em novas polêmicas. Uma delas envolveu Salvini e o Salão do Livro de Torino. O ministro teve um livro publicado pela editora Altaforte, pertencente à Casa Pound, intitulado “Eu Sou Salvini” , entrevista/apresentação apologética. 
O editor da Altaforte, credenciado para participar do evento literário, já respondeu pelo crime de apologia ao fascismo, previsto no código penal italiano. Após ameaças de boicote por parte de outros convidados, como o Museu do Holocausto, a editora acabou vetada pelos organizadores. Sobre o episódio, Scianca disse que ele revelava como a “esquerda controla o setor cultural italiano”. Ainda em maio, militantes do Casa Pound realizaram uma blitz na periferia de Roma que obrigou a atuação da polícia para escoltar uma família de ciganos (não italianos) que ganhou do governo municipal o direito a uma moradia popular. Membros do grupo tentavam impedir a entrada do casal e do filho no imóvel seguindo a lógica de “primeiro os italianos”. Um militante chegou a ameaçar de estupro a mãe cigana - registrado pelas câmeras. Os ciganos eram um dos alvos frequentes da política de Salvini, que tinha anunciado o desejo de fazer uma limpeza “bairro por bairro, rua por rua” contra os ciganos ilegais, a maioria considerada pelo político e parte de seu eleitorado como delinquentes que vivem de modo irregular para facilitar a vida no crime. O político não se manifestou sobre o caso. Quem defendeu publicamente a família foi o papa Francisco, que a convidou para uma audiência no Vaticano. Dias depois, a polícia fez outra intervenção contra um grupo neofascista, desta vez no campus da Universidade Sapienza, em Roma, para garantir a realização de uma aula. O convidado era Mimmo Lucano, prefeito afastado de Riace, na Calábria, um pequeno município que virou caso de discussão nacional ao se revitalizar com uma política pró-imigrantes. Político de esquerda, Lucano enfrenta questionamentos na Justiça por promover a imigração ilegal e teve forte embate com Salvini, que fechou os portos para imigrantes e ONGs que resgatam náufragos no mar Mediterrâneo. O convite a Lucano provocou a ira da Forza Nuova, grupo e partido político defensor do legado do Duce, que queria impedir a realização da aula - a FN é conhecida por espalhar faixas na capital italiana em homenagem a Mussolini e já chamou em uma delas o Santo Padre de traidor. A presença da polícia evitou confronto, e o prefeito afastado acabou escoltado até a sala pelos estudantes, que entoavam “Bella Ciao” , hino da resistência fascista na Segunda Guerra (canção, aliás, cantarolada ultimamente em muitos países). Esses grupos são consequência direta do MSI e, segundo ressalta Gentile, eles sim merecem o rótulo de fascistas ou neofascistas, já que eles mesmo se reconhecem assim - outros termos reivindicados são fascismo 2.0 ou do terceiro milênio. A polêmica vai até o futebol. No primeiro semestre, em Milão, torcedores da Lazio, equipe romana também conhecida pelo flerte de parte de sua torcida com o nazifascismo, estendeu uma faixa em homenagem a Mussolini - a Procuradoria da cidade abriu um procedimento para apurar eventual crime. Nos estádios, alguns torcedores da Società Sportiva Lazio exaltam em cânticos as inicias das duas primeiras palavras do clube, SS, em alusão à polícia nazista. “As torcidas organizadas se tornaram laboratório para a extrema direita” , afirmou o repórter Paolo Berizzi, do jornal “La Repubblica” , que há anos investiga os grupos neonazistas e neofascistas na Itália. Por causa de seu trabalho, ele e a família foram ameaçados de morte. O portão de sua residência e seu automóvel foram alvos de mensagens intimidatórias. No início deste ano ele se transformou no 21º jornalista italiano a viver sob escolta armada, o único por motivos políticos - os demais são ameaçados pela Máfia. As torcidas organizadas na Itália, em sua grande maioria, estão comandadas por grupos extremistas ou neofascistas. Além da Lazio, as mais identificadas com a ideologia são as da Inter de Milão e dos pequenos Verona e Varese, da segunda divisão - insultos racistas contra jogadores negros ainda é uma realidade nos estádios. Em muitos casos, conta Berizzi, as organizadas italianas têm conexões com extremistas de outros clubes europeus. A relação entre neofascistas e futebol também remonta aos anos 1990, conforme narra o jornalista no livro “Nazitalia” , que publicou no ano passado, sobre o crescimento e a forma de atuação dos grupos extremistas. Para Berizzi, é preciso refletir por que um jornalista está sob proteção armada por investigar os neofascistas enquanto eles seguem atuando abertamente, sem qualquer constrangimento por parte do governo. “É um sinal do clima de raiva e ódio no país. Alguns desses grupos participam normalmente de eleições. Por que o Estado não acaba com eles?” , pergunta.  Francesco Filippi concorda. Ele acha bobagem discutir se estamos diante de uma ameaça de reconstituição fascista - o que ele não acredita. “O fascismo é uma doença da democracia, é a decadência das regras democráticas. O que devemos refletir é por que uma parcela da sociedade se apresenta abertamente como fascista”.

Glenn Greenwald: “Moro (Sergio) sabe que eu sei tudo que ele disse e fez. E sabe que vamos contar tudo”, entrevista a NAIARA GALARRAGA GORTÁZAR

Ele liderou a equipe que revelou o escândalo que sacode o Brasil e pôs contra a parede o ministro da Justiça, Sergio Moro, que condenou o ex-presidente Lula à prisão
         Glenn Greenwald em sua casa no Rio de Janeiro. ARIEL SUBIRÁ

Nos últimos seis anos, o advogado Glenn Greenwald (Nova York, 1967) se tornou uma figura fundamental do jornalismo investigativo. Instalado no Rio de Janeiro há 15 anos, foi a ele que o analista Edward Snowden recorreu em 2012 com os documentos que revelavam os programas de vigilância em massa do Governo dos Estados Unidos, porque tinha lido seu blog e suas colunas no site Salon. 
A publicação daquela história lhe rendeu um prêmio Pulitzer e levou à criação do jornal digital The Intercept. É nele que o jornalista publica há um mês, em conjunto com outros jornalistas da equipe, sua mais recente grande história: as mensagens trocadas entre Sergio Moro, o então juiz que condenou o ex-presidente Luiz Inácio Lula da Silva à prisão e é um símbolo da luta contra a corrupção, e os procuradores da operação Lava Jato. Moro pendurou a toga para ser ministro da Justiça no Governo do presidente Jair Bolsonaro e anunciou recentemente que tiraria cinco dias de licença sem salário a partir desta segunda-feira para resolver “assuntos particulares”. Desde que publicou sua revelação exclusiva, Greenwald é considerado um vilão por quem vê Moro como um herói. E vice-versa.
Greenwald, que já escreveu meia dúzia de livros e é conhecido por ser um crítico feroz e heterodoxo do poder e das elites, não teme a polêmica, e apontou enfaticamente os erros dos democratas e da imprensa dos EUA depois da eleição de Donald Trump. Também denunciou que o movimento anti-Trump é “a primeira #resistência na história que venera as agências de segurança estatais”.
No Brasil, o jornalista é, além disso, o marido de um deputado de esquerda, David Miranda, com quem adotou dois meninos e formou uma família. Desde que revelou as mensagens de Moro, anda com escolta armada. O som da chuva torrencial pontuado por latidos − eles vivem com cerca de 20 cachorros − é o pano de fundo desta entrevista na casa da família, no Rio de Janeiro.
Pergunta. Como foi o instante em que recebeu o vazamento sobre Sergio Moro?
Resposta. Foi algo muito parecido com o que senti ao receber os arquivos de Snowden. Incredulidade. No jornalismo você consegue boas histórias, mas elas raramente são disruptivas. Desta vez, eu sabia que isto ia ser uma bomba no Brasil, porque o que eu estava lendo era não apenas chocante, como também implicava aquela que provavelmente é a pessoa mais respeitada e poderosa do país, mais até do que o presidente. Eu sabia que seria muito polêmico. Ele [Moro] é provavelmente quem dá credibilidade e legitimidade ao Governo de Bolsonaro.
P. Os documentos foram enviados por correio eletrônico ao seu site? Foi à redação? Ligaram?
R. Não posso contar nada, para proteger a fonte, não posso contar nada sobre como nos chegou o material.

P. Dizem que a equipe se reuniu em um hotel porque o arquivo é enorme e precisavam de segredo e de muito cuidado.
R. A primeira coisa é sempre a segurança. Somos uma agência de notícias com sede nos Estados Unidos. No The Intercept, antes dos jornalistas, contratamos especialistas em segurança tecnológica. Mesmo que a polícia brasileira viesse até minha casa e levasse meu computador e meus telefones, nunca seria capaz de chegar ao arquivo, porque ele está seguro, fora do Brasil, em muitos lugares diferentes. Vendo o tamanho, entendemos que era necessário trabalhar em equipe e que era necessário que nos associássemos a outros veículos de comunicação, também para garantir nossa própria proteção.

P. Vocês se associaram ao maior jornal, a Folha de S. Paulo, e à maior revista semanal, a Veja.
R. Sim, e eles têm equipes grandes que cobrem a operação Lava Jato há anos, que cobriram Moro. Eles têm um conhecimento que nós não temos necessariamente. Temos jornalistas expertos em Lava Jato, Leandro [Demori], Rafael [Moro Martins], Amanda [Audi]. Quanto mais jornalistas você envolve em um assunto, mais profundo é o jornalismo que você faz. 

P. O senhor conseguiu os arquivos?
R. Sim.

P. O The Intercept inclui em seu site instruções detalhadas para que as fontes possam lhes enviar vazamentos.
R. Sim, mas enfatizamos que não existe a segurança absoluta, o 100%. Isso é algo que Sergio Moro acaba de descobrir. Ele usava o sistema de mensagens por celular Telegram porque pensava que era totalmente seguro.

P. O ministro Moro se defendeu dizendo que o comportamento dele como juiz pode ser surpreendente em outros países, mas que é comum, tradicional, no Brasil.
R. Essa tradição que ele diz existir é rejeitada pelo código de conduta judicial, que exige que um juiz seja imparcial. É proibido explicitamente o que ele diz que é comum e tradicional: basicamente, juízes colaborando com uma das partes. Mas mais significativo ainda é que durante os últimos quatro ou cinco anos houve suspeitas, sem provas, de que Moro estava colaborando com os procuradores e ele nunca disse que era “uma tradição”. Ele negou veementemente.

P. Você teme que sua imparcialidade como jornalista seja questionada porque seu marido é político?
R. Nunca acreditei que os jornalistas deveriam fingir não ter opiniões. Até certo ponto, é mais honesto ser aberto sobre seus pontos de vista. E algo que acho engraçado é que no Brasil as pessoas me associam com a esquerda, enquanto nos EUA às vezes acreditam que sou de direita porque apareço na rede Fox.

P. Houve uma grande campanha de intimidação contra você, da qual participaram dois filhos do presidente, sem que este ou o ministro da Justiça a impedissem. Tem medo?
R. No jornalismo, você sempre corre riscos. E, se enfrenta alguém no poder, podem castigar você ou se vingar. Mas nós decidimos que valia a pena assumir o risco. Acredito que este Governo é repressor e autoritário, e acredito que Moro demonstrou que está disposto a violar todas as leis. Mas o que os torna perigosos é que agora eles se sentem desesperados. Moro sabe que eu sei tudo o que ele disse e fez. E que vamos contar tudo.

P. O que o trouxe para o Brasil?
R. Vim por sete semanas para clarear as ideias. Meu primeiro marido e eu tínhamos nos separado, eu tinha 37 anos, estava cansado de ser advogado... Conheci o David no primeiro dia, nós nos apaixonamos e naquela época os EUA tinham uma lei de [Bill] Clinton que proibia o Governo federal dar qualquer benefício a casais do mesmo sexo. David não podia obter um visto para os EUA. Mas os tribunais do Brasil tinham criado uma norma que dava direito de residência permanente aos casais do mesmo sexo. O Brasil era a única opção para estarmos juntos.

P. O jornalismo investigativo é mais difícil do que nos tempos do Wikileaks ou de Snowden?
R. No sentido tecnológico é mais fácil, mas no legal, mais difícil. Uma das coisas geniais do Wikileaks é que Assange foi o primeiro a ver que, graças ao armazenamento digital, os vazamentos em massa de informações de instituições poderosas seriam o novo motor do jornalismo na era digital. Um de meus heróis da infância era Daniel Ellsberg, que vazou dezenas de milhares de páginas dos papéis do Pentágono. Demorou meses para copiar os documentos secretos. Snowden levou algumas horas. Mas os poderosos, cada vez mais ameaçados por essa facilidade para os vazamentos maciços, estão ficando mais agressivos na hora de criminalizar o jornalismo investigativo.

P. Assange é um jornalista? Este é um ponto central no debate sobre seu caso judicial.
R. Acredito que o que ele fez é jornalismo. Não acho que um jornalista deva ter formação específica como a de um médico ou um advogado. Qualquer cidadão pode revelar informação de interesse público. Assange trabalhou com jornais do mundo todo, The New York Times, The Guardian, EL PAÍS etc., não como uma fonte, mas como um parceiro jornalístico. Não tenho uma relação muito estreita com ele, mas sou uma das poucas pessoas que, apesar de criticá-lo pontualmente, sempre defenderam a importância de seu trabalho. Em 2018, David e eu passamos três dias com ele na embaixada [do Equador em Londres].

P. E com Snowden?
R. Tenho muito relacionamento. Juntamente com Daniel Ellsberg, Laura Poitras e outras pessoas criamos uma organização para a liberdade da informação, com a qual Snowden trabalha. Estive em Moscou há um ano e passamos um dia normal como amigos, fomos ao parque Gorki... Quando o visitei pela primeira vez, estava sob extrema pressão e não se sentia à vontade nem mesmo saindo à rua. Hoje não pode sair da Rússia porque seria preso, mas é a pessoa mais feliz que conheço porque, com coragem e sacrifício, tomou uma decisão corajosa e estava plenamente consciente disso.

P. Quanto do orçamento do The Intercept é coberto pelos leitores e quanto por Pierre Omidyar, o dono do Ebay, que financiou o projeto?
R. Claramente, a maior parte ainda vem do nosso fundador, mas a cada ano que passa isso vai se equilibrando porque cresce o apoio dos leitores. Aqui, no Brasil, disparou.

P. Para seus filhos, como é crescer no Brasil de Bolsonaro com dois pais, que além do mais são conhecidos?
R. Pensamos nisso antes de adotá-los, quando Bolsonaro ainda não era presidente, mas já havia um crescente movimento da direita. No Brasil querem apresentar a comunidade LGBTQI como uma ameaça para as crianças. A família que criamos dinamita essa demonização. É nossa obrigação mostrar que as famílias LGBTQI podem ser completas e felizes.
Proteção da privacidade
Glenn Greenwald explica que as agências de inteligência podem transformar um celular em instrumento de vigilância, embora não tão facilmente. Por isso, desde que Edward Snowden o contatou em 2013 para lhe entregar os arquivos que provavam a espionagem em massa de cidadãos americanos pela Agência de Segurança Nacional dos EUA (NSA), o jornalista toma todas as precauções ao se comunicar com seus colegas, com as fontes e com qualquer pessoa com quem troque informações sensíveis. A medida de segurança mais óbvia é retirar os celulares da sala. Seis anos depois daquela reportagem exclusiva de 2013, Greenwald afirma que ela teve tanta repercussão porque “no fim das contas, instintivamente, somos animais que precisam de um espaço privado”. Por isso é que se coloca um ferrolho no banheiro e se usa uma senha no correio eletrônico, diz ele. “Todos sentimos que há coisas que compartilharíamos com um médico, com nosso parceiro ou com nossos melhores amigos, mas que nos dariam vergonha se fossem públicas.”

Greenwald opina que, no entanto, o debate sobre a perda de privacidade não tem a importância que deveria ter entre a população. Se as revelações de Snowden colocaram o foco na intromissão dos Governos, com os EUA à frente, agora são as grandes empresas de tecnologia, como Facebook e Google, que estão no centro das atenções. “A forma como a tecnologia permite que nos vigiemos o tempo todo é mais grave do que o público entende, e o debate sobre isso é insuficiente”, afirma. A vida digital transformou os usuários, muitas vezes de maneira totalmente inconsciente, em fornecedores constantes de informações pessoais valiosas para empresas e entidades de todo tipo.

O advogado e jornalista, que vive em um país tão desigual como o Brasil, tem plena consciência de que para boa parte da população do mundo a defesa da privacidade não é um assunto primordial. Quando você não tem acesso a água potável nem a atendimento de saúde para seus filhos, ou não come o suficiente, pensar sobre o uso que é feito de seus dados pessoais pode parecer algo de menor importância. “Defender a privacidade pode parecer um pouco abstrato e mais remoto do que satisfazer outras necessidades. Mas também acho que existe uma tentativa deliberada de transmitir às pessoas a mensagem de que, se você não for um terrorista ou um pedófilo, se não tiver nada a esconder, não deve se preocupar com que o Governo ou as empresas o vigiem.”
Agora, mergulhado na enorme polêmica do caso Moro, a perda de privacidade sofrida pelo cofundador do The Intercept vai além da vigilância de Governos ou empresas: no Brasil, seu rosto está com o do ex-juiz em toda a mídia desde que começou o vazamento de informações, em 9 de junho. Paralelamente à intimidação, Greenwald sofreu uma campanha de descrédito que, entre outras mentiras, afirma que ele não ganhou o Pulitzer que obteve com o caso Snowden. “Uma das diferenças entre as reportagens sobre a NSA e sobre Moro é que grande parte do ódio que a primeira gerou foi dirigida a Snowden. Eu era simplesmente o jornalista. Agora a fonte é invisível, e eu sou o rosto da história.”

Trump e Bolsonaro: em busca dos porquês, por João Pedro Moraleida

Em seu novo livro, filósofo italiano Franco Berardi analisa: ascensão da ultradireita expressa, mais que falência neoliberal, a ineficácia da esquerda em propor alternativas. Desamparada, população buscou saídas de desespero e ressentimento

Livros tem a capacidade de nos dizerem muito do passado e das coisas que foram pensadas como possíveis numa determinada época e momento específico. Nos surpreende que as realizações das perspectivas abertas em ensaios, estudos e ficções não se apresentem, por vezes, tal como apontadas. Passemos pela vasta literatura distópica do século passado, marcada por um avesso da emancipação, a vida usurpada da sua atividade criativa e desejante, para dar lugar a angústia da imobilidade, de uma subjetividade reativa, por vezes reacionária, ao dar passagem para a morte, para a violência e para o totalitarismo. Nela o futuro é matéria de uma possibilidade aterradora. 

Tomemos então como exemplo outra manifestação, dessa vez não distópica, mas da poesia enquanto afirmação da vida: Pasolini em seu poema sobre os vaga-lumes, durante a 2ª Guerra Mundial e o fascismo, enxerga nos animais luminosos que povoam a mata ao mesmo tempo em que ocorrem conflitos, a existência das possibilidades de superação e emancipação, aos jovens que em meio à destruição podem se recolocar no mundo e a partir dessa experiência, modificar a marcha destrutiva. 
A mesma representação dos vaga-lumes retorna na década de 70, quando o poeta e cineasta afirma categoricamente a impossibilidade de uma superação do mundo e afirmação da vida. Para ele a sociedade de consumo, ou o neocapitalismo, como denominavam os italianos, deu espaço a uma mutação antropológica da cultura popular e das tradições, exatamente naquilo que Pasolini via como matéria do presente que formava possibilidades reais de emancipação. 
Era o neofascismo, na Itália em que o processo contrarrevolucionário caminhava em direção a extrema violência e terrorismo de Estado. As reflexões de Pasolini são tema do livro “Sobrevivência dos vaga-lumes”, de Georges Didi-Huberman. 
Mudemos nosso ângulo histórico, de todo modo permaneceremos no seio do problema: Henri Bergson publica na revista sueca Nordisk Tidskrift o ensaio “O possível e o real”. Chama atenção ao texto a data de publicação: ano de 1930. 
Na Europa o nazismo caminhava em suas práticas tectônicas na sociedade alemã, através da violência e do desamparo causado pelo desemprego, fome, miséria. 

A vitória do Partido Social-Democrata neste ano não esconde a vitória do Partido Nazista em seu número de eleitos no Reichstag. Bergson discute a imprevisibilidade do possível e o diferencia do real, do que damos nome e vivemos no presente, daquilo que pode sempre ser a mudança, o futuro no e do presente. Em Bergson o possível é sempre porvir e não se localiza fora dos meandros do mundo e das sociedades, mas é sua matéria por excelência:

“[…] O possível é portanto a miragem do presente no passado; e, como sabemos que o porvir acabará por ser presente, como o efeito de miragem continua sem descanso a se produzir, dizemo-nos que, em nosso presente atual, que será o passado de amanhã, a imagem de amanhã já está contida ainda que não a consigamos apreender. […]” (BERGSON, p. 115)

Esse possível não é metafísico, não o encontramos na transcendência, mas é como se estivesse latente, implica-se na e a realidade, num movimento de adição à matéria presente, em que real e possível não coincidem em significado, mas de forma que o real só o é pela possibilidade, não o contrário, diz Bergson. Podemos agora nomear esse nosso “seio do problema”: o tempo. Daremos então um salto histórico para alcançarmos, ao final do texto, seu primeiro objetivo: ser uma resenha de um livro. Para isso estamos captando indícios de outros textos, assuntos descontínuos, claro, que não implicam numa única tradição de pensamento.

O salto? Nos encontramos então após Junho de 2013 e todo seu rescaldo político com interpretações das mais variadas para o estado de coisas do Brasil. Não concordamos aqui com as interpretações superficiais que localizam em Junho uma negatividade regressiva. Autores como Jessé de Souza e outros intelectuais insistem em apontar a negatividade daquele acontecimento, como se houvesse interrompido um ciclo progressivo de grandes conquistas sociais, humanas e políticas. Chegam a encontrar elementos de que Junho existiu por força imperialista, de que não passou somente da afirmação política de uma nova direita. Esse último sentido atribuído aos movimentos nos parecem meias-verdades, talvez não se trate de pensar 2013 como a essência da direita, mas observar como foi possível que a interrupção do tempo e espaço cotidianos pelo Acontecimento, pôde coincidir com uma afirmação da direita ainda mais violenta e destrutiva.

O demônio da democracia é por excelência do conflito representado pela instituição de outro tempo em meio ao consenso das oligarquias políticas. É a experiência que recoloca em cena o litígio entre povo e essa oligarquia. Não é à toa que à esquerda e à direita momentos como aquele, em que o povo se insurge e não cabe mais nas categorizações que os políticos e intelectuais da ordem os inserem, é interpretado como perigoso, como ameaça à própria democracia, como passeata dos que “não sabem bem o que querem”. É colocada em marcha as tentativas de reenquadrar os sujeitos para o estado de coisas anterior e surgem interpretações das mais variadas: como a manipulação midiática e a existência de um perigo.

Trata-se de nos perguntar de qual democracia falam os políticos. Nos parece que falam da gestão, afinal, do mundo, uma espécie de tecnocracia. É o governo em sua proeminência: controlar a população, criar dispositivos de controle e vigilância e fabricar de forma fictícia e contraditória um lugar em que todos cabem. Momentos como aquele podem ser entendidos como mudança da partilha do sensível, como nos aponta Jacques Rancière, pois modifica a forma como experimentamos o que nos é comum e o que nos exclui e separa. 2013 colocou em questionamento, por um curto momento, a repartição da cidade e do que é e não visível, dos problemas do transporte público a tomada das ruas durante semanas por trabalhadores, desempregados, estudantes e etc. Entre o governo e a população, há o que nos exclui e nos atravessa, cabe ao governo gerir essa partilha, entretanto existem momentos em que escapa de sua prática esse controle, são esses os momentos marcantes em nossa história e que modificam de forma abrupta a maneira de sentirmos e vivermos, em suma, a política, pois ela diz respeito ao tempo e ao espaço, ou seja, a nossa vida e ao sensível.
Não nos alonguemos demais na interpretação de Junho, mas o que desejamos deixar como questionamento é da ordem da perspectiva: o que em Junho modificou nossa partilha do sensível e de que forma a expressão política encontrou meios de solidificação numa nova direita, que ocupa ruas e praças, e forja novos estatutos de governo: controlar os corpos, inseri-los numa disciplina religiosa e de autocensura, recolocar a família como ponto fundamental da vida e dos desamparados e elevar a categoria de líder e político uma afirmação da destruição, como é o caso de Jair Bolsonaro? 
Não entenderemos esse processo enquanto nosso único ângulo for o da restauração, nesse caso, do ciclo lulo-petista, enquanto não vermos que naquele descontentamento uma energia foi captada pelas formas regressivas, sim, mas por ausência da esquerda, em seu sentido de projeto emancipatório e de afirmação da vida ativa. Estávamos preocupados em governar o sensível, em negociar e praticar o consenso. Possibilidades inúmeras se abriram naquele momento, a escolha de uma única é parte do poder, que freia a potência de imaginar outros mundos. Bolsonaro é hoje resultado de uma mudança de nossa partilha que se firmou numa mudança de como o poder é praticado no país: a possibilidade da afirmação da vida foi ao encontro de sua negação.

Ainda falamos do tempo? Na sequência de Junho de 2013 o filósofo Paulo Arantes publicou um livro intitulado “O novo tempo do mundo”. Paulo se preocupa, dentre ensaios primorosos, em encontrar indícios de uma mudança da ordem da filosofia da história, de como experimentamos o tempo, que não é mais da espera pela grande modificação, mas da espera da destruição, do fim. São as expectativas decrescentes e essa nova maneira de se experimentar o tempo engendra suas manifestações políticas do governo mas também dos movimentos da sociedade, da violência de Estado nas cidades até as tentativas de insurgências, como foi o caso de 2013, nossa última grande movimentação, que não se cansa de ser apedrejada por intelectuais da restauração. Infelizmente o livro não circulou como poderia ter circulado nos debates sobre o mundo atual, talvez existam razões para isso, que vão desde as explicações rápidas e superficiais fornecidas por intelectuais homologados da imprensa, das redes sociais e dos best-sellers da ciência política atual até a decadência em que se encontram as figuras dos intelectuais públicos no país, principalmente na esquerda, ainda agarrada na retomada de um ciclo ou projeto que ela mesma não foi capaz de compreender.

Foi numa entrevista sobre a emergência dos nouveaux philosophes na França após 1968 que Deleuze aponta neles o surgimento dos intelectuais midiáticos, em que teorias nulas e combinações excêntricas de conceitos se apresentam em figuras do marketing intelectual. 
Não nos espanta, sem fazer analogias diretas e estranhas, que 2014 tenha sido o ano em que as redes sociais, as televisões e dispositivos como YouTube deram espaço para pensadores que sempre tinham algo a dizer, numa espécie de auto-ajuda, sobre o mundo que se desmorona: Mário Sérgio Cortella, Leandro Karnal, Luis Felipe Pondé, Olavo de Carvalho, apesar de sua diferença para com os anteriores, entre outros. A nova experiência de mundo aberta pelo Acontecimento do ano anterior, engendrou nossos novos filósofos, que pouco tinham a dizer, a não ser nos apresentar explicações truncadas e fáceis para o estado de coisas:
“[…] Os entrelaços de força entre jornalistas e intelectuais mudaram completamente. Tudo começou com a tevê e os números de adestramento por que passaram os intelectuais condescendentes na mão dos entrevistadores. O jornal não precisa mais do livro. Não estou dizendo que esse reviramento, essa domesticação do intelectual, essa jornalização seja uma catástrofe. É mais ou menos assim: no mesmo momento em que a escrita e o pensamento tendiam a abandonar a função-autor, no momento em que as criações já não passavam pela função-autor, esta foi recuperada pela rádio, pela tevê e pelo jornalismo. Os jornalistas devinham os novos autores, e os escritores que ainda ansiavam por serem autores deviam passar pelos jornalistas ou devirem seus próprios jornalistas. Uma função caída num certo descrédito encontrava uma modernidade e um novo conformismo, ao mudar de lugar e de objeto. É isso que tornou possível as empresas de marketing intelectual. Será que existem outros usos atuais para a tevê, a rádio ou jornal? Evidentemente, mas essa não é mais a questão dos novos filósofos. […]” (DELEUZE, p. 143-151)

Chegamos, nessa espécie de descontinuidade das pegadas interpretativas do mundo e do tempo, a Franco Berardi. Franco é um filósofo italiano, vindo dos movimentos da década de 60 de seu país, com forte tradição autonomista e do operarísmo italiano. Há pouco meses seu primeiro livro traduzido no Brasil foi publicado: “Depois do futuro”. Trata-se de um ensaio muito interessante a respeito da modificação do estatuto do futuro e do tempo assumidos pelo mundo após as derrotas de projetos modernos, de grande esperar e expectativas. Franco inicia seu livro falando dos futuristas, da velocidade e aceleração do mundo, fala dos poetas modernistas, das mutações psíquicas relacionadas à tecnologia, a competição no neoliberalismo, da ausência da solidariedade, e como ela é necessária para a subjetivação política, o que parece uma exigência absurda no mundo em que a solidariedade perdeu sua força junto a ideia da sociedade, como queria Margareth Thatcher:

“[…] And, you know, there’s no such thing as society. There are individual men and women and there are families. And no government can do anything except through people, and people must look after themselves first. It is our duty to look after ourselves and then, also, to look after our neighbours.” (E, você sabe, não existe sociedade. Existem homens e mulheres individuais e há famílias. E nenhum governo pode fazer nada, exceto através das pessoas, e as pessoas devem cuidar de si mesmas primeiro. É nosso dever cuidar de nós mesmos e depois cuidar também de nossos vizinhos.) (THE GUARDIAN, in an interview in Women’s Own in 1987)

Mas é em seu livro mais recente: Futurability: The age of impotence and the horizon of possibility (“Futurabilidade: A era da impotência e o horizonte de possibilidade”), ainda sem tradução no Brasil, que Franco nos apresenta de forma mais clara seu pensamento. 
Trata-se de compreender o significado da potência, entendida como energia do sujeito que abre espaço para as possibilidades, que são sempre várias, segundo ele, seguindo as pistas de Bergson. Dividido em três partes: Potency, Power e Possibility, ele tenta compreender como Trump e Orbán se tornaram figuras capazes de nos conduzir à destruição do mundo, e por quais motivos recebem apoio popular. Termino aqui deixando a interpretação dele acerca da vitória de Trump, ligada ao desamparo das classes trabalhadoras, desempregadas e empobrecidas, que se viram engendradas pelo poder, isto é, pela colocação de uma possibilidade única, na eleição de Donald Trump. Seu entendimento pode nos servir e alertar para a interpretação que a esquerda tradicional tem dado a eleição de Bolsonaro, seccionando a sociedade brasileira em burros e esclarecidos, quando na verdade existiram razões objetivas e imediatas, e que precisamos compreender, para que desempregados e empobrecidos o elegessem. Se continuarmos a cair nessas armadilhas interpretativas e a nos distanciar de boa parte do país, sem tentar construir alternativas e projetos de emancipação comuns, não tardaremos em nos surpreender novamente com processos mais violentos e dessocializantes. 
A questão é: por que após um ciclo de governos progressistas a direita encontrou sua proeminência num candidato como Jair Bolsonaro e quais as razões para a sociedade depositar como alternativa essa figura? Talvez a esquerda restauradora tenha medo e receio de se tomar esse questionamento à fundo, e encontrar nela mesma as razões que nos trouxeram a isto, como comenta o mesmo Paulo Arantes em entrevista recente, ou os estudos da antropóloga Rosana Pinheiro Machado, que em suas etnografias pelas periferias de Porto Alegre vê na inserção pelo mercado e o fechamento deste às classes populares razões que aproximam muito mais o petismo do bolsonarismo, o contrário da ideia de “polarização” amplamente falada durante a última eleição, mas fiquemos com Franco Berardi:
“Depois do Tratado de Versalhes, a sociedade alemã foi rapidamente empobrecida e sujeitada a uma longa humilhação. Nessa situação, Hitler encontrou a oportunidade e sua jogada vitoriosa consistiu em instigar os alemães a se identificarem como uma raça superior e não como uma classe de trabalhadores explorados. Essa reivindicação funcionou e está funcionando novamente, mas agora numa escala muito maior: Donald Trump e Vladimir Putin, Jaroslaw Kaczynski e Viktor Orbán, Marine Le Pen e Boris Johnson, e muitos outros pequenos políticos medíocres que sentem a oportunidade de ganharem poder incorporando a vontade de poder da raça branca em verdadeiro declínio. A inflexão racial está ganhando força, tanto que Boris Johnson chamou Obama de ‘queniano’, mas também pelo medo racial que motiva as políticas anti-imigração da União Europeia. Por mais assustadora que seja, a tendência que eu detecto no presente é o surgimento de uma frente heterogênea de forças anti-globalistas, é o ressurgimento do nacional-socialismo e o espalhamento no mundo da reação contra o declínio da raça branca sentida como um efeito da globalização. Como a referência social da frente reacionária que está ganhando em boa parte do mundo é a defesa da classe trabalhadora branca, eu prefiro falar em national-workerism. Mario Tronti denominou os trabalhadores industriais que lutavam por interesses materiais e não por ideais de ‘classe pagã rude’. Por interesses materiais, as classes rudes do trabalhadores industriais estão agora se tornando nacionalistas e racistas, como aconteceu em 1933. Trump venceu porque representa uma arma nas mãos dos trabalhadores empobrecidos, e porque a esquerda os entregou nas mãos do mercado financeiro, mas nesse caso, sem armas. Infelizmente, essa arma se voltará contra os mesmo trabalhadores, e os conduzirá em direção a uma guerra racial. Esta frente antiglobalista e racista Euro-Americana é certamente fruto de 30 anos de governança neoliberal. Mas até ontem, na Europa e nos Estados Unidos, os conservadores eram globalistas e neoliberais. Agora não mais. A iminente guerra já está sendo definida como uma luta em três diferentes frentes. A primeira frente é o poder neoliberal que está estreitando seu controle sobre o governo e seguindo a agenda da austeridade e privatização. A segunda frente é o anti-globalismo Trumpista baseado no ressentimento branco e da classe trabalhadora desesperada. A terceira frente, ocorrendo em grande parte dos bastidores, é o crescimento do necro-impire do terrorismo, em suas diferentes formas de intolerância religiosa, da raiva nacionalista e da estratégia econômica, é isto o que eu denomino como necro-capital. Penso que a Guerra ao Terror, cujo principal alvo é o jihadismo, cedo ou tarde cederá espaço para a guerra entre o capitalismo globalista e o antiglobalismo fascista que toma conta do mundo (que pode ser chamado de ‘Putin-Trumpismo’).” (BERARDI, p.40-41)
Bibliografia
BERARDI, Franco. Futurability: The age of impotence and the horizon of possibility. New York: Verso Books, 2019.

BERGSON, Henri. O possível e o real. Em: O Pensamento e o Movente. São Paulo: Martins Fontes, 2006.

DELEUZE, Gilles; LAPOUJADE, David (org.). Dois Regimes de Loucos: Textos e Entrevistas (1975–1995). São Paulo: Editora 34, 2016.

THE GUARDIAN: Margaret Thatcher: a life in quotes, 2013.