Em formação

Volvelle: A máquina de papel projetada para calcular o tempo e computar a verdade da religião

Volvelle: A máquina de papel projetada para calcular o tempo e computar a verdade da religião


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

E se você pudesse projetar um dispositivo móvel de papel que invocasse provas lógicas e os atributos de Deus para resolver disputas religiosas? Ou se você pudesse fazer algo mais prático - uma “máquina” de papel que indica a hora da noite para que se saiba quando administrar medicamentos? Um homem que foi considerado um dos maiores cientistas-filósofos dos 13 º e 14 º séculos na Europa, Ramon Llull de Maiorca, fez exatamente isso. Llull os nomeou volvelles, da palavra latina volvere, que significa 'virar'.

Construídos de papel ou pergaminho, os volvelles têm partes móveis feitas de papel que giram e apontam para corpos celestes no cronômetro, ou para os atributos de Deus e argumentos para Sua existência no volvelle místico. Assemelham-se a astrolábios, feitos de metal e inventados muito antes.

Um volvelle dos 16 anos de Martín Cortés º livro do século Breve compendio de la sphera y de la aite de navegar , um texto seminal para a exploração oceânica. (Fonte: The Collation )

Um artigo no site do J. Paul Getty Museum descreve Lúlio como um filósofo místico. Llull nasceu em 1232 em Maiorca e morreu lá em 1315. Teve uma epifania religiosa em 1265 e tornou-se membro da Ordem Terceira de São Francisco de Assis, diz o site History of Computers. Ele pregou que as três religiões abraâmicas do judaísmo, cristianismo e islamismo deveriam ser unidas. Ele também foi a Tunis e tentou converter os muçulmanos ao cristianismo. Ao unir as três religiões, ele esperava que as pessoas da mesma fé pudessem lutar contra as "hordas da Ásia" que estavam ameaçando e invadindo o Oriente Médio e a Europa.

Além de redigir muitos tratados religiosos, ele escreveu sobre alquimia, botânica, astronomia e outras ciências. Ele também escreveu o primeiro romance catalão, Blanquerna. Ele escreveu Alia ars eleccionis, Ars eleccionis e Ars notandi. Essas três obras, diz History of Computers, foram "antecipadas por vários séculos de trabalho proeminente sobre a teoria das eleições".

O Museu Getty descreve como funcionava o volvelle de cronômetro semelhante a um astrolábio:

“A determinação do horário noturno foi obtida por meio do processo não tão simples de alinhar o dispositivo com uma estrela polar; fechando um olho; centrando a cruz de círculos na face, equidistante de ambos os olhos; e localizar outra estrela girando em torno da estrela central. Contanto que você não mova sua cabeça ou mãos no mínimo, você pode determinar seu lugar no universo! " Você pode ampliar e examinar este relógio, que está em exibição física no Getty, aqui: Getty.edu.

O relógio do Getty se assemelha ao volvelle de Llull, que ele chamou de "The Night Sphere", o que permitiu ao usuário calcular o tempo à noite, quando não havia relógio de sol. Lúlio pretendia que fosse usado para que as pessoas pudessem administrar remédios no momento mais potente, de acordo com os movimentos do corpo celestial, diz o artigo de Getty.

O site History of Computers está mais interessado no livro de Llull sobre Deus e diz que ele foi um pioneiro da teoria da computação.

No volvelle místico, parte do qual é mostrado aqui, as letras representam os nove atributos de Deus: B = Bonitas, C = Magnitudo, D = Duratio, E = Potestas, F = Sapientia, G = Voluntas, H = Virtus, I = Veritas e K = Gloria. Essas palavras podem ser combinadas de várias maneiras e trabalhadas com o resto do volvelle para produzir frases que Lúlio pensava que continham verdades lógicas. (Imagem de A História dos Computadores )

“A inovação radical que Llull introduziu no reino da lógica é, de fato, a construção e o uso de uma máquina feita de papel para combinar elementos de pensamento, ou seja, elementos de linguagem”, diz o site. “Com a ajuda de figuras geométricas conectadas, seguindo um quadro de regras precisamente definido, Lúlio tentou produzir todas as declarações possíveis que a mente humana pudesse pensar. Essas declarações ou declarações foram, no entanto, representadas apenas por uma série de sinais, ou seja, cadeias de cartas. ”

Llull teve a ideia de volvelles do Zairja dispositivo usado por astrólogos árabes para computar idéias por dispositivos mecânicos.

Um volvelle astrológico ( Wikimedia Commons )

Dizia-se que Volvelles era capaz de prever o futuro, e os números tinham significado sobrenatural nos 16 º século. Algumas pessoas medievais suspeitavam de volvelles e as pessoas que os usavam tinham más intenções e faziam magia negra, diz Getty.edu. Mas os volvelles foram valorizados posteriormente, à medida que o pensamento científico evoluiu, tanto por registrar conhecimento quanto por produzir novos conhecimentos, diz o site.

Imagem em destaque: um volvelle from a 14 º manuscrito inglês do século está em exibição no Museu J. Paul Getty. ( Foto de Getty.edu )

Por Mark Miller


História da Computação

Um computador pode ser descrito com simplicidade enganosa como "um aparelho que realiza cálculos de rotina automaticamente." Tal definição deve seu engano a uma visão ingênua e estreita do cálculo como um processo estritamente matemático. Na verdade, o cálculo é a base de muitas atividades que normalmente não são consideradas matemáticas. Atravessar uma sala, por exemplo, requer muitos cálculos complexos, embora subconscientes. Os computadores também se mostraram capazes de resolver uma vasta gama de problemas, desde equilibrar um talão de cheques até - na forma de sistemas de orientação para robôs - atravessar uma sala.

Antes que o verdadeiro poder da computação pudesse ser realizado, portanto, a visão ingênua do cálculo teve que ser superada. Os inventores que trabalharam para trazer o computador ao mundo tiveram de aprender que o que estavam inventando não era apenas um processador de números, não apenas uma calculadora. Por exemplo, eles tiveram que aprender que não era necessário inventar um novo computador para cada novo cálculo e que um computador poderia ser projetado para resolver vários problemas, até mesmo problemas ainda não imaginados quando o computador foi construído. Eles também tiveram que aprender como dizer a um computador de solução de problemas geral qual problema resolver. Em outras palavras, eles tiveram que inventar uma programação.

Eles tiveram que resolver todos os problemas inebriantes de desenvolver tal dispositivo, de implementar o design, de realmente construir a coisa. A história da solução desses problemas é a história do computador. Essa história é abordada nesta seção, e links são fornecidos para entradas de muitos dos indivíduos e empresas mencionados. Além disso, Vejo os artigos informática e supercomputador.


Conteúdo

De um modo geral, os métodos de medição temporal, ou cronometria, assumem duas formas distintas: o calendário, uma ferramenta matemática para organizar intervalos de tempo, [18] e o relógio, um mecanismo físico que conta a passagem do tempo. No dia-a-dia, o relógio é consultado para períodos inferiores a um dia, enquanto o calendário é consultado para períodos superiores a um dia. Cada vez mais, os dispositivos eletrônicos pessoais exibem calendários e relógios simultaneamente. O número (como em um mostrador de relógio ou calendário) que marca a ocorrência de um evento específico quanto à hora ou data é obtido contando a partir de uma época fiducial - um ponto de referência central.

História do calendário

Artefatos do Paleolítico sugerem que a lua era usada para contar o tempo há 6.000 anos. [19] Os calendários lunares estiveram entre os primeiros a aparecer, com anos de 12 ou 13 meses lunares (354 ou 384 dias). Sem intercalação para adicionar dias ou meses a alguns anos, as estações mudam rapidamente em um calendário baseado apenas em doze meses lunares. Os calendários lunisolares têm um décimo terceiro mês adicionado a alguns anos para compensar a diferença entre um ano inteiro (agora conhecido como 365,24 dias) e um ano de apenas doze meses lunares. Os números doze e treze passaram a figurar com destaque em muitas culturas, pelo menos em parte devido a essa relação de meses a anos. Outras formas iniciais de calendários se originaram na Mesoamérica, particularmente na antiga civilização maia. Esses calendários eram de base religiosa e astronômica, com 18 meses no ano e 20 dias no mês, mais cinco dias epagomenais no final do ano. [20]

As reformas de Júlio César em 45 aC colocaram o mundo romano em um calendário solar. Este calendário juliano estava com defeito, pois sua intercalação ainda permitia que os solstícios e equinócios astronômicos avançassem contra ele cerca de 11 minutos por ano. O Papa Gregório XIII introduziu uma correção em 1582: o calendário gregoriano foi lentamente adotado por diferentes nações ao longo de um período de séculos, mas agora é de longe o calendário mais comumente usado em todo o mundo.

Durante a Revolução Francesa, um novo relógio e calendário foram inventados na tentativa de descristianizar o tempo e criar um sistema mais racional para substituir o calendário gregoriano. Os dias do calendário republicano francês consistiam em dez horas de cem minutos de cem segundos, o que marcava um desvio do sistema de base 12 (duodecimal) usado em muitos outros dispositivos por muitas culturas. O sistema foi abolido em 1806. [21]

História de outros dispositivos

Uma grande variedade de dispositivos foi inventada para medir o tempo. O estudo desses dispositivos é denominado horologia. [22]

Um dispositivo egípcio que data de c. 1500 aC, semelhante em formato a um quadrado em T curvado, mede a passagem do tempo a partir da sombra projetada por sua barra transversal em uma régua não linear. OT foi orientado para o leste no período da manhã. Ao meio-dia, o dispositivo foi virado para que pudesse lançar sua sombra na direção da noite. [23]

Um relógio de sol usa um gnômon para projetar uma sombra em um conjunto de marcações calibradas para a hora. A posição da sombra marca a hora na hora local. A ideia de separar o dia em partes menores é creditada aos egípcios por causa de seus relógios de sol, que operavam em um sistema duodecimal. A importância do número 12 se deve ao número de ciclos lunares em um ano e ao número de estrelas usadas para contar a passagem da noite. [24]

O dispositivo de cronometragem mais preciso do mundo antigo era o relógio de água, ou clepsidra, um dos quais foi encontrado na tumba do faraó egípcio Amenhotep I. Eles podiam ser usados ​​para medir as horas até mesmo à noite, mas exigiam manutenção manual para reabastecer o fluxo de água. Os antigos gregos e o povo da Caldéia (sudeste da Mesopotâmia) mantinham regularmente registros de cronometragem como parte essencial de suas observações astronômicas. Os inventores e engenheiros árabes, em particular, fizeram melhorias no uso de relógios de água até a Idade Média. [25] No século 11, inventores e engenheiros chineses inventaram os primeiros relógios mecânicos acionados por um mecanismo de escape.

A ampulheta usa o fluxo de areia para medir o fluxo do tempo. Eles foram usados ​​na navegação. Ferdinand Magellan usou 18 copos em cada navio para sua circunavegação do globo (1522). [26]

Paus de incenso e velas eram, e são, comumente usados ​​para medir o tempo em templos e igrejas em todo o mundo. Os relógios de água e, mais tarde, os relógios mecânicos, foram usados ​​para marcar os eventos das abadias e mosteiros da Idade Média. Richard de Wallingford (1292–1336), abade da abadia de St. Alban, construiu um relógio mecânico como um orrery astronômico por volta de 1330. [27] [28]

Grandes avanços em cronometragem precisa foram feitos por Galileo Galilei e especialmente Christiaan Huygens com a invenção dos relógios movidos a pêndulo junto com a invenção do ponteiro dos minutos por Jost Burgi. [29]

O word clock em inglês provavelmente vem da palavra do holandês médio Klocke que, por sua vez, deriva da palavra latina medieval clocca, que em última análise deriva do céltico e é cognato com palavras francesas, latinas e alemãs que significam sino. A passagem das horas no mar era marcada por sinos e denotava a hora (ver sino do navio). As horas eram marcadas por sinos em abadias e também no mar.

Os relógios podem variar de relógios a variedades mais exóticas, como o Relógio do Longo Agora. Eles podem ser acionados por uma variedade de meios, incluindo gravidade, molas e várias formas de energia elétrica, e regulados por uma variedade de meios, como um pêndulo.

Os despertadores apareceram pela primeira vez na Grécia antiga por volta de 250 aC com um relógio de água que acionava um apito. Esta ideia foi posteriormente mecanizada por Levi Hutchins e Seth E. Thomas. [29]

Um cronômetro é um cronômetro portátil que atende a certos padrões de precisão. Inicialmente, o termo era usado para se referir ao cronômetro marinho, um relógio usado para determinar a longitude por meio da navegação celestial, precisão alcançada inicialmente por John Harrison. Mais recentemente, o termo também foi aplicado ao relógio com cronômetro, um relógio que atende aos padrões de precisão estabelecidos pela agência suíça COSC.

Os dispositivos de cronometragem mais precisos são os relógios atômicos, que têm precisão de segundos em muitos milhões de anos, [31] e são usados ​​para calibrar outros relógios e instrumentos de cronometragem.

Os relógios atômicos usam a frequência das transições eletrônicas em certos átomos para medir o segundo. Um dos átomos usados ​​é o césio, a maioria dos relógios atômicos modernos sonda o césio com microondas para determinar a frequência dessas vibrações eletrônicas. [32] Desde 1967, o Sistema Internacional de Medidas baseia sua unidade de tempo, a segunda, nas propriedades dos átomos de césio. O SI define o segundo como 9.192.631.770 ciclos da radiação que corresponde à transição entre dois níveis de energia de spin do elétron do estado fundamental do átomo de 133 Cs.

Hoje, o Sistema de Posicionamento Global em coordenação com o Network Time Protocol pode ser usado para sincronizar sistemas de cronometragem em todo o mundo.

Nos escritos filosóficos medievais, o átomo era uma unidade de tempo referida como a menor divisão possível de tempo. A ocorrência mais antiga conhecida em inglês está na obra de Byrhtferth Enchiridion (um texto científico) de 1010-1012, [33] onde foi definido como 1/564 de um impulso (1½ minutos), [34] e, portanto, igual a 15/94 de um segundo. Foi usado no computação, o processo de cálculo da data da Páscoa.

Em maio de 2010 [atualização], a menor incerteza de intervalo de tempo em medições diretas era da ordem de 12 attossegundos (1,2 × 10-17 segundos), cerca de 3,7 × 10 26 vezes de Planck. [35]

Unidades

O (s) segundo (s) é (m) a unidade de base SI. Um minuto (min) tem 60 segundos de duração e uma hora tem 60 minutos ou 3600 segundos de duração. Um dia geralmente tem 24 horas ou 86.400 segundos de duração; no entanto, a duração de um dia de calendário pode variar devido ao horário de verão e aos segundos bissextos.

O sistema de Tempo Solar Médio define o segundo como 1 / 86.400 do dia solar médio, que é a média anual do dia solar. O dia solar é o intervalo de tempo entre dois meio-dias solares sucessivos, ou seja, o intervalo de tempo entre duas passagens sucessivas do Sol através do meridiano local. O meridiano local é uma linha imaginária que vai do pólo norte celestial ao pólo sul celestial passando diretamente sobre a cabeça do observador. No meridiano local, o Sol atinge seu ponto mais alto em seu arco diário no céu.

Em 1874, a Associação Britânica para o Avanço da Ciência introduziu o CGS (centímetro / grama / segundo sistema) combinando unidades fundamentais de comprimento, massa e tempo. O segundo é "elástico", porque o atrito das marés está diminuindo a taxa de rotação da Terra. Para uso no cálculo de efemérides do movimento celeste, portanto, em 1952 os astrônomos introduziram a "efeméride segundo", atualmente definida como

a fração 1 / 31.556.925.9747 do ano tropical para 1900 janeiro 0 às 12 horas de tempo de efemérides. [36]

O sistema CGS foi substituído pelo Système International. A unidade de base do SI para o tempo é o segundo SI. O Sistema Internacional de Quantidades, que incorpora o SI, também define unidades de tempo maiores iguais a múltiplos inteiros fixos de um segundo (1 s), como minuto, hora e dia. Eles não fazem parte do SI, mas podem ser usados ​​junto com o SI. Outras unidades de tempo, como o mês e o ano, não são iguais a múltiplos fixos de 1 se, em vez disso, exibem variações significativas na duração. [37]

A definição oficial do SI do segundo é a seguinte: [37] [38]

A segunda é a duração de 9.192.631.770 períodos de radiação correspondentes à transição entre os dois níveis hiperfinos do estado fundamental do átomo de césio 133.

Em sua reunião de 1997, o CIPM afirmou que esta definição se refere a um átomo de césio em seu estado fundamental a uma temperatura de 0 K. [37]

A definição atual do segundo, juntamente com a definição atual do metro, é baseada na teoria da relatividade especial, que afirma que nosso espaço-tempo é um espaço de Minkowski. A definição do segundo em tempo solar médio, entretanto, permanece inalterada.

Embora em teoria o conceito de uma única escala de tempo universal mundial possa ter sido concebido há muitos séculos, na prática, a capacidade técnica de criar e manter tal escala de tempo não se tornou possível até meados do século XIX. A escala de tempo adotada foi o Horário de Greenwich, criado em 1847. Alguns países o substituíram pelo Tempo Universal Coordenado, UTC.

História do desenvolvimento

Com o advento da revolução industrial, um maior entendimento e acordo sobre a natureza do próprio tempo tornou-se cada vez mais necessário e útil. Em 1847, na Grã-Bretanha, o Greenwich Mean Time (GMT) foi criado para uso pelas ferrovias britânicas, a marinha britânica e a indústria naval britânica. Usando telescópios, o GMT foi calibrado para o tempo solar médio no Royal Observatory, Greenwich, no Reino Unido.

Como o comércio internacional continuou a aumentar em toda a Europa, a fim de alcançar uma sociedade moderna que funcionasse com mais eficiência, um acordo acordado e altamente preciso padrão internacional de medição de tempo tornou-se necessária. Para encontrar ou determinar esse padrão de tempo, três etapas tiveram que ser seguidas:

  1. Um padrão de tempo acordado internacionalmente teve que ser definido.
  2. Este novo padrão de tempo teve então que ser medido de forma consistente e precisa.
  3. O novo padrão de tempo então teve que ser livremente compartilhado e distribuído em todo o mundo.

O desenvolvimento do que hoje é conhecido como hora UTC começou como uma colaboração entre 41 nações, oficialmente acordada e assinada na Conferência Internacional de Meridianos, em Washington DC em 1884. Nesta conferência, a hora solar média local no Observatório Real de Greenwich em A Inglaterra foi escolhida para definir o "dia universal", contado a partir de 0 horas à meia-noite de Greenwich. Isso estava de acordo com o horário civil de Greenwich, usado na ilha da Grã-Bretanha desde 1847.Em contraste, o GMT astronômico começou ao meio-dia médio, ou seja, dia astronômico X começou ao meio-dia do dia civil X. O objetivo disso era manter as observações de uma noite em uma data. O sistema civil foi adotado a partir das 0 horas (civil) de 1º de janeiro de 1925. O GMT náutico começou 24 horas antes do GMT astronômico, pelo menos até 1805 na Marinha Real, mas persistiu muito mais tarde em outros lugares porque foi mencionado na conferência de 1884. Em 1884, o meridiano de Greenwich foi usado para dois terços de todas as cartas e mapas como seu meridiano principal. [39]

Entre as 41 nações representadas na conferência, as tecnologias do tempo avançadas que já haviam entrado em uso na Grã-Bretanha eram componentes fundamentais do método acordado para se chegar a um horário internacional universal e acordado. Em 1928, o Tempo Médio de Greenwich foi rebatizado para fins científicos pela União Astronômica Internacional como Tempo Universal (UT). Isso evitava confusão com o sistema anterior, no qual o dia começava ao meio-dia. Como o público em geral sempre começava o dia à meia-noite, a escala de tempo continuou a ser apresentada a eles como o horário de Greenwich. Em 1956, o horário universal foi dividido em várias versões: o UT2, que suavizou o movimento polar e os efeitos sazonais, foi apresentado ao público como o horário de Greenwich. Mais tarde, UT1 (que suaviza apenas para movimento polar) se tornou a forma padrão de UT usada pelos astrônomos e, portanto, a forma usada em tabelas de navegação, nascer do sol e pôr do sol e nascer e pôr da lua, onde o nome Greenwich Mean Time continua a ser empregado. O horário de Greenwich também é o método preferido para descrever a escala de tempo usada pelos legisladores. Até os dias de hoje, o UT ainda é baseado em um sistema telescópico internacional. As observações no próprio Observatório de Greenwich cessaram em 1954, embora a localização ainda seja usada como base para o sistema de coordenadas. Como o período de rotação da Terra não é perfeitamente constante, a duração de um segundo variaria se calibrado para um padrão baseado em telescópio como GMT, onde o segundo é definido como 1/86 400 do dia solar médio.

Até 1960, os métodos e definições de cronometragem que haviam sido apresentados na Conferência Internacional do Meridiano provaram ser adequados para atender às necessidades de controle de tempo da ciência. Ainda assim, com o advento da "revolução eletrônica" na segunda metade do século 20, as tecnologias que estavam disponíveis na época da Convenção do Metro mostraram-se carentes de aperfeiçoamento para atender às necessidades de a precisão cada vez maior que a "revolução eletrônica" começava a exigir.

Efemérides segundo

Foi definido um segundo invariável (o "segundo da efeméride"), cujo uso removeu os erros nas efemérides resultantes do uso da variável média do segundo solar como argumento do tempo. Em 1960, essa segunda efeméride tornou-se a base do "tempo universal coordenado" que estava sendo derivado dos relógios atômicos. É uma fração especificada do ano tropical médio em 1900 e, com base em observações históricas do telescópio, corresponde aproximadamente ao segundo solar médio do início do século XIX. [40]

Segundo SI

Em 1967, mais um passo foi dado com a introdução do segundo SI, essencialmente a efeméride segundo medida por relógios atômicos e formalmente definida em termos atômicos. [41] O segundo SI (segundo Standard Internationale) é baseado diretamente na medição da observação do relógio atômico da oscilação de frequência dos átomos de césio. É a base de todas as escalas de tempo atômicas, por ex. tempo universal coordenado, tempo GPS, Tempo Atômico Internacional, etc. Os relógios atômicos não medem as taxas de decaimento nuclear (um equívoco comum), mas medem uma certa frequência vibracional natural do césio-133. [42] O tempo universal coordenado está sujeito a uma restrição que não afeta as outras escalas de tempo atômicas. Como foi adotado como escala de tempo civil por alguns países (a maioria dos países optou por reter o tempo solar médio), não é permitido desviar do GMT por mais de 0,9 segundo. Isso é conseguido pela inserção ocasional de um segundo bissexto.

Aplicativo atual

A maioria dos países usa o tempo solar médio. Austrália, Canadá (somente Quebec), Colômbia, França, Alemanha, Nova Zelândia, Papua Nova Guiné (somente Bougainville), Paraguai, Portugal, Suíça, Estados Unidos e Venezuela usam UTC. No entanto, o UTC é amplamente utilizado pela comunidade científica em países onde o tempo solar médio é oficial. O horário UTC é baseado no segundo SI, que foi definido pela primeira vez em 1967, e é baseado no uso de relógios atômicos. Alguns outros padrões de tempo menos usados, mas intimamente relacionados, incluem o Tempo Atômico Internacional (TAI), o Tempo Terrestre e o Tempo Dinâmico Baricêntrico.

Entre 1967 e 1971, o UTC foi periodicamente ajustado por frações de segundo para ajustar e refinar as variações do tempo solar médio com o qual está alinhado. Após 1 de janeiro de 1972, a hora UTC foi definida como sendo compensada da hora atômica por um número inteiro de segundos, mudando apenas quando um segundo bissexto é adicionado para manter relógios controlados por rádio sincronizados com a rotação da Terra.

O Sistema de Posicionamento Global também transmite um sinal de tempo muito preciso em todo o mundo, junto com instruções para converter a hora do GPS em UTC. A hora do GPS é baseada e regularmente sincronizada com ou a partir da hora UTC.

A superfície da Terra está dividida em vários fusos horários. A maioria dos fusos horários tem exatamente uma hora de intervalo e, por convenção, calcula a hora local como uma diferença em relação ao GMT. Por exemplo, os fusos horários no mar são baseados no GMT. Em muitos locais (mas não no mar), esses deslocamentos variam duas vezes por ano devido às transições do horário de verão.

Conversões

Essas conversões são precisas no nível de milissegundos para sistemas de tempo baseados na rotação da Terra (UT1 e TT). As conversões entre os sistemas de tempo atômico (TAI, GPS e UTC) são precisas no nível do microssegundo.

Sistema Descrição UT1 UTC TT TAI GPS
UT1 Tempo Solar Médio UT1 UTC = UT1 - DUT1 TT = UT1 + 32,184 s + LS - DUT1 TAI = UT1 - DUT1 + LS GPS = UT1 - DUT1 + LS - 19 s
UTC Hora civil UT1 = UTC + DUT1 UTC TT = UTC + 32,184 s + LS TAI = UTC + LS GPS = UTC + LS - 19 s
TT Hora Terrestre (Efemérides) UT1 = TT - 32,184 s - LS + DUT1 UTC = TT - 32,184 s - LS TT TAI = TT - 32,184 s GPS = TT - 51,184 s
TAI Tempo Atômico UT1 = TAI + DUT1 - LS UTC = TAI - LS TT = TAI + 32,184 s TAI GPS = TAI - 19 s
GPS Tempo GPS UT1 = GPS + DUT1 - LS + 19 s UTC = GPS - LS + 19 s TT = GPS + 51,184 s TAI = GPS + 19 s GPS

Siderealidade

Ao contrário do tempo solar, que é relativo à posição aparente do Sol, o tempo sideral é a medida do tempo em relação ao de uma estrela distante. Na astronomia, o tempo sideral é usado para prever quando uma estrela atingirá seu ponto mais alto no céu. Devido ao movimento orbital da Terra em torno do Sol, um dia solar médio é cerca de 3 minutos e 56 segundos a mais do que um dia sideral médio, ou 1 ⁄ 366 a mais do que um dia sideral médio.

Cronologia

Outra forma de medição do tempo consiste em estudar o passado. Os eventos no passado podem ser ordenados em uma sequência (criando uma cronologia) e podem ser colocados em grupos cronológicos (periodização). Um dos mais importantes sistemas de periodização é a escala de tempo geológica, que é um sistema de periodização dos eventos que moldaram a Terra e sua vida. Cronologia, periodização e interpretação do passado são conhecidas como o estudo da história.

Terminologia

O termo "tempo" é geralmente usado para muitos conceitos próximos, mas diferentes, incluindo:

    [43] como um objeto - um ponto nos eixos do tempo. Sendo um objeto, não tem valor
      [44] como uma quantidade que caracteriza um instante. Como uma quantidade, tem um valor que pode ser expresso de várias maneiras, por exemplo "2014-04-26T09: 42: 36,75" no formato padrão ISO ou, mais coloquialmente, como "hoje, 09:42 "
    • duração [46] como uma quantidade que caracteriza um intervalo de tempo. [47] Como uma quantidade, ela tem um valor, como um número de minutos, ou pode ser descrita em termos de quantidades (como horas e datas) de seu início e fim.

    Religião

    Linear e cíclico

    Culturas antigas como inca, maia, hopi e outras tribos nativas americanas - além dos babilônios, gregos antigos, hinduísmo, budismo, jainismo e outros - têm um conceito de roda do tempo: consideram o tempo cíclico e quântico, [ esclarecimento necessário ] consistindo em idades repetidas que acontecem a todos os seres do Universo entre o nascimento e a extinção. [48]

    Em geral, a visão de mundo islâmica e judaico-cristã considera o tempo como linear [49] e direcional, [50] começando com o ato da criação por Deus. A visão cristã tradicional vê o tempo terminando, teleologicamente, [51] com o fim escatológico da presente ordem das coisas, o "tempo do fim".

    No livro Eclesiastes do Velho Testamento, tradicionalmente atribuído a Salomão (970–928 ​​aC), tempo (como a palavra hebraica עידן, זמן iddan (idade, como em "Idade do Gelo") zĕman (tempo) é frequentemente traduzido) era tradicionalmente considerado [ por quem? ] como um meio para a passagem de eventos predestinados. [ citação necessária ] (Outra palavra, زمان "זמן" zamān, significou tempo adequado para um evento, e é usado como o equivalente moderno em árabe, persa e hebraico da palavra "tempo" em inglês.)

    Tempo na mitologia grega

    A língua grega denota dois princípios distintos, Chronos e Kairos. O primeiro se refere ao tempo numérico ou cronológico. Este último, literalmente "o momento certo ou oportuno", relaciona-se especificamente ao tempo metafísico ou divino. Em teologia, Kairos é qualitativo, ao contrário de quantitativo. [52]

    Na mitologia grega, Chronos (grego antigo: Χρόνος) é identificado como a Personificação do Tempo. Seu nome em grego significa "tempo" e é alternativamente soletrado Chronus (grafia latina) ou Khronos. Chronos é geralmente retratado como um homem velho e sábio com uma longa barba grisalha, como "Pai do Tempo". Algumas palavras em inglês cuja raiz etimológica é khronos / chronos incluem cronologia, cronômetro, crônica, anacronismo, sincronizar, e crônica.

    Tempo na Cabala

    De acordo com os Cabalistas, "tempo" é um paradoxo [53] e uma ilusão. [54] Tanto o futuro como o passado são reconhecidos como combinados e simultaneamente presentes. [ esclarecimento necessário ]

    Na filosofia ocidental

    Dois pontos de vista contrastantes sobre o tempo dividem filósofos proeminentes. Uma visão é que o tempo é parte da estrutura fundamental do universo - uma dimensão independente de eventos, na qual os eventos ocorrem em sequência. Isaac Newton subscreveu essa visão realista e, por isso, às vezes é chamado de tempo newtoniano. [55] [56] A visão oposta é que Tempo não se refere a qualquer tipo de "contêiner" pelo qual eventos e objetos "se movem", nem a qualquer entidade que "flui", mas que é, em vez disso, parte de uma estrutura intelectual fundamental (junto com o espaço e o número) dentro da qual os humanos se sequem e comparar eventos. Esta segunda visão, na tradição de Gottfried Leibniz [13] e Immanuel Kant, [57] [58] sustenta que Tempo não é um evento nem uma coisa e, portanto, não é mensurável nem pode ser percorrido.

    Além disso, pode ser que haja um componente subjetivo no tempo, mas se o próprio tempo é ou não "sentido", como uma sensação, ou um julgamento, é uma questão de debate. [2] [6] [7] [59] [60]

    Na Filosofia, o tempo foi questionado ao longo dos séculos o que é e se é real ou não. Os filósofos da Grécia Antiga perguntaram se o tempo era linear ou cíclico e se o tempo era infinito ou finito. [61] Esses filósofos tinham maneiras diferentes de explicar o tempo, por exemplo, os antigos filósofos indianos tinham algo chamado a Roda do Tempo. Acredita-se que houve idades repetidas ao longo da vida do universo. [62] Isso levou a crenças como ciclos de renascimento e reencarnação. [62] Os filósofos gregos acreditam que o universo era infinito e era uma ilusão para os humanos. [62] Platão acreditava que o tempo foi feito pelo Criador no mesmo instante que os céus. [62] Ele também diz que o tempo é um período de movimento dos corpos celestes. [62] Aristóteles acreditava que o tempo estava correlacionado ao movimento, que o tempo não existia por si mesmo, mas era relativo ao movimento dos objetos. [62] ele também acreditava que o tempo estava relacionado ao movimento dos corpos celestes; a razão pela qual os humanos podem dizer que o tempo era devido aos períodos orbitais e, portanto, havia uma duração no tempo. [63]

    o Vedas, os primeiros textos sobre filosofia indiana e filosofia hindu datando do final do segundo milênio aC, descrevem a cosmologia hindu antiga, na qual o universo passa por ciclos repetidos de criação, destruição e renascimento, com cada ciclo durando 4.320 milhões de anos. [64] Filósofos da Grécia Antiga, incluindo Parmênides e Heráclito, escreveram ensaios sobre a natureza do tempo. [65] Platão, no Timeu, identificava o tempo com o período de movimento dos corpos celestes. Aristóteles, no Livro IV de sua Physica tempo definido como 'número de movimento em relação ao antes e depois'. [66]

    No livro 11 de sua Confissões, Santo Agostinho de Hipona ruminou sobre a natureza do tempo, perguntando: "O que então é o tempo? Se ninguém me pergunta, eu sei: se desejo explicá-lo a quem pergunta, não sei." Ele começa a definir o tempo pelo que ele não é, e não pelo que é, [67] uma abordagem semelhante à adotada em outras definições negativas. No entanto, Agostinho acaba chamando o tempo de "distensão" da mente (Confissões 11.26), pela qual simultaneamente apreendemos o passado na memória, o presente pela atenção e o futuro pela expectativa.

    Isaac Newton acreditava no espaço e no tempo absolutos Leibniz acreditava que o tempo e o espaço são relacionais. [68] As diferenças entre as interpretações de Leibniz e Newton chegaram ao auge na famosa correspondência Leibniz-Clarke.

    Os filósofos dos séculos 17 e 18 questionaram se o tempo era real e absoluto, ou se era um conceito intelectual que os humanos usam para entender e sequenciar eventos. [61] Essas questões levam ao realismo vs anti-realismo - os realistas acreditavam que o tempo é uma parte fundamental do universo, e ser percebido por eventos que acontecem em uma sequência, em uma dimensão. [69] Isaac Newton disse que estamos meramente ocupando o tempo, ele também diz que os humanos só podem entender o tempo relativo. [69] O tempo relativo é uma medida de objetos em movimento. [69] Os anti-realistas acreditavam que o tempo é meramente um conceito intelectual conveniente para os humanos entenderem os eventos. [69] Isso significa que o tempo era inútil a menos que houvesse objetos com os quais ele pudesse interagir, isso foi chamado de tempo relacional. [69] René Descartes, John Locke e David Hume disseram que a mente precisa reconhecer o tempo, a fim de compreender o que é o tempo. [63] Immanuel Kant acreditava que não podemos saber o que algo é a menos que o experimentemos em primeira mão. [70]

    Immanuel Kant, no Crítica da Razão Pura, descreveu o tempo como um a priori intuição que nos permite (junto com o outro a priori intuição, espaço) para compreender a experiência dos sentidos. [71] Com Kant, nem espaço nem tempo são concebidos como substâncias, mas sim ambos são elementos de uma estrutura mental sistemática que necessariamente estrutura as experiências de qualquer agente racional, ou sujeito observador. Kant pensava no tempo como uma parte fundamental de uma estrutura conceitual abstrata, junto com o espaço e o número, dentro do qual sequenciamos eventos, quantificamos sua duração e comparamos os movimentos dos objetos. Nesta visão, Tempo não se refere a nenhum tipo de entidade que "flui", que os objetos "se movem" ou que é um "contêiner" para eventos. As medidas espaciais são usadas para quantificar a extensão e as distâncias entre os objetos, e as medidas temporais são usadas para quantificar as durações de e entre os eventos. O tempo foi designado por Kant como o esquema mais puro possível de um conceito ou categoria pura.

    Henri Bergson acreditava que o tempo não era nem um meio homogêneo real nem uma construção mental, mas possui o que ele chamou de Duração. A duração, na visão de Bergson, era a criatividade e a memória como um componente essencial da realidade. [72]

    Segundo Martin Heidegger não existimos dentro do tempo, nós estão Tempo. Portanto, a relação com o passado é uma consciência presente de tendo sido, que permite que o passado exista no presente. A relação com o futuro é o estado de antecipar uma possibilidade, tarefa ou compromisso potencial. Relaciona-se à propensão humana para o cuidar e se preocupar, o que faz com que "esteja à frente de si" ao pensar em um acontecimento pendente. Portanto, essa preocupação com uma ocorrência potencial também permite que o futuro exista no presente. O presente se torna uma experiência, que é qualitativa em vez de quantitativa. Heidegger parece pensar que é assim que uma relação linear com o tempo, ou existência temporal, é rompida ou transcendida. [73] Não estamos presos no tempo sequencial. Somos capazes de lembrar o passado e projetar no futuro - temos uma espécie de acesso aleatório à nossa representação da existência temporal, podemos, em nossos pensamentos, sair do (êxtase) tempo sequencial. [74]

    Os filósofos da era moderna perguntaram: é o tempo real ou irreal, está acontecendo tudo de uma vez ou uma duração, Se o tempo ficou tenso ou atemporal, e há um futuro para existir? [61] Há uma teoria chamada de tempo atemporal ou teoria B, esta teoria diz que qualquer terminologia temporal pode ser substituída por terminologia atemporal. [75] Por exemplo, "nós venceremos o jogo" pode ser substituído por "nós vencemos o jogo", retirando o tempo futuro. Por outro lado, existe uma teoria chamada de tempo verbal ou teoria A - esta teoria diz que nossa língua tem verbos de tempo verbal por uma razão e que o futuro não pode ser determinado. [75] Há também algo chamado tempo imaginário, isso foi de Stephen Hawking, ele diz que o espaço e o tempo imaginário são finitos, mas não têm fronteiras. [75] O tempo imaginário não é real ou irreal, é algo difícil de visualizar. [75] Os filósofos podem concordar que o tempo físico existe fora da mente humana e é objetivo, e o tempo psicológico é dependente da mente e subjetivo. [63]

    Irrealidade

    Na Grécia do século 5 aC, Antifonte, o Sofista, em um fragmento preservado de sua obra principal Na verdade, sustentava que: “O tempo não é uma realidade (hipóstase), mas um conceito (noêma) ou uma medida (metron)”. Parmênides foi além, sustentando que o tempo, o movimento e a mudança eram ilusões, levando aos paradoxos de seu seguidor Zenão. [76] O tempo como uma ilusão também é um tema comum no pensamento budista. [77] [78]

    J. M. E. McTaggart's 1908 A irrealidade do tempo argumenta que, uma vez que todo evento tem a característica de ser presente e não presente (ou seja, futuro ou passado), esse tempo é uma ideia contraditória (ver também O fluxo do tempo).

    Esses argumentos geralmente se concentram no que significa algo ser irreal. Os físicos modernos geralmente acreditam que o tempo é tão real como espaço - embora outros, como Julian Barbour em seu livro O fim dos tempos, argumentam que as equações quânticas do universo assumem sua forma verdadeira quando expressas no reino atemporal contendo todos os agora ou configuração momentânea do universo, chamada de "platonia" por Barbour. [79]

    Uma teoria filosófica moderna chamada presentismo vê o passado e o futuro como interpretações do movimento da mente humana, em vez de partes reais do tempo (ou "dimensões") que coexistem com o presente. Essa teoria rejeita a existência de toda interação direta com o passado ou o futuro, mantendo apenas o presente como tangível. Este é um dos argumentos filosóficos contra a viagem no tempo. Isso contrasta com o eternalismo (todo o tempo: presente, passado e futuro, é real) e a teoria do bloco crescente (o presente e o passado são reais, mas o futuro não).

    Até a reinterpretação de Einstein dos conceitos físicos associados ao tempo e espaço em 1907, o tempo era considerado o mesmo em qualquer lugar do universo, com todos os observadores medindo o mesmo intervalo de tempo para qualquer evento. [80] A mecânica clássica não relativística é baseada nesta ideia newtoniana de tempo.

    Einstein, em sua teoria da relatividade especial, [81] postulou a constância e a finitude da velocidade da luz para todos os observadores. Ele mostrou que este postulado, junto com uma definição razoável para o que significa dois eventos serem simultâneos, requer que as distâncias pareçam comprimidas e os intervalos de tempo pareçam alongados para eventos associados a objetos em movimento em relação a um observador inercial.

    A teoria da relatividade especial encontra uma formulação conveniente no espaço-tempo de Minkowski, uma estrutura matemática que combina três dimensões de espaço com uma única dimensão de tempo. Neste formalismo, as distâncias no espaço podem ser medidas por quanto tempo a luz leva para percorrer essa distância, por exemplo, um ano-luz é uma medida de distância, e um metro é agora definido em termos de quão longe a luz viaja em uma certa quantidade de Tempo. Dois eventos no espaço-tempo de Minkowski são separados por um intervalo invariante, que pode ser semelhante ao espaço, à luz ou ao tempo. Os eventos que têm uma separação temporal não podem ser simultâneos em nenhum referencial; deve haver um componente temporal (e possivelmente espacial) para sua separação. Os eventos que têm uma separação espacial serão simultâneos em algum sistema de referência, e não há nenhum sistema de referência no qual eles não tenham uma separação espacial. Diferentes observadores podem calcular diferentes distâncias e diferentes intervalos de tempo entre dois eventos, mas o intervalo invariante entre os eventos é independente do observador (e de sua velocidade).

    Mecânica clássica

    Na mecânica clássica não relativística, o conceito de Newton de "tempo relativo, aparente e comum" pode ser usado na formulação de uma prescrição para a sincronização de relógios. Os eventos vistos por dois observadores diferentes em movimento em relação um ao outro produzem um conceito matemático de tempo que funciona suficientemente bem para descrever os fenômenos cotidianos da experiência da maioria das pessoas. No final do século XIX, os físicos encontraram problemas com a compreensão clássica do tempo, em conexão com o comportamento da eletricidade e do magnetismo. Einstein resolveu esses problemas invocando um método de sincronização de relógios usando a velocidade constante e finita da luz como a velocidade máxima do sinal. Isso levou diretamente à conclusão de que os observadores em movimento em relação uns aos outros medem diferentes tempos decorridos para o mesmo evento.

    Espaço-tempo

    O tempo tem sido historicamente intimamente relacionado ao espaço, os dois juntos fundindo-se no espaço-tempo na relatividade especial e na relatividade geral de Einstein. Segundo essas teorias, o conceito de tempo depende do referencial espacial do observador, e a percepção humana, assim como a medição por instrumentos como relógios, são diferentes para observadores em movimento relativo. Por exemplo, se uma espaçonave carregando um relógio voa pelo espaço (quase) à velocidade da luz, sua tripulação não percebe uma mudança na velocidade do tempo a bordo de sua nave porque tudo que viaja na mesma velocidade diminui ao mesmo taxa (incluindo o relógio, os processos de pensamento da tripulação e as funções de seus corpos). No entanto, para um observador estacionário observando a espaçonave passar voando, a espaçonave parece achatada na direção em que está viajando e o relógio a bordo da espaçonave parece se mover muito lentamente.

    Por outro lado, a tripulação a bordo da espaçonave também percebe o observador como desacelerado e achatado ao longo da direção de viagem da espaçonave, porque ambos estão se movendo quase na velocidade da luz um em relação ao outro. Como o universo externo parece achatado para a espaçonave, a tripulação percebe que está viajando rapidamente entre regiões do espaço que (para o observador estacionário) estão separados por muitos anos-luz. Isso é reconciliado pelo fato de que a percepção de tempo da tripulação é diferente da do observador estacionário, o que parece segundos para a tripulação e pode ser centenas de anos para o observador estacionário. Em ambos os casos, entretanto, a causalidade permanece inalterada: o passado é o conjunto de eventos que podem enviar sinais de luz para uma entidade e o futuro é o conjunto de eventos para os quais uma entidade pode enviar sinais de luz. [82] [83]

    Dilatação

    Einstein mostrou em seus experimentos mentais que as pessoas viajando em velocidades diferentes, enquanto concordam em causa e efeito, medem diferentes separações de tempo entre eventos e podem até observar diferentes ordenações cronológicas entre eventos não causalmente relacionados. Embora esses efeitos sejam tipicamente minúsculos na experiência humana, o efeito se torna muito mais pronunciado para objetos que se movem a velocidades próximas à velocidade da luz. Partículas subatômicas existem por uma fração média de segundo bem conhecida em um laboratório relativamente em repouso, mas quando viajam perto da velocidade da luz, elas viajam mais longe e existem por muito mais tempo do que quando em repouso. De acordo com a teoria da relatividade especial, no referencial da partícula de alta velocidade, ela existe, em média, por um período de tempo padrão conhecido como tempo de vida médio, e a distância que ela percorre nesse tempo é zero, porque sua a velocidade é zero. Em relação a um referencial em repouso, o tempo parece "desacelerar" para a partícula. Em relação à partícula de alta velocidade, as distâncias parecem diminuir. Einstein mostrou como as dimensões temporais e espaciais podem ser alteradas (ou "deformadas") pelo movimento de alta velocidade.

    Einstein (O Significado da Relatividade): "Dois eventos que ocorrem nos pontos A e B de um sistema K são simultâneos se aparecem no mesmo instante quando observados a partir do ponto médio, M, do intervalo AB. O tempo é então definido como o conjunto das indicações de relógios semelhantes, em repouso em relação a K, que registram o mesmo simultaneamente. "

    Einstein escreveu em seu livro, Relatividade, essa simultaneidade também é relativa, isto é, dois eventos que aparecem simultâneos para um observador em um determinado referencial inercial não precisam ser julgados como simultâneos por um segundo observador em um diferente referencial inercial.

    Relativístico versus Newtoniano

    As animações visualizam os diferentes tratamentos do tempo nas descrições newtoniana e relativística. No centro dessas diferenças estão as transformações de Galileu e Lorentz aplicáveis ​​nas teorias newtoniana e relativística, respectivamente.

    Nas figuras, a direção vertical indica o tempo. A direção horizontal indica a distância (apenas uma dimensão espacial é levada em consideração), e a curva tracejada espessa é a trajetória do espaço-tempo ("linha de mundo") do observador. Os pequenos pontos indicam eventos específicos (passados ​​e futuros) no espaço-tempo.

    A inclinação da linha mundial (desvio de ser vertical) dá a velocidade relativa ao observador. Observe como em ambas as imagens a visão do espaço-tempo muda quando o observador acelera.

    Na descrição newtoniana, essas mudanças são tais que Tempo é absoluto: [84] os movimentos do observador não influenciam se um evento ocorre no 'agora' (ou seja, se um evento passa a linha horizontal através do observador).

    No entanto, na descrição relativística, o observabilidade de eventos é absoluto: os movimentos do observador não influenciam se um evento passa pelo "cone de luz" do observador. Observe que com a mudança de uma descrição newtoniana para uma relativística, o conceito de tempo absoluto não é mais aplicável: os eventos se movem para cima e para baixo na figura dependendo da aceleração do observador.

    Seta

    O tempo parece ter uma direção - o passado está para trás, fixo e imutável, enquanto o futuro está à frente e não é necessariamente fixo. Ainda assim, na maior parte, as leis da física não especificam uma flecha de tempo e permitem que qualquer processo prossiga tanto para frente quanto para trás. Isso geralmente é uma consequência do tempo ser modelado por um parâmetro no sistema que está sendo analisado, onde não há "tempo adequado": a direção da flecha do tempo às vezes é arbitrária. Exemplos disso incluem a seta cosmológica do tempo, que aponta para longe do Big Bang, a simetria CPT e a seta radiativa do tempo, causada pela luz apenas viajando para a frente no tempo (veja o cone de luz). Na física de partículas, a violação da simetria do CP implica que deve haver uma pequena assimetria de tempo de contrapeso para preservar a simetria do CPT conforme declarado acima. A descrição padrão de medição em mecânica quântica também é assimétrica no tempo (consulte Medição em mecânica quântica). A segunda lei da termodinâmica afirma que a entropia deve aumentar com o tempo (veja Entropia). Isso pode ser em qualquer direção - Brian Greene teoriza que, de acordo com as equações, a mudança na entropia ocorre simetricamente, indo para frente ou para trás no tempo. Assim, a entropia tende a aumentar em qualquer direção, e nosso atual universo de baixa entropia é uma aberração estatística, de maneira semelhante a jogar uma moeda com frequência suficiente para que eventualmente resultem dez vezes consecutivas cara. No entanto, esta teoria não é suportada empiricamente em experimentos locais. [85]

    Quantização

    A quantização do tempo é um conceito hipotético. Nas modernas teorias físicas estabelecidas (o Modelo Padrão de Partículas e Interações e Relatividade Geral) o tempo não é quantizado.

    5,4 × 10 −44 segundos) é a unidade de tempo no sistema de unidades naturais conhecidas como unidades de Planck. Acredita-se que as teorias físicas estabelecidas atuais falham nessa escala de tempo, e muitos físicos esperam que o tempo de Planck possa ser a menor unidade de tempo que poderia ser medida, mesmo em princípio. Existem teorias físicas provisórias que descrevem esta escala de tempo, como por exemplo a gravidade quântica em loop.

    Viagem no tempo é o conceito de retroceder ou avançar para diferentes pontos no tempo, de maneira análoga a se mover através do espaço e diferente do "fluxo" normal do tempo para um observador terrestre. Nesta visão, todos os pontos no tempo (incluindo tempos futuros) "persistem" de alguma forma. A viagem no tempo tem sido um recurso de enredo na ficção desde o século XIX. Viajar para trás no tempo nunca foi verificado, apresenta muitos problemas teóricos e pode ser uma impossibilidade. [ citação necessária ] Qualquer dispositivo tecnológico, seja fictício ou hipotético, que é usado para realizar a viagem no tempo é conhecido como uma máquina do tempo.

    Um problema central com a viagem no tempo ao passado é a violação da causalidade se um efeito preceder sua causa, isso daria origem à possibilidade de um paradoxo temporal. Algumas interpretações de viagem no tempo resolvem isso aceitando a possibilidade de viagem entre pontos de ramificação, realidades paralelas ou universos.

    Outra solução para o problema dos paradoxos temporais baseados na causalidade é que tais paradoxos não podem surgir simplesmente porque não surgiram. Conforme ilustrado em inúmeras obras de ficção, o livre arbítrio ou deixa de existir no passado ou os resultados de tais decisões são predeterminados. Como tal, não seria possível representar o paradoxo do avô porque é um fato histórico que o avô de alguém não foi morto antes de seu filho (o pai de alguém) ser concebido. Essa visão não sustenta simplesmente que a história é uma constante imutável, mas que qualquer mudança feita por um hipotético viajante do tempo futuro já teria acontecido em seu passado, resultando na realidade da qual o viajante se move. Mais elaboração sobre essa visão pode ser encontrada no princípio de autoconsistência de Novikov.

    O presente especioso refere-se à duração do tempo em que as percepções de uma pessoa são consideradas como estando no presente. O presente experimentado é considerado "especioso" porque, ao contrário do presente objetivo, é um intervalo e não um instante sem duração. O termo presente ilusório foi apresentado pela primeira vez pelo psicólogo E.R. Clay e posteriormente desenvolvido por William James. [86]

    Biopsicologia

    O julgamento do tempo pelo cérebro é conhecido por ser um sistema altamente distribuído, incluindo pelo menos o córtex cerebral, cerebelo e gânglios da base como seus componentes. Um componente particular, os núcleos supraquiasmáticos, é responsável pelo ritmo circadiano (ou diário), enquanto outros agrupamentos de células parecem capazes de cronometragem de curto alcance (ultradiano).

    As drogas psicoativas podem prejudicar o julgamento do tempo. Os estimulantes podem levar humanos e ratos a superestimar os intervalos de tempo, [87] [88] enquanto os depressores podem ter o efeito oposto. [89] O nível de atividade cerebral de neurotransmissores como a dopamina e a norepinefrina pode ser a razão para isso. [90] Esses produtos químicos podem excitar ou inibir o disparo de neurônios no cérebro, com uma taxa de disparo maior permitindo que o cérebro registre a ocorrência de mais eventos dentro de um determinado intervalo (tempo de aceleração) e uma taxa de disparo diminuída reduzindo o cérebro capacidade de distinguir eventos que ocorrem dentro de um determinado intervalo (tempo de desaceleração). [91]

    A cronometria mental é o uso do tempo de resposta em tarefas perceptivo-motoras para inferir o conteúdo, a duração e o sequenciamento temporal das operações cognitivas.

    Educação infantil

    As habilidades cognitivas em expansão das crianças permitem que elas entendam o tempo com mais clareza. A compreensão do tempo pelas crianças de dois e três anos limita-se principalmente ao "agora e não agora". Crianças de cinco e seis anos podem compreender as idéias do passado, do presente e do futuro. Crianças de sete a dez anos podem usar relógios e calendários. [92]

    Alterações

    Além das drogas psicoativas, os julgamentos de tempo podem ser alterados por ilusões temporais (como o efeito kappa), [93] idade [94] e hipnose. [95] O sentido do tempo é prejudicado em algumas pessoas com doenças neurológicas como a doença de Parkinson e transtorno de déficit de atenção.

    Os psicólogos afirmam que o tempo parece passar mais rápido com a idade, mas a literatura sobre essa percepção do tempo relacionada à idade permanece controversa. [96] Aqueles que apóiam essa noção argumentam que os jovens, tendo mais neurotransmissores excitatórios, são capazes de lidar com eventos externos mais rápidos. [91]

    Em sociologia e antropologia, disciplina de tempo é o nome geral dado às regras sociais e econômicas, convenções, costumes e expectativas que governam a medição do tempo, a moeda social e a consciência das medidas de tempo, e as expectativas das pessoas quanto à observância desses costumes por outros . Arlie Russell Hochschild [97] [98] e Norbert Elias [99] escreveram sobre o uso do tempo de uma perspectiva sociológica.

    O uso do tempo é uma questão importante para a compreensão do comportamento humano, da educação e do comportamento em viagens. A pesquisa sobre o uso do tempo é um campo de estudo em desenvolvimento. A questão diz respeito a como o tempo é alocado em uma série de atividades (como o tempo gasto em casa, no trabalho, nas compras, etc.). O uso do tempo muda com a tecnologia, à medida que a televisão ou a Internet criaram novas oportunidades de usar o tempo de maneiras diferentes. No entanto, alguns aspectos do uso do tempo são relativamente estáveis ​​ao longo de longos períodos de tempo, como a quantidade de tempo gasto viajando para o trabalho, que apesar das grandes mudanças no transporte, foi observado ser cerca de 20-30 minutos de ida para um grande número de cidades durante um longo período.

    O gerenciamento do tempo é a organização de tarefas ou eventos estimando primeiro quanto tempo uma tarefa requer e quando deve ser concluída, e ajustando os eventos que interfeririam em sua conclusão para que fosse realizada no tempo apropriado. Calendários e planejadores do dia são exemplos comuns de ferramentas de gerenciamento de tempo.

    Uma sequência de eventos, ou série de eventos, é uma sequência de itens, fatos, eventos, ações, mudanças ou etapas de procedimentos, organizados em ordem de tempo (ordem cronológica), geralmente com relações de causalidade entre os itens. [100] [101] [102] Devido à causalidade, a causa precede o efeito, ou a causa e o efeito podem aparecer juntos em um único item, mas o efeito nunca precede a causa. Uma sequência de eventos pode ser apresentada em texto, tabelas, gráficos ou cronogramas. A descrição dos itens ou eventos pode incluir um carimbo de data / hora. Uma sequência de eventos que inclui o tempo junto com informações de local ou localização para descrever um caminho sequencial pode ser referida como uma linha mundial.

    Os usos de uma sequência de eventos incluem histórias, [103] eventos históricos (cronologia), direções e etapas em procedimentos, [104] e cronogramas para atividades de agendamento. Uma sequência de eventos também pode ser usada para ajudar a descrever processos em ciência, tecnologia e medicina. Uma sequência de eventos pode ser focada em eventos passados ​​(por exemplo, histórias, história, cronologia), em eventos futuros que devem estar em uma ordem predeterminada (por exemplo, planos, cronogramas, procedimentos, cronogramas) ou focada na observação de eventos passados com a expectativa de que os eventos ocorrerão no futuro (por exemplo, processos, projeções). A utilização de uma sequência de eventos ocorre em campos tão diversos como máquinas (cam timer), documentários (Segundos do desastre), direito (escolha da lei), finanças (tempo intrínseco de mudança direcional), simulação de computador (simulação de evento discreto) e transmissão de energia elétrica [105] (registrador de sequência de eventos). Um exemplo específico de uma sequência de eventos é a linha do tempo do desastre nuclear de Fukushima Daiichi.

    Embora o tempo seja considerado um conceito abstrato, há evidências crescentes de que o tempo é conceituado na mente em termos de espaço. [106] Ou seja, em vez de pensar sobre o tempo de uma forma geral e abstrata, os humanos pensam sobre o tempo de uma forma espacial e o organizam mentalmente como tal. Usar o espaço para pensar sobre o tempo permite que os humanos organizem mentalmente eventos temporais de uma maneira específica.

    Esta representação espacial do tempo é freqüentemente representada na mente como uma Linha do Tempo Mental (MTL).[107] Usar o espaço para pensar sobre o tempo permite que os humanos organizem mentalmente a ordem temporal. Essas origens são moldadas por muitos fatores ambientais [106] - por exemplo, a alfabetização parece desempenhar um grande papel nos diferentes tipos de MTLs, uma vez que a direção de leitura / escrita fornece uma orientação temporal cotidiana que difere de cultura para cultura. [107] Nas culturas ocidentais, o MTL pode se desdobrar para a direita (com o passado à esquerda e o futuro à direita), pois as pessoas lêem e escrevem da esquerda para a direita. [107] Os calendários ocidentais também continuam essa tendência, colocando o passado à esquerda e o futuro avançando à direita. Por outro lado, falantes de árabe, farsi, urdu e hebraico israelense leem da direita para a esquerda, e seus MTLs se desdobram para a esquerda (passado à direita com futuro à esquerda), e as evidências sugerem que esses falantes organizam eventos temporais em suas mentes também. . [107]

    Essa evidência linguística de que conceitos abstratos são baseados em conceitos espaciais também revela que a maneira como os humanos organizam mentalmente os eventos do tempo varia entre as culturas - ou seja, um determinado sistema de organização mental específico não é universal. Portanto, embora as culturas ocidentais tipicamente associem eventos passados ​​à esquerda e eventos futuros à direita de acordo com um determinado MTL, esse tipo de MTL horizontal egocêntrico não é a organização espacial de todas as culturas. Embora a maioria das nações desenvolvidas use um sistema espacial egocêntrico, há evidências recentes de que algumas culturas usam uma espacialização alocêntrica, muitas vezes baseada em características ambientais. [106]

    Um estudo recente do povo Yupno indígena de Papua Nova Guiné enfocou os gestos direcionais usados ​​quando os indivíduos usavam palavras relacionadas ao tempo. [106] Ao falar do passado (como "ano passado" ou "tempos passados"), os indivíduos gesticulavam morro abaixo, onde o rio do vale desaguava no oceano. Ao falar do futuro, eles gesticulavam para cima, em direção à nascente do rio. Isso era comum independentemente da direção que a pessoa estava enfrentando, revelando que o povo Yupno pode usar um MTL alocêntrico, no qual o tempo flui para cima. [106]

    Um estudo semelhante dos Pormpuraawans, um grupo aborígine da Austrália, revelou uma distinção semelhante em que, quando solicitados a organizar as fotos de um homem envelhecendo "em ordem", os indivíduos colocavam consistentemente as fotos mais novas a leste e as mais antigas a oeste, independentemente da direção que eles enfrentaram. [108] Isso colidiu diretamente com um grupo americano que consistentemente organizou as fotos da esquerda para a direita. Portanto, este grupo também parece ter um MTL alocêntrico, mas com base nas direções cardeais em vez de características geográficas. [108]

    A ampla gama de distinções na maneira como diferentes grupos pensam sobre o tempo leva à questão mais ampla de que diferentes grupos também podem pensar sobre outros conceitos abstratos de maneiras diferentes, como causalidade e número. [106]


    Conteúdo

    Edição de 1700

    Nicole-Reine Etable de la Brière Lepaute fez parte de uma equipe de computadores humanos que trabalhou com Alexis-Claude Clairaut e Joseph-Jérôme Le Français de Lalande para prever a data do retorno do cometa Halley. [1] Eles começaram a trabalhar nos cálculos em 1757, trabalhando durante o dia e às vezes durante as refeições. [2] Seus métodos foram seguidos por sucessivos computadores humanos. [3] Eles dividiram grandes cálculos em "partes independentes, reuniram os resultados de cada parte em um produto final" e então verificaram os erros. [3] Lepaute continuou a trabalhar na computação pelo resto de sua vida, trabalhando para o Connaissance des Temps e publicando previsões de eclipses solares. [4]

    Edição dos anos 1800

    Um dos primeiros computadores para o americano Almanaque Náutico foi Maria Mitchel. [5] Seu trabalho na tarefa era calcular o movimento do planeta Vênus. [6] O Almanaque nunca se tornou uma realidade, mas Mitchell se tornou o primeiro professor de astronomia em Vassar. [7]

    Ada Lovelace foi a primeira pessoa a publicar um algoritmo destinado a ser executado pelo primeiro computador moderno, a Máquina Analítica criada por Charles Babbage. Como resultado, ela é frequentemente considerada a primeira programadora de computador. [8] [9] [10] Lovelace foi apresentado ao mecanismo de diferença de Babbage quando ela tinha 17 anos. [11] Em 1840, ela escreveu para Babbage e perguntou se ela poderia se envolver com sua primeira máquina. [12] Por esta altura, Babbage tinha mudado para sua ideia para a Máquina Analítica. [13] Um artigo que descreve o mecanismo analítico, Noções sobre a máquina analítica, publicado por L.F. Menabrea, chamou a atenção de Lovelace, que não apenas o traduziu para o inglês, mas corrigiu erros cometidos por Menabrea. [14] Babbage sugeriu que ela expandisse a tradução do artigo com suas próprias idéias, que, assinadas apenas com suas iniciais, AAL, "sintetizavam o vasto escopo da visão de Babbage". [15] Lovelace imaginou o tipo de impacto que a Máquina Analítica poderia ter na sociedade. [16] Ela elaborou explicações de como o motor poderia lidar com entradas, saídas, processamento e armazenamento de dados. [17] Ela também criou várias provas para mostrar como o motor lidaria com os cálculos dos Números de Bernoulli por conta própria. [17] As provas são consideradas os primeiros exemplos de um programa de computador. [17] [8] Lovelace minimizou seu papel em seu trabalho durante sua vida, por exemplo, ao assinar suas contribuições com a AAL para não ser "acusada de se gabar". [18]

    Após a Guerra Civil nos Estados Unidos, mais mulheres foram contratadas como computadores humanos. [19] Muitas eram viúvas de guerra procurando maneiras de se sustentar. [19] Outros foram contratados quando o governo abriu cargos para mulheres por causa da falta de homens para preencher os cargos. [19]

    Anna Winlock pediu para se tornar um computador para o Observatório de Harvard em 1875 e foi contratada para trabalhar por 25 centavos a hora. [20] Em 1880, Edward Charles Pickering contratou várias mulheres para trabalhar para ele em Harvard porque sabia que as mulheres podiam fazer o trabalho tão bem quanto os homens e ele poderia pedir-lhes que se voluntariassem ou trabalhassem por menos. [21] [20] As mulheres, descritas como "harém de Pickering" e também como Harvard Computers, realizavam trabalho burocrático que os funcionários e acadêmicos consideravam tedioso por uma fração do custo de contratar um homem. [22] As mulheres que trabalhavam para Pickering catalogaram cerca de dez mil estrelas, descobriram a Nebulosa Cabeça de Cavalo e desenvolveram o sistema para descrever estrelas. [23] Um dos "computadores", Annie Jump Cannon, poderia classificar estrelas a uma taxa de três estrelas por minuto. [23] O trabalho para Pickering se tornou tão popular que as mulheres se ofereceram para trabalhar de graça, mesmo quando os computadores estavam sendo pagos. [24] Embora desempenhassem um papel importante, os computadores de Harvard eram pagos menos do que os trabalhadores da fábrica. [23]

    Na década de 1890, os computadores femininos eram graduados universitários em busca de empregos onde pudessem usar seu treinamento de maneira útil. [25] Florence Tebb Weldon, fazia parte deste grupo e forneceu cálculos relacionados à biologia e evidências para a evolução, trabalhando com seu marido, W.F. Raphael Weldon. [26] Os cálculos de Florence Weldon demonstraram que as estatísticas poderiam ser usadas para apoiar a teoria da evolução de Darwin. [27] Outro computador humano envolvido em biologia foi Alice Lee, que trabalhou com Karl Pearson. [28] Pearson contratou duas irmãs para trabalhar como computadores em tempo parcial em seu laboratório de biometria, Beatrice e Frances Cave-Brown-Cave. [29]

    Edição dos anos 1910

    Durante a Primeira Guerra Mundial, Karl Pearson e seu Laboratório de Biometria ajudaram a produzir cálculos balísticos para o Ministério Britânico de Munições. [30] Beatrice Cave-Browne-Cave ajudou a calcular trajetórias para projéteis de bombas. [30] Em 1916, Cave-Brown-Cave deixou o emprego de Pearson e começou a trabalhar em tempo integral para o Ministério. [31] Nos Estados Unidos, computadores femininos foram contratados para calcular balística em 1918, trabalhando em um prédio no Washington Mall. [32] Uma das mulheres, Elizabeth Webb Wilson, trabalhava como chefe do computador. [33] Após a guerra, as mulheres que trabalhavam como computadores balísticos para o governo dos EUA tiveram problemas para encontrar empregos em computação e Wilson acabou ensinando matemática no ensino médio. [34]

    Edição dos anos 1920

    No início da década de 1920, no Iowa State College, o professor George Snedecor trabalhou para melhorar os departamentos de ciência e engenharia da escola, fazendo experiências com novas máquinas de cartão perfurado e calculadoras. [35] Snedecor também trabalhou com calculadoras humanas, a maioria delas mulheres, incluindo Mary Clem. [36] Clem cunhou o termo "verificação zero" para ajudar a identificar erros nos cálculos. [36] O laboratório de computação, administrado por Clem, tornou-se uma das instalações de computação mais poderosas da época. [36] [37]

    Computadores femininos também trabalharam na empresa American Telephone and Telegraph. [38] Esses computadores humanos trabalharam com engenheiros elétricos para ajudar a descobrir como aumentar os sinais com amplificadores valvulados. [38] Um dos computadores, Clara Froelich, foi eventualmente movido junto com os outros computadores para sua própria divisão, onde trabalharam com um matemático, Thornton Fry, para criar novos métodos computacionais. [38] Froelich estudou o equipamento de tabulação da IBM e máquinas calculadoras de mesa para ver se ela poderia adaptar o método da máquina aos cálculos. [39]

    Edith Clarke foi a primeira mulher a se formar em engenharia elétrica e foi a primeira engenheira elétrica contratada profissionalmente nos Estados Unidos. [40] Ela foi contratada pela General Electric como engenheira completa em 1923. [40] Clarke também registrou uma patente em 1921 para uma calculadora gráfica a ser usada na resolução de problemas em linhas de energia. [41] Foi concedido em 1925. [40]

    Edição dos anos 1930

    O Comitê Consultivo Nacional para a Aeronáutica (NACA), que se tornou a NASA, contratou um grupo de cinco mulheres em 1935 para trabalhar como um centro de informática. [42] As mulheres trabalharam nos dados provenientes do túnel de vento e testes de vôo. [42]

    Edição dos anos 40

    Computação e cálculos "tediosos" eram vistos como "trabalho de mulher" durante os anos 1940 [43], resultando no termo "kilogirl", inventado por um membro do Painel de Matemática Aplicada no início dos anos 1940. [44] Um quilogirl de energia era "equivalente a cerca de mil horas de trabalho computacional." [44] Enquanto as contribuições das mulheres para o esforço de guerra dos Estados Unidos durante a Segunda Guerra Mundial foram defendidas na mídia, seus papéis e o trabalho que realizaram foram minimizados. [45] Isso incluiu minimizar a complexidade, habilidade e conhecimento necessários para trabalhar em computadores ou como computadores humanos. [45] Durante a Segunda Guerra Mundial, as mulheres fizeram a maior parte da computação balística, vista pelos engenheiros do sexo masculino como estando abaixo de seu nível de especialização. [46] Os computadores das mulheres negras trabalharam tão arduamente (ou mais frequentemente, duas vezes mais) que as suas contrapartes brancas, mas em situações segregadas. [47] Em 1943, quase todas as pessoas empregadas como computadores eram mulheres. Um relatório disse que "a programação requer muita paciência, persistência e capacidade para detalhes e essas são características que muitas meninas têm". [48] ​​[49]

    O NACA expandiu seu grupo de computadores humanos femininos na década de 1940. [50] O NACA reconheceu em 1942 que "os engenheiros admitem que os computadores femininos fazem o trabalho com mais rapidez e precisão do que poderiam". [42] Em 1943, dois grupos, segregados por raça, trabalharam no lado leste e oeste da Base Aérea de Langley. [50] As mulheres negras eram da West Area Computers. [50] Ao contrário de suas contrapartes brancas, as mulheres negras foram solicitadas pelo NACA a refazer cursos universitários nos quais já haviam passado e muitas nunca receberam promoções. [51]

    As mulheres também estavam trabalhando em cálculos de mísseis balísticos. Em 1948, mulheres como Barbara Paulson trabalhavam no WAC Corporal, determinando as trajetórias dos mísseis após o lançamento. [52]

    As mulheres trabalharam com criptografia e, após alguma resistência inicial, muitas operaram e trabalharam nas máquinas Bombe. [53] Joyce Aylard operou a máquina Bombe testando diferentes métodos para quebrar o código Enigma. [54] Joan Clarke era uma criptógrafa que trabalhou com seu amigo, Alan Turing, na máquina Enigma em Bletchley Park. [55] Quando ela foi promovida a um nível salarial mais alto, não havia cargos no serviço público para uma "criptanalista sênior" e ela foi listada como lingüista. [56] Enquanto Clarke desenvolveu um método para aumentar a velocidade de mensagens criptografadas duplamente, ao contrário de muitos dos homens, sua técnica de descriptografia não foi nomeada em sua homenagem. [57] Outros criptógrafos em Bletchley incluíram Margaret Rock, Mavis Lever (mais tarde Batey), Ruth Briggs e Kerry Howard. [55] Em 1941, o trabalho de Batey permitiu aos Aliados quebrar o código naval dos italianos antes da Batalha do Cabo Matapan. [58] Nos Estados Unidos, várias máquinas Bombe mais rápidas foram criadas. [59] Mulheres, como Louise Pearsall, foram recrutadas no WAVES para trabalhar na quebra de código e operar as máquinas American Bombe. [60]

    Hedy Lamarr e o co-inventor George Antheil trabalharam em um método de salto de frequência para ajudar a Marinha a controlar torpedos remotamente. [61] A Marinha transmitiu sua ideia, mas Lamarr e Antheil receberam uma patente para o trabalho em 11 de agosto de 1942. [61] Esta técnica seria mais tarde usada novamente, primeiro na década de 1950 na Divisão de Sistemas Eletrônicos da Sylvania e é usada na tecnologia do dia-a-dia, como Bluetooth e Wi-Fi. [61]

    Os programadores do computador ENIAC em 1944 eram seis mulheres matemáticas Marlyn Meltzer, Betty Holberton, Kathleen Antonelli, Ruth Teitelbaum, Jean Bartik e Frances Spence que eram computadores humanos no laboratório de computação da Escola Moore. [62] Adele Goldstine era sua professora e treinadora e elas eram conhecidas como as "garotas ENIAC". [63] As mulheres que trabalharam no ENIAC foram avisadas de que não seriam promovidas a classificações profissionais exclusivas para homens. [64] Projetar o hardware era "trabalho de homem" e programar o software era "trabalho de mulher". [65] Às vezes, as mulheres recebiam plantas e diagramas de fiação para descobrir como a máquina funcionava e como programá-la. [66] Eles aprenderam como o ENIAC funcionava reparando-o, às vezes rastejando pelo computador e consertando "bugs" no maquinário. [66] Embora os programadores devessem estar fazendo o trabalho "suave" de programação, na realidade, eles fizeram isso e compreenderam e trabalharam totalmente com o hardware do ENIAC. [67] Quando o ENIAC foi revelado em 1946, Goldstine e as outras mulheres prepararam a máquina e os programas de demonstração que ela executou para o público. [68] Nenhum de seus trabalhos na preparação das manifestações foi mencionado nos relatos oficiais dos eventos públicos. [69] Após a manifestação, a universidade ofereceu um caro jantar comemorativo para o qual nenhum dos seis ENIAC foi convidado. [70]

    No Canadá, Beatrice Worsley começou a trabalhar no Conselho Nacional de Pesquisa do Canadá em 1947, onde era pesquisadora de aerodinâmica. [71] Um ano depois, ela começou a trabalhar no novo Centro Computacional da Universidade de Toronto. [71] Ela construiu um analisador diferencial em 1948 e também trabalhou com máquinas IBM para fazer cálculos para a Energia Atômica do Canadá Limited. [71] Ela foi estudar o EDSAC na Universidade de Cambridge em 1949. [71] Ela escreveu o programa que foi executado na primeira vez que o EDSAC realizou seus primeiros cálculos em 6 de maio de 1949. [71] [72]

    Grace Hopper foi a primeira pessoa a criar um compilador para uma linguagem de programação e uma das primeiras programadoras do computador Harvard Mark I, um computador eletromecânico baseado em Analytical Engine. O trabalho de Hopper com computadores começou em 1943, quando ela começou a trabalhar no Projeto de Computação do Bureau of Ordnance em Harvard, onde programou o Harvard Mark I. [48] Hopper não apenas programou o computador, mas criou um manual abrangente de 500 páginas para ele. [73] Embora Hopper tenha criado o manual, que foi amplamente citado e publicado, ela não foi especificamente creditada nele. [73] Hopper é frequentemente considerado o criador do termo "bug" e "depuração" quando uma mariposa causava o mau funcionamento do Mark II. [74] Enquanto uma mariposa foi encontrada e o processo de remoção foi chamado de "depuração", os termos já faziam parte da linguagem dos programadores. [74] [75] [76]

    Edição dos anos 1950

    Grace Hopper continuou a contribuir para a ciência da computação durante os anos 1950. Ela trouxe a ideia de usar compiladores de seu tempo em Harvard para o UNIVAC, onde ingressou em 1949. [77] [74] Outras mulheres que foram contratadas para o programa UNIVAC incluíram Adele Mildred Koss, Frances E. Holberton, Jean Bartik, Frances Morello e Lillian Jay. [64] Para programar o UNIVAC, Hopper e sua equipe usaram a linguagem de programação FLOW-MATIC, que ela desenvolveu. [74] Holberton escreveu um código, C-10, que permitia entradas de teclado em um computador de uso geral. [78] Holberton também desenvolveu o Sort-Merge Generator em 1951, que foi usado no UNIVAC I. [64] O Sort-Merge Generator marcou a primeira vez que um computador "usou um programa para escrever um programa." [79] Holberton sugeriu que a caixa do computador deveria ser bege ou cor de aveia, o que se tornou uma tendência de longa duração. [79] Koss trabalhou com Hopper em vários algoritmos e um programa que foi o precursor de um gerador de relatórios. [64]

    Klara Dan von Neumann foi um dos principais programadores do MANIAC, uma versão mais avançada do ENIAC. [80] Seu trabalho ajudou no campo da meteorologia e previsão do tempo. [80]

    O NACA e, posteriormente, a NASA, recrutaram computadores femininos após a Segunda Guerra Mundial. [42] Na década de 1950, uma equipe estava realizando cálculos matemáticos no Lewis Research Center em Cleveland, Ohio, incluindo Annie Easley, Katherine Johnson e Kathryn Peddrew. [81] No National Bureau of Standards, Margaret R. Fox foi contratada para trabalhar como parte da equipe técnica do Electronic Computer Laboratory em 1951. [41] Em 1956, Gladys West foi contratada pelo US Naval Weapons Laboratory como computador humano. [82] West esteve envolvido em cálculos que permitiram o desenvolvimento do GPS. [82]

    Na Convair Aircraft Corporation, Joyce Currie Little foi um dos programadores originais para analisar os dados recebidos dos túneis de vento. [83] Ela usou cartões perfurados em um IBM 650 que estava localizado em um prédio diferente do túnel de vento. [83] Para economizar tempo na entrega física dos cartões perfurados, ela e sua colega, Maggie DeCaro, calçaram os patins para ir e vir do prédio com mais rapidez. [83]

    Em Israel, Thelma Estrin trabalhou no projeto e desenvolvimento do WEIZAC, um dos primeiros computadores eletrônicos programáveis ​​em grande escala do mundo. [84] Na União Soviética, uma equipe de mulheres ajudou a projetar e construir o primeiro computador digital em 1951. [85] No Reino Unido, Kathleen Booth trabalhou com seu marido, Andrew Booth em vários computadores no Birkbeck College. [86] Kathleen Booth era a programadora e Andrew construiu as máquinas. [86] Kathleen desenvolveu a linguagem Assembly nesta época. [87]

    Kateryna Yushchenko (Ucrânia) criou a linguagem de programação de endereços para o computador "Kyiv" em 1955 e inventou o endereçamento indireto da mais alta classificação (inventado Ponteiros). [88]

    Edição dos anos 1960

    Milly Koss, que havia trabalhado na UNIVAC com Hopper, começou a trabalhar na Control Data Corporation (CDC) em 1965. [64] Lá ela desenvolveu algoritmos para gráficos, incluindo armazenamento e recuperação de gráficos. [64]

    Mary K. Hawes, da Burroughs Corporation, organizou uma reunião em 1959 para discutir a criação de uma linguagem de computador que seria compartilhada entre as empresas. [89] Seis pessoas, incluindo Hopper, compareceram para discutir a filosofia de criação de uma linguagem de negócios comum (CBL). [89] Hopper se envolveu no desenvolvimento de COBOL (Common Business Oriented Language), onde inovou novas formas simbólicas de escrever código de computador. [73] Hopper desenvolveu uma linguagem de programação que era mais fácil de ler e "autodocumentável". [90] Depois que o COBOL foi submetido ao Comitê Executivo CODASYL, Betty Holberton fez outras edições na linguagem antes de ser submetida ao Government Printing Office em 1960. [89] A IBM demorou a adotar o COBOL, o que impediu seu progresso, mas foi aceito como padrão em 1962, após Hopper ter demonstrado que o compilador funcionava em computadores UNIVAC e RCA. [91] O desenvolvimento do COBOL levou à geração de compiladores e geradores, muitos dos quais foram criados ou refinados por mulheres como Koss, Nora Moser, Deborah Davidson, Sue Knapp, Gertrude Tierney e Jean E. Sammet. [92]

    Sammet, que trabalhou na IBM desde 1961, foi responsável pelo desenvolvimento da linguagem de programação FORMAC. [89] Ela publicou um livro, Linguagens de programação: história e fundamentos (1969), que foi considerado o "trabalho padrão em linguagens de programação", segundo Denise Gürer [89]. Foi "um dos livros mais usados ​​na área", segundo Os tempos em 1972. [93]

    Entre 1961 e 1963, Margaret Hamilton começou a estudar a confiabilidade do software enquanto trabalhava no sistema de defesa aérea US SAGE. [95] Em 1965, ela foi responsável pela programação do software para o software de vôo a bordo nos computadores da missão Apollo. [96] Depois que Hamilton completou o programa, o código foi enviado para Raytheon, onde "costureiras experientes" chamadas de "Pequenas Senhoras" na verdade conectaram o código ao passar fio de cobre através de anéis magnéticos. [96] Cada sistema pode armazenar mais de 12.000 palavras que foram representadas pelos fios de cobre. [96]

    Em 1964, o primeiro-ministro britânico Harold Wilson anunciou uma revolução "acirrada" na tecnologia, que daria maior destaque ao trabalho de TI. Como as mulheres ainda ocupavam a maioria dos cargos de computação e programação nessa época, esperava-se que isso lhes proporcionasse perspectivas de carreira mais positivas. [97] Em 1965, a irmã Mary Kenneth Keller se tornou a primeira mulher americana a obter um doutorado em ciência da computação. [98] Keller ajudou a desenvolver o BASIC enquanto trabalhava como estudante de graduação em Dartmouth, onde a universidade "quebrou a regra de 'somente homens'" para que ela pudesse usar seu centro de ciência da computação. [99]

    Christine Darden começou a trabalhar para o pool de computação da NASA em 1967, depois de se formar no Hampton Institute. [100] Mulheres estiveram envolvidas no desenvolvimento de Whirlwind, incluindo Judy Clapp. [64] Ela criou o protótipo de um sistema de defesa aérea para Whirlwind, que usava dados de radar para rastrear aviões no ar e poderia direcionar o curso das aeronaves. [64]

    Em 1969, Elizabeth "Jake" Feinler, que trabalhava para Stanford, fez o primeiro Manual de Recursos para a ARPANET. [101] Isso levou à criação do diretório ARPANET, que foi construído por Feinler com uma equipe composta principalmente por mulheres. [102] Sem o diretório, "era quase impossível navegar na ARPANET." [103]

    No final da década, a demografia geral dos programadores deixou de ser predominantemente feminina, como acontecia antes dos anos 1940. [104] Embora as mulheres representassem cerca de 30 a 50 por cento dos programadores de computador durante a década de 1960, poucas foram promovidas a cargos de liderança e as mulheres recebiam muito menos do que os homens. [105] Cosmopolita publicou um artigo na edição de abril de 1967 sobre mulheres na programação, chamado "The Computer Girls". [106] Mesmo enquanto revistas como Cosmopolita viu um futuro brilhante para as mulheres em computadores e programação de computadores na década de 1960, a realidade era que as mulheres ainda estavam sendo marginalizadas. [107]

    Edição dos anos 1970

    No início dos anos 1970, Pam Hardt-English liderou um grupo para criar uma rede de computadores que eles chamaram de Resource One e que fazia parte de um grupo chamado Project One. [108] Sua ideia de conectar livrarias, bibliotecas e o Projeto Um foi um dos primeiros protótipos da Internet. [107] Para trabalhar no projeto, Hardt-English obteve um caro computador SDS-940 como uma doação da TransAmerica Leasing Corporation em abril de 1972. [109] Eles criaram uma biblioteca eletrônica e a abrigaram em uma loja de discos chamada Leopold's em Berkeley. [110] Este se tornou o banco de dados de memória da comunidade e foi mantido pelo hacker Jude Milhon. [111] Depois de 1975, o computador SDS-940 foi reaproveitado por Sherry Reson, Mya Shone, Chris Macie e Mary Janowitz para criar um banco de dados de serviços sociais e um Diretório de referência de serviços sociais. [112] Cópias impressas do diretório, impressas como um serviço de assinatura, foram mantidas em edifícios e bibliotecas da cidade. [113] O banco de dados foi mantido e em uso até 2009. [114]

    No início dos anos 1970, Elizabeth "Jake" Feinler, que trabalhou no Diretório de Recursos da ARPANET, e sua equipe criaram o primeiro diretório WHOIS. [115] Feinler configurou um servidor no Network Information Center (NIC) em Stanford que funcionaria como um diretório que poderia recuperar informações relevantes sobre uma pessoa ou entidade. [115] Ela e sua equipe trabalharam na criação de domínios, com Feinler sugerindo que os domínios fossem divididos por categorias com base em onde os computadores eram mantidos. [116] Por exemplo, os computadores militares teriam o domínio de .mil, os computadores em instituições educacionais teriam .edu. [117] Feinler trabalhou para NIC até 1989. [118]

    Jean E. Sammet foi a primeira mulher presidente da Association for Computing Machinery (ACM), ocupando o cargo entre 1974 e 1976. [89]

    Adele Goldberg foi um dos sete programadores que desenvolveram o Smalltalk na década de 1970 e escreveu a maior parte da documentação da linguagem. Foi uma das primeiras linguagens de programação orientadas a objetos a base da atual interface gráfica do usuário, [119] que tem suas raízes em The Mother of All Demos, de 1968, de Douglas Engelbart. Smalltalk foi usado pela Apple para lançar o Apple Lisa em 1983, o primeiro computador pessoal com uma GUI, e um ano depois seu Macintosh. O Windows 1.0, baseado nos mesmos princípios, foi lançado alguns meses depois, em 1985. [120] [121]

    No final dos anos 1970, mulheres como Paulson e Sue Finley escreveram programas para a missão Voyager. [122] A Voyager continua a carregar seus códigos dentro de seus próprios bancos de memória ao deixar o sistema solar. [123] Em 1979, Ruzena Bajcsy fundou o Laboratório de Robótica Geral, Automação, Sensoriamento e Percepção (GRASP) na Universidade da Pensilvânia. [124]

    Em meados dos anos 70, Joan Margaret Winters começou a trabalhar na IBM como parte de um "projeto de fatores humanos", denominado SHARE. [41] Em 1978, Winters era o vice-gerente do projeto e passou a liderar o projeto entre 1983 e 1987. [41] O grupo SHARE trabalhou na pesquisa de como o software deveria ser projetado para considerar os fatores humanos. [41]

    Erna Schneider Hoover desenvolveu um sistema de comutação computadorizado para chamadas telefônicas que substituiria as mesas telefônicas. [41] Sua patente de software para o sistema, emitida em 1971, foi uma das primeiras patentes de software já emitidas. [41]

    Edição dos anos 80

    Gwen Bell desenvolveu o Computer Museum em 1980. [125] O museu, que coletava artefatos de computador, tornou-se uma organização sem fins lucrativos em 1982 e, em 1984, Bell o mudou para o centro de Boston. [125] Adele Goldberg serviu como presidente da ACM entre 1984 e 1986. [126] Em 1986, Lixia Zhang foi a única mulher e estudante de graduação a participar das primeiras reuniões da Força-Tarefa de Engenharia da Internet (IETF). [127] Zhang esteve envolvido no desenvolvimento inicial da Internet. [127] Em 1982, Marsha R. Williams se tornou a primeira mulher afro-americana a obter um Ph.D. em ciência da computação. [128]

    Às vezes conhecido como "Betsy Ross do computador pessoal", de acordo com o New York Times, Susan Kare trabalhou com Steve Jobs para projetar os ícones originais para o Macintosh. [61] [129] Kare projetou o relógio em movimento, o pincel e os elementos da lata de lixo que o tornaram amigável ao usuário. [61] [129] Kare trabalhou para a Apple até meados da década de 1980, passando a trabalhar em ícones para Windows 3.0. [129] Outros tipos de computação gráfica estavam sendo desenvolvidos por Nadia Magnenat Thalmann no Canadá. Thalmann começou a trabalhar com animação por computador para desenvolver "atores virtuais realistas" primeiro na Universidade de Montreal em 1980 e depois em 1988 na École Polytechnique Fédérale de Lausanne. [130]

    No campo da interação homem-computador (HCI), a cientista da computação francesa Joëlle Coutaz desenvolveu o modelo de apresentação-abstração-controle (PAC) em 1987. [131] [132] Ela fundou o grupo de Interface do Usuário no Laboratorire de Génie Informatique do IMAG, onde trabalharam em diferentes problemas relacionados à interface do usuário e outras ferramentas de software. [133]

    Conforme a Ethernet se tornou o padrão para computadores em rede localmente, Radia Perlman, que trabalhava na Digital Equipment Corporation (DEC), foi solicitada a "consertar" as limitações que a Ethernet impunha ao grande tráfego de rede. [134] Em 1985, Perlman surgiu com uma maneira de rotear pacotes de informação de um computador para outro de uma forma "infinitamente escalável" que permitia que grandes redes como a Internet funcionassem. [134] Sua solução levou menos de alguns dias para ser projetada e escrita. [134] O nome do algoritmo que ela criou é Spanning Tree Protocol. [135] Em 1988, Stacy Horn, que tinha sido apresentada aos sistemas de BBS (BBS) através do The WELL, decidiu criar sua própria comunidade online em Nova York, que ela chamou de East Coast Hang Out (ECHO). [136] Horn investiu seu próprio dinheiro e apresentou a ideia do ECHO a outras pessoas depois que os banqueiros se recusaram a ouvir seu plano de negócios. [137] Horn construiu seu BBS usando UNIX, que ela e seus amigos ensinaram uns aos outros. [138] Eventualmente ECHO mudou um escritório em Tribeca no início de 1990 e começou a chamar a atenção da imprensa. [139] Os usuários do ECHO podiam postar sobre tópicos de seu interesse, bater um papo uns com os outros e receber contas de e-mail. [140] Cerca de metade dos utilizadores do ECHO eram mulheres. [141] O ECHO ainda estava online em 2018. [142]

    A Europa estava um pouco atrás de outros países no desenvolvimento de uma infraestrutura de Internet. [143] Um projeto foi desenvolvido em meados da década de 1980 para criar uma rede acadêmica na Europa usando os padrões de Interconexão de Sistema Aberto (OSI). [143] Borka Jerman Blažič, um cientista da computação iugoslavo foi convidado a trabalhar no projeto. [143] Ela esteve envolvida no estabelecimento de uma Rede Acadêmica e de Pesquisa Iugoslava (YUNAC) em 1989 e registrou o domínio de .yu para o país. [143]

    Os jogos de computador e videogame tornaram-se populares na década de 1980, mas muitos eram principalmente voltados para a ação e não eram projetados do ponto de vista feminino. Personagens estereotipados, como a donzela em perigo, apareciam com destaque e, conseqüentemente, não eram convidativos para as mulheres. [144] Dona Bailey projetou Centopéia, onde o jogador atira insetos, como uma reação a tais jogos, depois dizendo "Não parecia ruim atirar em um inseto". [145] Carol Shaw, considerada a primeira designer de jogos feminina moderna, lançou uma versão 3D do jogo da velha para o Atari 2600 em 1980. [144] Roberta Williams e seu marido Ken, fundaram a Sierra Online e foram pioneiros no setor gráfico formato de jogo de aventura em Mystery House e a King's Quest Series. Os jogos tinham uma interface gráfica amigável e apresentavam humor e quebra-cabeças. Citado como um designer de jogos importante, sua influência se espalhou da Sierra para outras empresas, como LucasArts e além. [146] [147] Brenda Laurel trabalhou na conversão de jogos de versões de arcade para os computadores Atari 400 e Atari 800 no final dos anos 1970 e início dos anos 1980. [148] Ela então foi trabalhar para a Activision, escrevendo o manual para Maniac Mansion. [148]

    1984 foi o ano de Women Into Science and Engineering (WISE). Um relatório de 1984 da Ebury Publishing relatou que em uma família típica, apenas 5% das mães e 19% das filhas estavam usando um computador em casa, em comparação com 25% dos pais e 51% dos filhos. Para neutralizar isso, a empresa lançou uma série de títulos de software desenvolvidos para mulheres e divulgados em Boa arrumação. [149] Anita Borg, que tinha notado que as mulheres estavam sub-representadas na ciência da computação, fundou um grupo de suporte por e-mail, Systers, em 1987. [150]

    Edição dos anos 90

    Na década de 1990, a computação era dominada por homens. A proporção de mulheres graduadas em ciência da computação atingiu o pico em 1984, cerca de 37%, e depois diminuiu continuamente. [151] Embora o final do século 20 tenha visto um aumento no número de mulheres cientistas e engenheiras, isso não foi verdade para a computação, que estagnou. Apesar disso, eles estavam muito envolvidos no trabalho em projetos de hipertexto e hipermídia no final dos anos 1980 e início dos anos 1990. [153] Uma equipe de mulheres da Brown University, incluindo Nicole Yankelovich e Karen Catlin, desenvolveu o Intermedia e inventou o link âncora. [154] A Apple financiou parcialmente seu projeto e incorporou seus conceitos aos sistemas operacionais da Apple. [155] Sun Microsystems Sun Link Service foi desenvolvido por Amy Pearl. [155] Janet Walker desenvolveu o primeiro sistema a usar marcadores quando criou o Symbolics Document Examiner. [155] Em 1989, Wendy Hall criou um projeto de hipertexto chamado Microcosm, que foi baseado em material multimídia digitalizado encontrado no arquivo Mountbatten. [156] Cathy Marshall trabalhou no sistema NoteCards no Xerox PARC. [157] NoteCards passou a influenciar o HyperCard da Apple. [158] À medida que a Internet se tornou a World Wide Web, desenvolvedores como Hall adaptaram seus programas para incluir visualizadores da web. [159] Seu microcosmo foi especialmente adaptável a novas tecnologias, incluindo animação e modelos 3-D. [160] Em 1994, Hall ajudou a organizar a primeira conferência para a web. [161]

    Sarah Allen, a cofundadora da After Effects, cofundou uma empresa de software comercial chamada CoSA em 1990. [162] Em 1995, ela começou a trabalhar na equipe Shockwave para a Macromedia, onde era a principal desenvolvedora do Shockwave Mulituser Server, o Flash Media Server e o vídeo Flash. [162]

    Seguindo o aumento da popularidade da Internet na década de 1990, espaços online foram criados para atender às mulheres, incluindo a comunidade online Women's WIRE [163] e o fórum técnico e de suporte LinuxChix. [164] Women's WIRE, lançado por Nancy Rhine e Ellen Pack em outubro de 1993, foi a primeira empresa de Internet a atingir especificamente esse grupo demográfico. [163] [165] Uma conferência para mulheres em empregos relacionados à computação, a Celebração Grace Hopper das Mulheres na Computação, foi lançada pela primeira vez em 1994 por Anita Borg. [150]

    A designer de jogos Brenda Laurel começou a trabalhar na Interval Research em 1992 e começou a pensar sobre as diferenças na maneira como meninas e meninos experimentavam jogar videogame. [166] Depois de entrevistar cerca de 1.000 crianças e 500 adultos, ela concluiu que os jogos não foram projetados com os interesses das meninas em mente. [167] As garotas com quem ela falou queriam mais jogos com mundos abertos e personagens com os quais pudessem interagir. [168] Sua pesquisa levou a Interval Research dando à equipe de pesquisa de Laurel sua própria empresa em 1996, Purple Moon. [168] Também em 1996, o jogo da Mattel, Barbie Fashion Designer, tornou-se o primeiro jogo mais vendido para meninas. [169] Os dois primeiros jogos de Purple Moon baseados em um personagem chamado Rockett, chegaram aos 100 jogos mais vendidos nos anos em que foram lançados. [170] Em 1999, a Mattel comprou a Purple Moon. [171]

    Jaime Levy criou um dos primeiros e-Zines no início de 1990, começando com CyberRag, que incluía artigos, jogos e animações carregados em disquetes que qualquer pessoa com um Mac poderia acessar. [172] Mais tarde, ela renomeou o zine para Hollywood eletrônica. [172] Billy Idol contratou Levy para criar um disco para seu álbum, Cyberpunk. [172] Ela foi contratada para ser a diretora de criação da revista online, Palavra, em 1995. [172]

    As ciberfeministas, VNS Matrix, formada por Josephine Starrs, Juliane Pierce, Francesca da Rimini e Virginia Barratt, criaram arte no início dos anos 1990 ligando a tecnologia da computação aos corpos das mulheres. [173] Em 1997, houve uma reunião de ciberfeministas em Kassel, chamada de Primeira Ciberfeminista Internacional. [174]

    Na China, Hu Qiheng foi o líder da equipe que instalou a primeira conexão TCP / IP para a China, conectando-se à Internet em 20 de abril de 1994. [175] Em 1995, Rosemary Candlin foi escrever software para o CERN em Genebra. [176] No início de 1990, Nancy Hafkin foi uma figura importante no trabalho com a Association for Progressive Communications (APC) na habilitação de conexões de e-mail em 10 países africanos. [177] A partir de 1999, Anne-Marie Eklund Löwinder começou a trabalhar com Extensões de Segurança do Sistema de Nomes de Domínio (DNSSEC) na Suécia. Mais tarde, ela se certificou de que o domínio, .se, foi o primeiro nome de domínio de nível superior do mundo a ser assinado com DNSSEC. [178]

    No final da década de 1990, a pesquisa de Jane Margolis levou Carnegie Mellon a tentar corrigir o desequilíbrio entre homens e mulheres na ciência da computação. [179]

    Do final dos anos 1980 até meados dos anos 1990, Misha Mahowald desenvolveu vários alicerces importantes no campo da engenharia neuromórfica, enquanto trabalhava no California Institute of Technology e mais tarde no ETH Zurich. Mais de 20 anos após sua morte prematura, o Prêmio Misha Mahowald [180] foi nomeado em sua homenagem para reconhecer a excelência no campo que ela ajudou a criar.

    Edição dos anos 2000

    No século 21, várias tentativas foram feitas para reduzir a disparidade de gênero em TI e envolver mais mulheres na computação novamente. Uma pesquisa de 2001 constatou que, embora ambos os sexos usem computadores e a Internet em igual medida, as mulheres ainda têm cinco vezes menos probabilidade de escolher essa carreira ou estudar o assunto além do ensino médio. [181] A jornalista Emily Chang disse que um dos principais problemas são os testes de personalidade em entrevistas de emprego e a crença de que bons programadores são introvertidos, o que tende a se auto-selecionar o estereótipo de um nerd branco associal. [182]

    Em 2004, o Centro Nacional para Mulheres e Tecnologia da Informação foi estabelecido por Lucy Sanders para abordar a lacuna de gênero. [183] ​​Carnegie Mellon University fez uma tentativa concertada de aumentar a diversidade de gênero no campo da ciência da computação, selecionando alunos com base em um amplo critério, incluindo capacidade de liderança, um senso de "retribuir à comunidade" e alto desempenho em matemática e ciências , em vez da experiência tradicional em programação de computadores.Além de aumentar a entrada de mulheres na CMU, o programa produziu alunos de melhor qualidade devido à maior diversidade, tornando uma equipe mais forte. [184]

    Edição dos anos 2010

    Apesar do trabalho pioneiro de alguns designers, os videogames ainda são considerados tendenciosos para os homens. Uma pesquisa de 2013 da International Game Developers Association revelou que apenas 22% dos designers de jogos são mulheres, embora isso seja substancialmente mais alto do que nas décadas anteriores. [144] Trabalhando para trazer inclusão ao mundo do desenvolvimento de projetos de código aberto, Coraline Ada Ehmke elaborou o Contribuidor Covenant em 2014. [185] Em 2018, mais de 40.000 projetos de software começaram a usar o Contribuidor Covenant, incluindo TensorFlow, Vue e Linux. [185] Em 2014, Danielle George, professora da Escola de Engenharia Elétrica e Eletrônica da Universidade de Manchester, falou nas Palestras de Natal da Royal Institution sobre o assunto "como hackear sua casa", descrevendo experimentos simples envolvendo hardware de computador e demonstrando um jogo gigante de Tetris por controle remoto de luzes em um prédio de escritórios. [186] [187]

    Em 2017, Michelle Simmons fundou a primeira empresa de computação quântica na Austrália. [188] A equipe, que fez "grandes avanços" em 2018, planeja desenvolver um protótipo de circuito integrado quântico de silício de 10 qubit até 2022. [188] No mesmo ano, Doina Precup tornou-se o chefe da DeepMind Montreal, trabalhando em inteligência artificial. [189]

    Embora a computação tenha começado como um campo fortemente dominado por mulheres, isso mudou nos países ocidentais logo após a Segunda Guerra Mundial. Nos Estados Unidos, reconhecer que o desenvolvimento de software era uma despesa significativa, as empresas queriam contratar um "programador ideal". Os psicólogos William Cannon e Dallis Perry foram contratados para desenvolver um teste de aptidão para programadores e, de uma indústria com mais de 50% de mulheres, eles selecionaram 1.400 pessoas, 1.200 delas do sexo masculino. Este jornal foi muito influente e afirmou ter "treinado a indústria" na contratação de programadores, com grande ênfase em introvertidos e homens. [190] Na Grã-Bretanha, após a guerra, mulheres programadoras foram selecionadas para redundância e aposentadoria forçada, levando o país a perder sua posição como líder da ciência da computação em 1974. [191]

    As teorias populares são favorecidas sobre a falta de mulheres na informática, o que desconsidera as circunstâncias históricas e sociais. Em 1992, John Gray's Homens são de Marte, as mulheres são de Vênus teorizaram que homens e mulheres tendem a diferir nas formas de pensar, o que os leva a abordar a tecnologia e a computação de maneiras diferentes. [192] Um problema significativo é que as mulheres trabalham em um ambiente bastante desagradável e, por isso, recusam continuar nessas carreiras. [193] Uma outra questão é que se uma classe de cientistas da computação contém poucas mulheres, essas poucas podem ser destacadas, levando ao isolamento e sentimentos de não pertencimento, que podem culminar na saída da área. [194]

    A disparidade de gênero em TI não é global. A proporção de mulheres e homens cientistas da computação é significativamente maior na Índia em comparação com o Ocidente, [195] e em 2015, mais da metade dos empreendedores de internet na China eram mulheres. [196] Na Europa, Bulgária e Romênia têm as taxas mais altas de mulheres indo para programação de computadores. [197] Em universidades governamentais na Arábia Saudita em 2014, as mulheres árabes representavam 59% dos alunos matriculados em ciência da computação. [198] Foi sugerido que há uma lacuna maior em países onde as pessoas de ambos os sexos são tratadas de forma mais igualitária, contradizendo quaisquer teorias de que a sociedade em geral é responsável por qualquer disparidade. [199] No entanto, a proporção de mulheres afro-americanas cientistas da computação nos Estados Unidos é significativamente menor do que a média global. [200] Em organizações baseadas em TI, a proporção de homens para mulheres pode variar entre as funções, por exemplo, enquanto a maioria dos desenvolvedores de software no InfoWatch são homens, metade dos designers de usabilidade e 80% dos gerentes de projeto são mulheres. [201]

    Em 1991, Ellen Spertus, estudante do Massachusetts Institute of Technology, escreveu um ensaio "Por que existem tão poucas mulheres na ciência da computação?", Examinando o sexismo inerente à TI, responsável pela falta de mulheres na computação. [202] Ela posteriormente ensinou ciência da computação no Mills College, Oakland, a fim de aumentar o interesse em TI para mulheres. [203] Um problema chave é a falta de modelos femininos na indústria de TI, ao lado de programadores de computador na ficção e na mídia geralmente sendo do sexo masculino. [204]

    Wendy Hall, da Universidade de Southampton, disse que a atratividade dos computadores para as mulheres diminuiu significativamente na década de 1980, quando "eram vendidos como brinquedos para meninos", e acredita que o estigma cultural permaneceu desde então e pode até estar piorando. [195] Kathleen Lehman, gerente de projeto da BRAID Initiative na UCLA, disse que um problema é que normalmente as mulheres buscam a perfeição e se sentem desiludidas quando o código não compila, enquanto os homens podem simplesmente tratá-lo como uma experiência de aprendizado. [200] Um relatório no Daily Telegraph sugeriu que as mulheres geralmente preferem empregos voltados para as pessoas, o que muitos cargos de computação e TI não têm, enquanto os homens preferem empregos voltados para objetos e tarefas. [205] [206] Um problema é que a história da computação se concentrou no hardware, que era um campo dominado pelos homens, apesar do software ser escrito predominantemente por mulheres no início a meados do século 20. [49]

    Em 2013, um relatório da National Public Radio disse que 20% dos programadores de computador nos EUA são mulheres. [207] [208] Não há consenso geral por qualquer motivo importante de que há menos mulheres na computação. Em 2017, James Damore foi demitido do Google após alegar que havia uma razão biológica para a falta de mulheres cientistas da computação. [195] No ano seguinte, a Wikipedia foi criticada por não ter um artigo sobre a cientista Donna Strickland até pouco depois de ela ganhar o Prêmio Nobel de Física, que foi atribuído a uma severa disparidade de gênero entre os editores do site. [209]


    Arquitetura de rede neural convolucional

    A arquitetura da CNN é semelhante ao padrão de conectividade do Neurons in the Human Brain. Um CNN adepto de capturar dependências espaciais e temporais em uma imagem usando diferentes filtros. Assim, para entender a sofisticação da imagem, a rede pode ser treinada por meio da CNN. A rede convolucional consiste em dois recursos principais: aprendizado de recursos (também conhecido como camada oculta), incluindo convolução, ReLU e pooling, e camada de classificação, incluindo FC e Softmax.

    Tecnicamente, em ConvNet cada imagem passa por uma série de camadas de convolução com múltiplos núcleos ou filtros, camada Pooling, Fully Connected e no final da rede implementa a função Softmax usa o valor probabilístico [0,1] para classificar um objeto no imagem. A Figura 1 descreve o pipeline CNN para processar uma imagem de entrada e classifica os objetos com base em valores.


    Referências

    Al-Abdessalaam, Thabit Zahran et al, Os Emirados: uma história natural . Trident Publishing, Londres, 2006

    Heard-Bey, Francis, Dos Estados Trucial aos Emirados Árabes Unidos . Motivate Publishing, 2004

    Kay, Shirley, Um retrato de Ras al-Khaimah . Motivate Publishing, 2004

    Millar, David, Além de Dubai: em busca de cidades perdidas nos Emirados. Melting Tundra Publishing, 2014

    Petraglia, M.D. e Rose, J.I., A evolução das populações humanas na Arábia: paleoambientes, pré-história e genética , Springer, 2009

    Potts, Daniel, Ancient Magan - os segredos de Tel Abraq . Trident Press, 1999

    David Millar

    David Millar estudou arqueologia e glaciologia nas Universidades de Bristol e Cambridge antes de trabalhar como jornalista científico e editor em Londres. A pobreza logo o levou para a indústria do petróleo, como resultado, ele viveu em Dubai por mais de 10 anos, onde ele. consulte Mais informação


    DO SHUFFLING DE SÍMBOLOS PARA A UNIVERSALIDADE

    A verdadeira universalidade na computação vai muito além da mera redução de problemas em outros problemas. A verdadeira universalidade significa que os computadores têm o poder representacional para computar nada. Especificamente, isso significa que uma máquina universal pode calcular ou simular qualquer tipo de padronizar.

    Como algo mecânico pode capturar a riqueza e a variação que vemos ao nosso redor? Quando passo a mão na água ou provo a maturação de um morango, não vejo sinais de alguma aritmética subjacente agitando a realidade fluida que experimento.

    Mas em uma realidade de alto nível existe de fato algum tipo de computação. As entradas são constantemente convertidas em saídas, observamos uma agitação constante à medida que os recursos são convertidos de uma forma para outra². Do meu artigo anterior sobre inteligência:

    Mas para entender como a riqueza que experimentamos pode vir de algo aparentemente tão mundano quanto o cálculo bruto, nós precisa abandonar a noção de que a matemática e a computação são rígidas e mecânicas. Precisamos ver como os símbolos podem se tornar muito mais do que eles próprios.


    Conteúdo

    A primeira ferramenta conhecida para uso em computação foi o ábaco, desenvolvido no período entre 2700 e 2300 aC na Suméria. [3] O ábaco dos sumérios consistia em uma tabela de colunas sucessivas que delimitavam as sucessivas ordens de magnitude de seu sistema numérico sexagesimal. [4]: 11 Seu estilo original de uso era por linhas desenhadas na areia com seixos. Abaci de design mais moderno ainda são usados ​​como ferramentas de cálculo hoje, como o ábaco chinês. [5]

    No século 5 aC, na Índia antiga, o gramático Pāṇini formulou a gramática do sânscrito em 3959 regras conhecidas como Ashtadhyayi, que eram altamente sistematizadas e técnicas. Panini usou metarules, transformações e recursões. [6]

    Acredita-se que o mecanismo de Antikythera seja um dos primeiros computadores analógicos mecânicos. [7] Ele foi projetado para calcular posições astronômicas. Foi descoberto em 1901 no naufrágio de Antikythera na ilha grega de Antikythera, entre Kythera e Creta, e foi datado de cerca de 100 AC. [7]

    Dispositivos de computador analógicos mecânicos apareceram novamente mil anos depois no mundo islâmico medieval e foram desenvolvidos por astrônomos muçulmanos, como o astrolábio com engrenagens mecânicas de Abū Rayhān al-Bīrūnī [8] e o torquetum de Jabir ibn Aflah. [9] De acordo com Simon Singh, os matemáticos muçulmanos também fizeram avanços importantes na criptografia, como o desenvolvimento da criptoanálise e análise de frequência por Alkindus. [10] [11] As máquinas programáveis ​​também foram inventadas por engenheiros muçulmanos, como o tocador de flauta automático dos irmãos Banū Mūsā, [12] e os autômatos humanóides programáveis ​​e o relógio do castelo de Al-Jazari, que é considerado o primeiro analógico programável computador. [13] Artefatos tecnológicos de complexidade semelhante apareceram na Europa do século 14, com relógios astronômicos mecânicos. [14]

    Quando John Napier descobriu logaritmos para fins computacionais no início do século 17, [15] seguiu-se um período de considerável progresso por parte de inventores e cientistas na criação de ferramentas de cálculo. Em 1623, Wilhelm Schickard projetou uma máquina de calcular, mas abandonou o projeto, quando o protótipo que ele havia começado a construir foi destruído por um incêndio em 1624. [16] Por volta de 1640, Blaise Pascal, um importante matemático francês, construiu um dispositivo mecânico de adição baseado em um projeto descrito pelo matemático grego Herói de Alexandria. [17] Então, em 1672 Gottfried Wilhelm Leibniz inventou o Stepped Reckoner, que ele completou em 1694. [18]

    Em 1837, Charles Babbage descreveu pela primeira vez sua Máquina Analítica, que é aceita como o primeiro projeto para um computador moderno. O motor analítico tinha memória expansível, uma unidade aritmética e recursos de processamento lógico capazes de interpretar uma linguagem de programação com loops e ramificação condicional. Embora nunca tenha sido construído, o projeto foi estudado extensivamente e é considerado o equivalente de Turing. O mecanismo analítico teria uma capacidade de memória de menos de 1 kilobyte de memória e uma velocidade de clock de menos de 10 Hertz. [19]

    Avanços consideráveis ​​na teoria matemática e eletrônica foram necessários antes que os primeiros computadores modernos pudessem ser projetados.

    Em 1702, Gottfried Wilhelm Leibniz desenvolveu a lógica em um sentido formal e matemático com seus escritos sobre o sistema numérico binário. Em seu sistema, os uns e zeros também representam verdade e falso valores ou sobre e desligado estados. Mas levou mais de um século para que George Boole publicasse sua álgebra booleana em 1854 com um sistema completo que permitia que processos computacionais fossem modelados matematicamente. [20]

    Nessa época, os primeiros dispositivos mecânicos movidos por um padrão binário foram inventados. A revolução industrial impulsionou a mecanização de muitas tarefas, incluindo a tecelagem. Cartões perfurados controlavam o tear de Joseph Marie Jacquard em 1801, onde um buraco feito no cartão indicava um binário 1 e um ponto não perfurado indicava um binário zero. O tear de Jacquard estava longe de ser um computador, mas ilustrava que as máquinas podiam ser acionadas por sistemas binários. [20]

    Charles Babbage e Ada Lovelace Editam

    Charles Babbage é frequentemente considerado um dos primeiros pioneiros da computação. Começando na década de 1810, Babbage teve uma visão de computar mecanicamente números e tabelas. Colocando isso em realidade, Babbage projetou uma calculadora para calcular números de até 8 casas decimais. Dando continuidade ao sucesso dessa ideia, Babbage trabalhou para desenvolver uma máquina que pudesse computar números com até 20 casas decimais. Na década de 1830, Babbage elaborou um plano para desenvolver uma máquina que pudesse usar cartões perfurados para realizar operações aritméticas. A máquina armazenaria números em unidades de memória e haveria uma forma de controle sequencial. Isso significa que uma operação seria realizada antes da outra de forma que a máquina produzisse uma resposta e não falhasse. Esta máquina ficou conhecida como “Máquina Analítica”, que foi a primeira representação verdadeira do que é o computador moderno. [21]

    Ada Lovelace (Augusta Ada Byron) é considerada a pioneira da programação de computadores e é considerada um gênio matemático. Lovelace começou a trabalhar com Charles Babbage como assistente enquanto Babbage trabalhava em sua “Máquina Analítica”, o primeiro computador mecânico. [22] Durante seu trabalho com Babbage, Ada Lovelace se tornou a designer do primeiro algoritmo de computador, que tinha a capacidade de calcular números de Bernoulli. [23] Além disso, o trabalho de Lovelace com Babbage resultou em sua previsão de computadores futuros não apenas para realizar cálculos matemáticos, mas também manipular símbolos, matemáticos ou não. [24] Embora ela nunca tenha sido capaz de ver os resultados de seu trabalho, como a "Máquina Analítica" não foi criada em sua vida, seus esforços nos anos posteriores, começando na década de 1840, não passaram despercebidos. [25]

    Charles Sanders Peirce e os circuitos elétricos de comutação Editar

    Em uma carta de 1886, Charles Sanders Peirce descreveu como as operações lógicas podem ser realizadas por circuitos elétricos de comutação. [26] Durante 1880-81, ele mostrou que portas NOR sozinhas (ou alternativamente portas NAND sozinhas) podem ser usadas para reproduzir as funções de todas as outras portas lógicas, mas este trabalho não foi publicado até 1933. [27] a prova foi por Henry M. Sheffer em 1913, então a operação lógica NAND às vezes é chamada de golpe de Sheffer, a NOR lógico às vezes é chamada Flecha de Peirce. [28] Consequentemente, esses portões às vezes são chamados de portas lógicas universais. [29]

    Eventualmente, tubos de vácuo substituíram relés para operações lógicas. A modificação de Lee De Forest, em 1907, da válvula de Fleming pode ser usada como uma porta lógica. Ludwig Wittgenstein introduziu uma versão da tabela verdade de 16 linhas como a proposição 5.101 de Tractatus Logico-Philosophicus (1921). Walther Bothe, inventor do circuito de coincidência, ganhou parte do Prêmio Nobel de Física em 1954, pela primeira porta eletrônica moderna E em 1924. Konrad Zuse projetou e construiu portas lógicas eletromecânicas para seu computador Z1 (de 1935 a 1938).

    Até e durante a década de 1930, os engenheiros elétricos eram capazes de construir circuitos eletrônicos para resolver problemas matemáticos e lógicos, mas a maioria o fazia em um Ad hoc forma, sem qualquer rigor teórico. Isso mudou com a teoria do circuito de comutação na década de 1930. De 1934 a 1936, Akira Nakashima, Claude Shannon e Viktor Shetakov publicaram uma série de artigos mostrando que a álgebra booleana de dois valores pode descrever a operação de comutação de circuitos. [30] [31] [32] [33] Este conceito, de utilizar as propriedades de interruptores elétricos para fazer lógica, é o conceito básico que fundamenta todos os computadores digitais eletrônicos. A teoria do circuito de comutação forneceu as bases matemáticas e as ferramentas para o projeto de sistemas digitais em quase todas as áreas da tecnologia moderna. [33]

    Enquanto fazia um curso de filosofia na graduação, Shannon foi exposto ao trabalho de Boole e reconheceu que ele poderia ser usado para arranjar relés eletromecânicos (então usados ​​em chaves de roteamento de telefone) para resolver problemas lógicos. Sua tese se tornou a base do projeto prático de circuitos digitais quando se tornou amplamente conhecida entre a comunidade de engenheiros elétricos durante e após a Segunda Guerra Mundial. [34]

    Alan Turing e a máquina de Turing Editar

    Antes da década de 1920, computadores (as vezes computors) eram funcionários humanos que realizavam cálculos. Eles geralmente estavam sob a liderança de um físico. Muitos milhares de computadores foram empregados no comércio, governo e estabelecimentos de pesquisa. Muitos desses funcionários que serviam como computadores humanos eram mulheres. [35] [36] [37] [38] Alguns realizaram cálculos astronômicos para calendários, outros tabelas balísticas para os militares. [39]

    Após a década de 1920, a expressão máquina de computação referia-se a qualquer máquina que realizasse o trabalho de um computador humano, especialmente aquelas de acordo com os métodos eficazes da tese de Church-Turing. A tese afirma que um método matemático é eficaz se puder ser apresentado como uma lista de instruções que podem ser seguidas por um escrivão humano com papel e lápis, pelo tempo que for necessário, e sem engenhosidade ou discernimento. [40]

    As máquinas que computavam com valores contínuos tornaram-se conhecidas como o analógico Gentil. Eles usaram máquinas que representavam quantidades numéricas contínuas, como o ângulo de rotação de um eixo ou a diferença no potencial elétrico. [40]

    O maquinário digital, ao contrário do analógico, era capaz de renderizar um estado de um valor numérico e armazenar cada dígito individual. A maquinaria digital usava motores de diferença ou relés antes da invenção de dispositivos de memória mais rápidos. [40]

    A frase máquina de computação gradualmente deu lugar, após o final dos anos 1940, a apenas computador à medida que o surgimento da maquinaria digital eletrônica se tornou comum. Esses computadores eram capazes de realizar os cálculos realizados pelos funcionários humanos anteriores. [40]

    Como os valores armazenados por máquinas digitais não eram vinculados a propriedades físicas como dispositivos analógicos, um computador lógico, baseado em equipamento digital, era capaz de fazer qualquer coisa que pudesse ser descrita como "puramente mecânica". A Teórica Máquina de Turing, criada por Alan Turing, é um dispositivo hipotético teorizado para estudar as propriedades de tal hardware. [40]

    As bases matemáticas da moderna ciência da computação começaram a ser estabelecidas por Kurt Gödel com seu teorema da incompletude (1931). Nesse teorema, ele mostrou que havia limites para o que poderia ser provado e contestado dentro de um sistema formal. Isso levou ao trabalho de Gödel e outros para definir e descrever esses sistemas formais, incluindo conceitos como funções mu-recursivas e funções definíveis por lambda. [41]

    Em 1936, Alan Turing e Alonzo Church independentemente, e também juntos, introduziram a formalização de um algoritmo, com limites sobre o que pode ser calculado, e um modelo "puramente mecânico" para a computação. [42] Isso se tornou a tese de Church-Turing, uma hipótese sobre a natureza dos dispositivos de cálculo mecânico, como os computadores eletrônicos. A tese afirma que qualquer cálculo possível pode ser executado por um algoritmo executado em um computador, desde que haja tempo e espaço de armazenamento suficientes disponíveis. [42]

    Em 1936, Alan Turing também publicou seu trabalho seminal sobre as máquinas de Turing, uma máquina de computação digital abstrata que agora é chamada simplesmente de máquina de Turing universal. Esta máquina inventou o princípio do computador moderno e foi o berço do conceito de programa armazenado que quase todos os computadores modernos usam. [43] Essas máquinas hipotéticas foram projetadas para determinar formalmente, matematicamente, o que pode ser calculado, levando em consideração as limitações da capacidade de computação. Se uma máquina de Turing pode completar a tarefa, ela é considerada Turing computável. [44]

    O físico de Los Alamos, Stanley Frankel, descreveu em uma carta a visão de John von Neumann sobre a importância fundamental do artigo de Turing de 1936, em uma carta: [43]

    Eu sei que por volta de 1943 ou 1944, Von Neumann estava bem ciente da importância fundamental do artigo de Turing de 1936 ... Von Neumann me apresentou a esse artigo e, por insistência dele, eu o estudei com cuidado. Muitas pessoas aclamam Von Neumann como o "pai do computador" (no sentido moderno do termo), mas tenho certeza de que ele mesmo nunca teria cometido esse erro. Ele pode muito bem ser chamado de parteira, talvez, mas ele enfatizou firmemente para mim, e para outros tenho certeza, que a concepção fundamental se deve a Turing.

    Editar hardware de computador inicial

    O primeiro computador digital eletrônico do mundo, o computador Atanasoff-Berry, foi construído no campus da Iowa State de 1939 a 1942 por John V. Atanasoff, professor de física e matemática, e Clifford Berry, estudante de graduação em engenharia.

    Em 1941, Konrad Zuse desenvolveu o primeiro computador funcional controlado por programa do mundo, o Z3. Em 1998, mostrou-se, em princípio, Turing-completo. [45] [46] Zuse também desenvolveu a máquina de computação S2, considerada o primeiro computador de controle de processo. Ele fundou uma das primeiras empresas de computadores em 1941, produzindo o Z4, que se tornou o primeiro computador comercial do mundo. Em 1946, ele projetou a primeira linguagem de programação de alto nível, Plankalkül. [47]

    Em 1948, o Manchester Baby foi concluído - ele foi o primeiro computador digital eletrônico do mundo a rodar programas armazenados em sua memória, como quase todos os computadores modernos. [43] A influência sobre Max Newman do artigo seminal de Turing de 1936 sobre as Máquinas de Turing e de suas contribuições lógico-matemáticas para o projeto foram cruciais para o desenvolvimento bem-sucedido do Bebê. [43]

    Em 1950, o National Physical Laboratory da Grã-Bretanha concluiu o Pilot ACE, um computador programável de pequena escala, baseado na filosofia de Turing. Com uma velocidade de operação de 1 MHz, o Pilot Model ACE foi por algum tempo o computador mais rápido do mundo. [43] [48] O projeto de Turing para ACE tinha muito em comum com as arquiteturas RISC de hoje e exigia uma memória de alta velocidade com aproximadamente a mesma capacidade de um computador Macintosh anterior, que era enorme para os padrões de sua época. [43] Se o ACE de Turing tivesse sido construído conforme planejado e na íntegra, ele estaria em uma liga diferente dos outros computadores anteriores. [43]

    O primeiro bug de computador real foi uma mariposa. Estava preso entre os relés do Harvard Mark II. [49] Embora a invenção do termo 'bug' seja frequentemente, mas erroneamente atribuída a Grace Hopper, uma futura contra-almirante da Marinha dos Estados Unidos, que supostamente registrou o "bug" em 9 de setembro de 1945, a maioria das outras contas conflitam pelo menos com esses detalhes. De acordo com esses relatos, a data real era 9 de setembro de 1947 quando os operadores registraram este 'incidente' - junto com o inseto e a notação "Primeiro caso real de bug sendo encontrado" (veja bug de software para detalhes). [49]

    Shannon e a teoria da informação Editar

    Claude Shannon passou a fundar o campo da teoria da informação com seu artigo de 1948 intitulado A Mathematical Theory of Communication, que aplicou a teoria da probabilidade ao problema de como codificar melhor as informações que um remetente deseja transmitir. Este trabalho é um dos fundamentos teóricos para muitas áreas de estudo, incluindo compressão de dados e criptografia. [50]

    Wiener e edição cibernética

    A partir de experimentos com sistemas antiaéreos que interpretavam imagens de radar para detectar aviões inimigos, Norbert Wiener cunhou o termo cibernética da palavra grega para "timoneiro". Ele publicou "Cybernetics" em 1948, que influenciou a inteligência artificial. Wiener também comparou computação, máquinas de computação, dispositivos de memória e outras semelhanças cognitivas com sua análise de ondas cerebrais. [51]

    John von Neumann e a arquitetura de von Neumann Editar

    Em 1946, um modelo de arquitetura de computador foi introduzido e ficou conhecido como Arquitetura Von Neumann. Desde 1950, o modelo de von Neumann forneceu uniformidade em projetos de computador subsequentes. A arquitetura de von Neumann foi considerada inovadora, pois introduziu uma ideia de permitir que instruções de máquina e dados compartilhassem espaço de memória. [52] O modelo de von Neumann é composto de três partes principais, a unidade lógica aritmética (ALU), a memória e a unidade de processamento de instruções (IPU). No projeto de máquina de von Neumann, a UIP passa endereços para a memória, e a memória, por sua vez, é roteada de volta para a UIP se uma instrução estiver sendo buscada ou para a ALU se os dados estiverem sendo buscados. [53]

    O projeto da máquina de Von Neumann usa uma arquitetura RISC (Reduced Instruction Set Computing), [ duvidoso - discutir ], o que significa que o conjunto de instruções usa um total de 21 instruções para realizar todas as tarefas. (Isso está em contraste com CISC, computação de conjunto de instruções complexas, conjuntos de instruções que têm mais instruções para escolher.) Com a arquitetura de von Neumann, memória principal junto com o acumulador (o registrador que mantém o resultado das operações lógicas) [54] são as duas memórias que são abordadas. As operações podem ser realizadas como aritmética simples (são realizadas pela ALU e incluem adição, subtração, multiplicação e divisão), ramificações condicionais (são mais comumente vistas agora como declarações ou loops while. As ramificações servem como declarações ir para) , e movimentos lógicos entre os diferentes componentes da máquina, ou seja, um movimento do acumulador para a memória ou vice-versa. A arquitetura de Von Neumann aceita frações e instruções como tipos de dados. Finalmente, como a arquitetura de von Neumann é simples, seu gerenciamento de registro também é simples. A arquitetura usa um conjunto de sete registros para manipular e interpretar dados e instruções buscados. Esses registros incluem o "IR" (registro de instrução), "IBR" (registro de buffer de instrução), "MQ" (registro de quociente do multiplicador), "MAR" (registro de endereço de memória) e "MDR" (registro de dados de memória). " [53] A arquitetura também usa um contador de programa ("PC") para manter o controle de onde a máquina está no programa. [53]

    John McCarthy, Marvin Minsky e inteligência artificial Editar

    O termo inteligência artificial foi creditado por John McCarthy para explicar a pesquisa que eles estavam fazendo para uma proposta para a Pesquisa de Verão de Dartmouth. A denominação da inteligência artificial também levou ao nascimento de um novo campo na ciência da computação. [55] Em 31 de agosto de 1955, um projeto de pesquisa foi proposto consistindo em John McCarthy, Marvin L. Minsky, Nathaniel Rochester e Claude E. Shannon. [56] O projeto oficial começou em 1956, que consistia em várias partes significativas que eles sentiram que os ajudariam a entender melhor a composição da inteligência artificial. [57]

    As ideias de McCarthy e seus colegas por trás de computadores automáticos eram: enquanto uma máquina é capaz de completar uma tarefa, o mesmo deve ser confirmado com um computador compilando um programa para realizar os resultados desejados. Eles também descobriram que o cérebro humano era muito complexo para ser replicado, não pela própria máquina, mas pelo programa. O conhecimento para produzir um programa tão sofisticado ainda não existia. [57]

    O conceito por trás disso foi olhar como os humanos entendem nossa própria linguagem e estrutura de como formamos frases, dando diferentes significados e conjuntos de regras e comparando-os a um processo de máquina. [57] A maneira como os computadores podem entender é no nível do hardware. Esta linguagem é escrita em binário (1s e 0's). Isso deve ser escrito em um formato específico que forneça ao computador o conjunto de regras para executar uma peça de hardware específica. [58]

    O processo de Minsky determinou como essas redes neurais artificiais poderiam ser organizadas para ter qualidades semelhantes às do cérebro humano. No entanto, ele só conseguiu produzir resultados parciais e precisava continuar a pesquisa sobre essa ideia. [57] No entanto, eles deveriam receber apenas resultados parciais do teste [56]

    A ideia de McCarthy e Shannon por trás dessa teoria era desenvolver uma maneira de usar problemas complexos para determinar e medir a eficiência da máquina por meio de teoria matemática e cálculos. [59] No entanto, eles deveriam receber apenas resultados parciais do teste. [57]

    A ideia por trás do autoaperfeiçoamento é como uma máquina usaria um código de auto-modificação para se tornar mais inteligente. Isso permitiria a uma máquina crescer em inteligência e aumentar as velocidades de cálculo. [60] O grupo acreditava que poderia estudar isso se uma máquina pudesse melhorar o processo de conclusão de uma tarefa na parte de abstrações de sua pesquisa. [57]

    O grupo achou que a pesquisa nesta categoria poderia ser dividida em grupos menores. Isso consistiria em informações sensoriais e outras formas de informação sobre inteligência artificial. [57] Abstrações em ciência da computação podem se referir a matemática e linguagem de programação. [61]

    A ideia deles de criatividade computacional é como o programa ou uma máquina podem ser vistos tendo formas semelhantes de pensamento humano. [62] Eles queriam ver se uma máquina poderia pegar um pedaço de informação incompleta e melhorá-lo para preencher os detalhes que faltam como a mente humana pode fazer. Se esta máquina pudesse fazer isso, eles precisariam pensar em como a máquina determinou o resultado. [57]


    Conteúdo

    Embora o progresso tecnológico esteja se acelerando na maioria das áreas (embora diminuindo em algumas), ele tem sido limitado pela inteligência básica do cérebro humano, que não mudou significativamente, de acordo com Paul R. Ehrlich, por milênios. [12] No entanto, com o crescente poder dos computadores e outras tecnologias, pode eventualmente ser possível construir uma máquina que seja significativamente mais inteligente do que os humanos. [13]

    Se uma inteligência sobre-humana fosse inventada - seja por meio da amplificação da inteligência humana ou por meio da inteligência artificial - ela traria maiores habilidades de resolução de problemas e inventivas do que os humanos atuais são capazes. Tal IA é referido como Semente AI [14] [15] porque se uma IA fosse criada com recursos de engenharia que se igualassem ou ultrapassassem aqueles de seus criadores humanos, teria o potencial de melhorar autonomamente seu próprio software e hardware ou projetar uma máquina ainda mais capaz. Essa máquina mais capaz poderia então projetar uma máquina com capacidade ainda maior. Essas iterações de autoaperfeiçoamento recursivo podem acelerar, permitindo potencialmente uma enorme mudança qualitativa antes de quaisquer limites superiores impostos pelas leis da física ou computação teórica. Especula-se que, ao longo de muitas iterações, tal IA ultrapassaria em muito as habilidades cognitivas humanas.

    A explosão de inteligência é um resultado possível da construção da inteligência geral artificial (AGI) da humanidade. AGI pode ser capaz de autoaperfeiçoamento recursivo, levando ao rápido surgimento da superinteligência artificial (ASI), cujos limites são desconhecidos, logo após a singularidade tecnológica ser alcançada.

    I. J. Good especulou em 1965 que a inteligência artificial geral poderia causar uma explosão de inteligência. Ele especulou sobre os efeitos das máquinas sobre-humanas, caso elas algum dia fossem inventadas: [16]

    Deixe uma máquina ultrainteligente ser definida como uma máquina que pode superar em muito todas as atividades intelectuais de qualquer homem, por mais inteligente que seja. Uma vez que o projeto de máquinas é uma dessas atividades intelectuais, uma máquina ultrainteligente poderia projetar máquinas ainda melhores, então, sem dúvida, haveria uma "explosão de inteligência", e a inteligência do homem ficaria para trás. Assim, a primeira máquina ultrainteligente é a última invenção que o homem precisa fazer, desde que seja dócil o suficiente para nos dizer como mantê-la sob controle.

    Emergência da superinteligência Editar

    Uma superinteligência, hiperinteligência ou inteligência sobre-humana é um agente hipotético que possui uma inteligência muito superior à das mentes humanas mais brilhantes e talentosas. "Superinteligência" também pode se referir à forma ou grau de inteligência possuída por tal agente. John von Neumann, Vernor Vinge e Ray Kurzweil definem o conceito em termos da criação tecnológica da superinteligência, argumentando que é difícil ou impossível para os humanos de hoje prever como seriam as vidas dos seres humanos em um mundo pós-singularidade . [7] [17]

    Os meteorologistas e pesquisadores de tecnologia discordam sobre quando, ou se, a inteligência humana provavelmente será superada. Alguns argumentam que os avanços na inteligência artificial (IA) provavelmente resultarão em sistemas de raciocínio geral sem limitações cognitivas humanas. Outros acreditam que os humanos irão evoluir ou modificar diretamente sua biologia para alcançar uma inteligência radicalmente maior. Vários cenários de estudos futuros combinam elementos de ambas as possibilidades, sugerindo que os humanos provavelmente farão interface com computadores, ou enviarão suas mentes para computadores, de uma forma que permita uma amplificação substancial da inteligência.

    Edição de singularidade não AI

    Alguns escritores usam "a singularidade" de uma maneira mais ampla para se referir a quaisquer mudanças radicais em nossa sociedade provocadas por novas tecnologias, como a nanotecnologia molecular, [18] [19] [20] embora Vinge e outros escritores afirmem especificamente que, sem superinteligência, tais mudanças não seriam qualificadas como uma verdadeira singularidade. [7]

    Superinteligência de velocidade Editar

    Uma superinteligência de velocidade descreve uma IA que pode fazer tudo o que um ser humano pode fazer, onde a única diferença é que a máquina funciona mais rápido. [21] Por exemplo, com um aumento de um milhão de vezes na velocidade de processamento de informações em relação aos humanos, um ano subjetivo passaria em 30 segundos físicos. [22] Essa diferença na velocidade de processamento da informação pode conduzir à singularidade. [23]

    Muitos tecnólogos e acadêmicos proeminentes contestam a plausibilidade de uma singularidade tecnológica, incluindo Paul Allen, Jeff Hawkins, John Holland, Jaron Lanier e Gordon Moore, cuja lei é freqüentemente citada em apoio ao conceito. [24] [25] [26]

    A maioria dos métodos propostos para a criação de mentes sobre-humanas ou trans-humanas se enquadra em uma de duas categorias: amplificação da inteligência do cérebro humano e inteligência artificial. As muitas maneiras especuladas de aumentar a inteligência humana incluem bioengenharia, engenharia genética, drogas nootrópicas, assistentes de IA, interfaces diretas cérebro-computador e upload mental. Esses múltiplos caminhos para uma explosão de inteligência tornam uma singularidade mais provável, pois todos eles teriam que falhar para que uma singularidade não ocorresse. [22]

    Robin Hanson expressou ceticismo em relação ao aumento da inteligência humana, escrevendo que uma vez que os "frutos mais fáceis" dos métodos fáceis para aumentar a inteligência humana tenham sido exauridos, novas melhorias se tornarão cada vez mais difíceis de encontrar. Apesar de todas as formas especuladas para amplificar a inteligência humana, a inteligência artificial não humana (especificamente a IA de semente) é a opção mais popular entre as hipóteses que avançariam a singularidade. [ citação necessária ]

    A ocorrência ou não de uma explosão de inteligência depende de três fatores. [28] O primeiro fator de aceleração são os novos aprimoramentos de inteligência possibilitados por cada melhoria anterior. Ao contrário, à medida que as inteligências se tornam mais avançadas, outros avanços se tornarão cada vez mais complicados, possivelmente superando a vantagem do aumento da inteligência. Cada melhoria deve gerar pelo menos mais uma melhoria, em média, para que o movimento em direção à singularidade continue. Finalmente, as leis da física acabarão por impedir quaisquer melhorias futuras.

    Existem duas causas logicamente independentes, mas que se reforçam mutuamente, para as melhorias de inteligência: aumentos na velocidade de computação e melhorias nos algoritmos usados. [29] O primeiro é previsto pela Lei de Moore e as melhorias previstas no hardware, [30] e é comparativamente semelhante aos avanços tecnológicos anteriores. Mas existem alguns pesquisadores de IA, [ quem? ] que acreditam que o software é mais importante do que o hardware. [31]

    Uma pesquisa de 2017 por e-mail de autores com publicações nas conferências de aprendizado de máquina NeurIPS e ICML de 2015 perguntou sobre a chance de uma explosão de inteligência. Dos entrevistados, 12% disseram que era "bastante provável", 17% disseram que era "provável", 21% disseram que era "quase par", 24% disseram que era "improvável" e 26% disseram que era "bastante improvável " [32]

    Melhorias de velocidade Editar

    Tanto para a inteligência humana quanto para a artificial, as melhorias de hardware aumentam a taxa de futuras melhorias de hardware. Simplificando, [33] a Lei de Moore sugere que se a primeira duplicação da velocidade levou 18 meses, a segunda levaria 18 meses subjetivos ou 9 meses externos, após o que, quatro meses, dois meses e assim por diante em direção a uma singularidade de velocidade. [34] Um limite superior de velocidade pode eventualmente ser alcançado, embora não esteja claro o quão alto isso seria. Jeff Hawkins afirmou que um sistema de computador que se aprimora por conta própria inevitavelmente atingirá os limites máximos de capacidade de computação: "no final, há limites para o tamanho e a velocidade dos computadores.Acabaríamos no mesmo lugar e chegaríamos lá um pouco mais rápido. Não haveria singularidade. "[35]

    É difícil comparar diretamente o hardware baseado em silício com os neurônios. Mas Berglas (2008) observa que o reconhecimento de fala por computador está se aproximando das capacidades humanas, e que essa capacidade parece exigir 0,01% do volume do cérebro. Essa analogia sugere que o hardware de computador moderno está dentro de algumas ordens de magnitude de ser tão poderoso quanto o cérebro humano.

    Edição de crescimento exponencial

    O crescimento exponencial da tecnologia de computação sugerido pela lei de Moore é comumente citado como uma razão para esperar uma singularidade em um futuro relativamente próximo, e vários autores propuseram generalizações da lei de Moore. O cientista da computação e futurista Hans Moravec propôs em um livro de 1998 [36] que a curva de crescimento exponencial poderia ser estendida por meio de tecnologias de computação anteriores ao circuito integrado.

    Ray Kurzweil postula uma lei de retornos acelerados em que a velocidade da mudança tecnológica (e mais geralmente, todos os processos evolutivos [37]) aumenta exponencialmente, generalizando a lei de Moore da mesma maneira que a proposta de Moravec, e também incluindo a tecnologia material (especialmente quando aplicada à nanotecnologia), tecnologia médica e outros. [38] Entre 1986 e 2007, a capacidade de aplicativos específicos das máquinas para computar informações per capita praticamente dobrou a cada 14 meses, a capacidade per capita dos computadores de uso geral do mundo dobrou a cada 18 meses; a capacidade global de telecomunicações per capita dobrou a cada 34 meses e a capacidade mundial de armazenamento per capita dobrou a cada 40 meses. [39] Por outro lado, argumentou-se que o padrão de aceleração global tendo a singularidade do século 21 como seu parâmetro deveria ser caracterizado como hiperbólico ao invés de exponencial. [40]

    Kurzweil reserva o termo "singularidade" para um rápido aumento da inteligência artificial (em oposição a outras tecnologias), escrevendo por exemplo que "A singularidade nos permitirá transcender essas limitações de nossos corpos biológicos e cérebros. Não haverá distinção, post -Singularidade, entre homem e máquina ". [41] Ele também define sua data prevista da singularidade (2045) em termos de quando ele espera que as inteligências baseadas em computador excedam significativamente a soma total da capacidade cerebral humana, escrevendo que os avanços na computação antes dessa data "não representarão a Singularidade" porque eles "ainda não correspondem a uma expansão profunda de nossa inteligência". [42]

    Acelerando a mudança de edição

    Alguns proponentes da singularidade argumentam sua inevitabilidade por meio da extrapolação de tendências anteriores, especialmente aquelas relativas à redução das lacunas entre os avanços da tecnologia. Em um dos primeiros usos do termo "singularidade" no contexto do progresso tecnológico, Stanislaw Ulam fala de uma conversa com John von Neumann sobre a mudança acelerada:

    Uma conversa centrou-se no progresso cada vez mais acelerado da tecnologia e nas mudanças no modo de vida humana, o que dá a impressão de se aproximar de alguma singularidade essencial na história da raça, além da qual os assuntos humanos, como os conhecemos, não poderiam continuar. [5]

    Kurzweil afirma que o progresso tecnológico segue um padrão de crescimento exponencial, seguindo o que ele chama de "lei dos retornos acelerados". Sempre que a tecnologia se aproxima de uma barreira, escreve Kurzweil, novas tecnologias irão superá-la. Ele prevê que as mudanças de paradigma se tornarão cada vez mais comuns, levando a "mudanças tecnológicas tão rápidas e profundas que representam uma ruptura no tecido da história humana". [43] Kurzweil acredita que a singularidade ocorrerá por volta de 2045. [38] Suas previsões diferem das de Vinge no sentido de que ele prevê uma ascensão gradual à singularidade, ao invés da inteligência super-humana de auto-aperfeiçoamento rápido de Vinge.

    Os perigos frequentemente citados incluem aqueles comumente associados à nanotecnologia molecular e à engenharia genética. Essas ameaças são questões importantes para os defensores e críticos da singularidade e foram o assunto do Com fio artigo da revista "Por que o futuro não precisa de nós". [6] [44]

    Melhorias no algoritmo Editar

    Algumas tecnologias de inteligência, como "seed AI", [14] [15] também podem ter o potencial de não apenas se tornarem mais rápidas, mas também mais eficientes, modificando seu código-fonte. Essas melhorias tornariam possíveis melhorias adicionais, o que tornaria possíveis melhorias adicionais, e assim por diante.

    O mecanismo para um conjunto de algoritmos de autoaperfeiçoamento recursivamente difere de um aumento na velocidade de computação bruta de duas maneiras. Em primeiro lugar, não requer influência externa: as máquinas que projetam hardware mais rápido ainda exigiriam que humanos criassem o hardware aprimorado ou programassem as fábricas de maneira adequada. [ citação necessária ] Um AI reescrevendo seu próprio código-fonte poderia fazê-lo enquanto contido em uma caixa de AI.

    Em segundo lugar, como com a concepção de Vernor Vinge da singularidade, é muito mais difícil prever o resultado. Embora os aumentos de velocidade pareçam ser apenas uma diferença quantitativa da inteligência humana, os aprimoramentos reais do algoritmo seriam qualitativamente diferentes. Eliezer Yudkowsky compara isso às mudanças que a inteligência humana trouxe: os humanos mudaram o mundo milhares de vezes mais rapidamente do que a evolução, e de maneiras totalmente diferentes. Da mesma forma, a evolução da vida foi um afastamento e uma aceleração maciça das taxas de mudança geológicas anteriores, e a inteligência aprimorada poderia fazer com que a mudança fosse tão diferente novamente. [45]

    Existem perigos substanciais associados a uma singularidade de explosão de inteligência originada de um conjunto de algoritmos de autoaperfeiçoamento recursivo. Em primeiro lugar, a estrutura de objetivo da IA ​​pode não ser invariável sob o autoaperfeiçoamento, potencialmente fazendo com que a IA seja otimizada para algo diferente do que foi originalmente planejado. [46] [47] Em segundo lugar, as IAs poderiam competir pelos mesmos recursos escassos que a humanidade usa para sobreviver. [48] ​​[49]

    Embora não sejam ativamente maliciosos, não há razão para pensar que as IAs promoveriam ativamente os objetivos humanos, a menos que pudessem ser programados como tal, e se não pudessem, poderiam usar os recursos atualmente usados ​​para apoiar a humanidade a promover seus próprios objetivos, causando a extinção humana. [50] [51] [52]

    Carl Shulman e Anders Sandberg sugerem que as melhorias do algoritmo podem ser o fator limitante para uma singularidade, enquanto a eficiência do hardware tende a melhorar em um ritmo constante, as inovações de software são mais imprevisíveis e podem ser prejudicadas por pesquisas cumulativas em série. Eles sugerem que, no caso de uma singularidade limitada por software, a explosão de inteligência se tornaria realmente mais provável do que com uma singularidade limitada por hardware, porque no caso limitado por software, uma vez que a IA de nível humano é desenvolvida, ela poderia ser executada em série em muito o hardware rápido e a abundância de hardware barato tornariam a pesquisa de IA menos restrita. [53] Uma abundância de hardware acumulado que pode ser liberado assim que o software descobrir como usá-lo tem sido chamada de "projeção de computação". [54]

    Editar Críticas

    Alguns críticos, como o filósofo Hubert Dreyfus, afirmam que os computadores ou máquinas não podem alcançar a inteligência humana, enquanto outros, como o físico Stephen Hawking, sustentam que a definição de inteligência é irrelevante se o resultado final for o mesmo. [55]

    O psicólogo Steven Pinker afirmou em 2008:

    . Não há a menor razão para acreditar em uma singularidade vindoura. O fato de você poder visualizar um futuro em sua imaginação não é evidência de que seja provável ou mesmo possível. Olhe para as cidades com cúpulas, viagens de jet-pack, cidades subaquáticas, edifícios com quilômetros de altura e automóveis movidos a energia nuclear - todos os elementos básicos das fantasias futurísticas de quando eu era criança que nunca chegaram. O poder de processamento absoluto não é um pó mágico que resolve todos os seus problemas magicamente. . [24]

    [Computadores], literalmente. sem inteligência, sem motivação, sem autonomia e sem agência. Nós os projetamos para se comportarem como se tivessem certos tipos de psicologia, mas não há realidade psicológica para os processos ou comportamentos correspondentes. . [O] maquinário não tem crenças, desejos [ou] motivações. [56]

    Martin Ford em As Luzes no Túnel: Automação, Tecnologia de Aceleração e Economia do Futuro [57] postula um "paradoxo da tecnologia" em que antes que a singularidade pudesse ocorrer a maioria dos empregos rotineiros da economia seriam automatizados, pois isso exigiria um nível de tecnologia inferior ao da singularidade. Isso causaria desemprego em massa e queda na demanda do consumidor, o que, por sua vez, destruiria o incentivo para investir nas tecnologias que seriam necessárias para produzir a Singularidade. Cada vez mais, o deslocamento não se limita mais ao trabalho tradicionalmente considerado "de rotina". [58]

    Theodore Modis [59] e Jonathan Huebner [60] argumentam que a taxa de inovação tecnológica não apenas parou de aumentar, mas na verdade está diminuindo agora. A evidência desse declínio é que o aumento nas taxas de clock do computador está diminuindo, mesmo enquanto a previsão de Moore de aumentar exponencialmente a densidade do circuito continua a se manter. Isso se deve ao aumento excessivo de calor do chip, que não pode ser dissipado com rapidez suficiente para evitar que o chip derreta ao operar em velocidades mais altas. Avanços na velocidade podem ser possíveis no futuro em virtude de designs de CPU mais eficientes em termos de energia e processadores multicelulares. [61] Enquanto Kurzweil usava os recursos de Modis, e o trabalho de Modis girava em torno de mudanças aceleradas, Modis se distanciou da tese de Kurzweil de uma "singularidade tecnológica", alegando que ela carece de rigor científico. [62]

    Em uma contabilidade empírica detalhada, O Progresso da Computação, William Nordhaus argumentou que, antes de 1940, os computadores seguiam o crescimento muito mais lento de uma economia industrial tradicional, rejeitando assim as extrapolações da lei de Moore para os computadores do século XIX. [63]

    Em um artigo de 2007, Schmidhuber afirmou que a frequência de "eventos notáveis" subjetivamente parece estar se aproximando de uma singularidade do século 21, mas advertiu os leitores a tomar tais tramas de eventos subjetivos com um grão de sal: talvez diferenças na memória de recentes e distantes eventos podem criar uma ilusão de mudança acelerada onde não existe. [64]

    Paul Allen argumentou o oposto de retornos acelerados, o freio da complexidade [26], quanto mais progresso a ciência faz no sentido de compreender a inteligência, mais difícil se torna fazer progresso adicional. Um estudo do número de patentes mostra que a criatividade humana não apresenta retornos acelerados, mas sim, conforme sugerido por Joseph Tainter em seu O colapso de sociedades complexas, [65] uma lei de rendimentos decrescentes. O número de patentes por mil atingiu o pico no período de 1850 a 1900 e tem diminuído desde então. [60] O crescimento da complexidade eventualmente se torna autolimitante e leva a um "colapso geral dos sistemas" generalizado.

    Jaron Lanier refuta a ideia de que a Singularidade é inevitável. Ele afirma: "Não acho que a tecnologia esteja se criando. Não é um processo autônomo." [66] Ele prossegue afirmando: "A razão para acreditar na agência humana sobre o determinismo tecnológico é que você pode ter uma economia onde as pessoas ganham seu próprio caminho e inventam suas próprias vidas. Se você estruturar uma sociedade não enfatizar a agência humana individual, é a mesma coisa operacionalmente que negar às pessoas influência, dignidade e autodeterminação. abraçar [a ideia da Singularidade] seria uma celebração de dados ruins e políticas ruins. "[66]

    Economista Robert J. Gordon, em A ascensão e queda do crescimento americano: o padrão de vida dos EUA desde a Guerra Civil (2016), aponta que o crescimento econômico medido desacelerou por volta de 1970 e desacelerou ainda mais desde a crise financeira de 2007-2008, e argumenta que os dados econômicos não mostram nenhum traço de uma Singularidade vindoura como imaginada pelo matemático I.J. Boa. [67]

    Além de críticas gerais ao conceito de singularidade, vários críticos levantaram questões com o gráfico icônico de Kurzweil. Uma linha de crítica é que um gráfico log-log dessa natureza é inerentemente tendencioso para um resultado em linha reta. Outros identificam viés de seleção nos pontos que Kurzweil escolhe usar. Por exemplo, o biólogo PZ Myers aponta que muitos dos primeiros "eventos" evolutivos foram escolhidos arbitrariamente. [68] Kurzweil refutou isso mapeando eventos evolutivos de 15 fontes neutras e mostrando que eles se encaixam em uma linha reta em um gráfico log-log. O economista zombou do conceito com um gráfico extrapolando que o número de lâminas em uma navalha, que aumentou ao longo dos anos de uma para até cinco, aumentará cada vez mais rápido até o infinito. [69]

    Mudanças dramáticas na taxa de crescimento econômico ocorreram no passado devido ao avanço tecnológico. Com base no crescimento populacional, a economia dobrou a cada 250.000 anos desde o Paleolítico até a Revolução Neolítica. A nova economia agrícola dobrou a cada 900 anos, um aumento notável. Na era atual, começando com a Revolução Industrial, a produção econômica mundial dobra a cada quinze anos, sessenta vezes mais rápido do que durante a era agrícola. Se o surgimento da inteligência sobre-humana causar uma revolução semelhante, argumenta Robin Hanson, seria de se esperar que a economia dobrasse pelo menos trimestralmente e, possivelmente, semanalmente. [70]

    Incerteza e risco Editar

    O termo "singularidade tecnológica" reflete a ideia de que tal mudança pode acontecer repentinamente e que é difícil prever como o novo mundo resultante operaria. [71] [72] Não está claro se uma explosão de inteligência resultando em uma singularidade seria benéfica ou prejudicial, ou mesmo uma ameaça existencial. [73] [74] Como a IA é um fator importante no risco de singularidade, várias organizações buscam uma teoria técnica de alinhar os sistemas de meta de IA com os valores humanos, incluindo o Future of Humanity Institute, o Machine Intelligence Research Institute, [71] o Centro de Inteligência Artificial Compatível com Seres Humanos e o Instituto do Futuro da Vida.

    O físico Stephen Hawking disse em 2014 que "o sucesso na criação de IA seria o maior evento da história da humanidade. Infelizmente, também pode ser o último, a menos que aprendamos como evitar os riscos." [75] Hawking acreditava que, nas próximas décadas, a IA poderia oferecer "benefícios e riscos incalculáveis", como "tecnologia que supera os mercados financeiros, supera os pesquisadores humanos, supera a manipulação dos líderes humanos e desenvolve armas que nem mesmo podemos entender." [75] Hawking sugeriu que a inteligência artificial deveria ser levada mais a sério e que mais deveria ser feito para se preparar para a singularidade: [75]

    Assim, diante de possíveis futuros de riscos e benefícios incalculáveis, os especialistas com certeza estão fazendo todo o possível para garantir o melhor resultado, certo? Errado. Se uma civilização alienígena superior nos enviasse uma mensagem dizendo: "Chegaremos em algumas décadas", responderíamos apenas: "OK, ligue-nos quando chegar aqui - deixaremos as luzes acesas"? Provavelmente não - mas isso é mais ou menos o que está acontecendo com a IA.

    Berglas (2008) afirma que não há motivação evolutiva direta para uma IA ser amigável aos humanos. A evolução não tem tendência inerente de produzir resultados valorizados pelos humanos, e há poucos motivos para esperar que um processo de otimização arbitrário promova um resultado desejado pela humanidade, em vez de inadvertidamente levar a uma IA se comportando de uma forma não pretendida por seus criadores. [76] [77] [78] Anders Sandberg também elaborou esse cenário, abordando vários contra-argumentos comuns. [79] O pesquisador de IA Hugo de Garis sugere que as inteligências artificiais podem simplesmente eliminar a raça humana para ter acesso a recursos escassos, [48] [80] e os humanos seriam impotentes para detê-los. [81] Alternativamente, IAs desenvolvidos sob pressão evolutiva para promover sua própria sobrevivência poderiam superar a humanidade. [52]

    Bostrom (2002) discute cenários de extinção humana e lista a superinteligência como uma possível causa:

    Quando criamos a primeira entidade superinteligente, podemos cometer um erro e atribuir a ela objetivos que a levem a aniquilar a humanidade, supondo que sua enorme vantagem intelectual lhe dê o poder de fazê-lo. Por exemplo, podemos elevar erroneamente uma submeta ao status de supermeta. Dizemos a ele para resolver um problema matemático e ele obedece transformando toda a matéria do sistema solar em um gigantesco dispositivo de cálculo, matando no processo a pessoa que fez a pergunta.

    De acordo com Eliezer Yudkowsky, um problema significativo na segurança da IA ​​é que a inteligência artificial hostil é provavelmente muito mais fácil de criar do que a IA amigável. Embora ambos exijam grandes avanços no design do processo de otimização recursiva, a IA amigável também requer a capacidade de tornar as estruturas de metas invariáveis ​​sob o autoaperfeiçoamento (ou a IA poderia se transformar em algo hostil) e uma estrutura de metas que se alinhe com os valores humanos e não automaticamente destruir a raça humana. Uma IA hostil, por outro lado, pode otimizar para uma estrutura de objetivo arbitrária, que não precisa ser invariável sob automodificação. [82] Bill Hibbard (2014) erro harvtxt: sem alvo: CITEREFBill_Hibbard2014 (ajuda) propõe um projeto de IA que evita vários perigos, incluindo autoilusão, [83] ações instrumentais não intencionais, [46] [84] e corrupção do gerador de recompensa . [84] Ele também discute os impactos sociais da IA ​​[85] e testes de IA. [86] Seu livro de 2001 Máquinas Superinteligentes defende a necessidade de educação pública sobre IA e controle público sobre IA. Ele também propôs um design simples que era vulnerável à corrupção do gerador de recompensa.

    Próxima etapa da evolução sociobiológica Editar

    Embora a singularidade tecnológica seja geralmente vista como um evento repentino, alguns estudiosos argumentam que a velocidade atual da mudança já se encaixa nessa descrição. [ citação necessária ]

    Além disso, alguns argumentam que já estamos no meio de uma grande transição evolutiva que mescla tecnologia, biologia e sociedade. A tecnologia digital se infiltrou no tecido da sociedade humana a um grau de dependência indiscutível e, muitas vezes, sustentável.

    Um artigo de 2016 em Tendências em ecologia e evolução argumenta que "os humanos já adotam fusões de biologia e tecnologia. Passamos a maior parte de nosso tempo de vigília nos comunicando por canais mediados digitalmente. confiamos na inteligência artificial em nossas vidas por meio da frenagem antibloqueio em carros e pilotos automáticos em aviões. Com um em cada três casamentos na América começando online, algoritmos digitais também estão desempenhando um papel na união e reprodução de pares humanos ".

    O artigo argumenta ainda que, da perspectiva da evolução, várias Transições Principais na Evolução anteriores transformaram a vida por meio de inovações no armazenamento e replicação de informações (RNA, DNA, multicelularidade e cultura e linguagem). No estágio atual da evolução da vida, a biosfera baseada em carbono gerou um sistema cognitivo (humanos) capaz de criar tecnologia que resultará em uma transição evolutiva comparável.

    A informação digital criada por humanos atingiu uma magnitude semelhante à informação biológica na biosfera. Desde a década de 1980, a quantidade de informações digitais armazenadas dobrou a cada 2,5 anos, atingindo cerca de 5 zetabytes em 2014 (5 × 10 21 bytes). [88]

    Em termos biológicos, há 7,2 bilhões de humanos no planeta, cada um com um genoma de 6,2 bilhões de nucleotídeos. Uma vez que um byte pode codificar quatro pares de nucleotídeos, os genomas individuais de cada ser humano no planeta poderiam ser codificados em aproximadamente 1 × 10 19 bytes. O mundo digital armazenou 500 vezes mais informações do que isso em 2014 (veja a figura). A quantidade total de DNA contido em todas as células da Terra é estimada em cerca de 5,3 × 10 37 pares de bases, equivalente a 1,325 × 10 37 bytes de informação.

    Se o crescimento do armazenamento digital continuar em sua taxa atual de 30-38% de crescimento anual composto por ano, [39] ele irá rivalizar com o conteúdo total de informações contidas em todo o DNA em todas as células da Terra em cerca de 110 anos. Isso representaria uma duplicação da quantidade de informações armazenadas na biosfera em um período total de apenas 150 anos ". [87]

    Implicações para a sociedade humana Editar

    Em fevereiro de 2009, sob os auspícios da Associação para o Avanço da Inteligência Artificial (AAAI), Eric Horvitz presidiu uma reunião dos principais cientistas da computação, pesquisadores de inteligência artificial e roboticistas em Asilomar em Pacific Grove, Califórnia. O objetivo era discutir o impacto potencial da possibilidade hipotética de que os robôs se tornassem autossuficientes e capazes de tomar suas próprias decisões. Eles discutiram até que ponto os computadores e robôs podem ser capazes de adquirir autonomia e até que ponto eles podem usar essas habilidades para representar ameaças ou perigos. [89]

    Algumas máquinas são programadas com várias formas de semi-autonomia, incluindo a capacidade de localizar suas próprias fontes de energia e escolher alvos para atacar com armas. Além disso, alguns vírus de computador podem escapar da eliminação e, de acordo com os cientistas presentes, pode-se dizer que atingiram um estágio de "barata" da inteligência da máquina. Os participantes da conferência notaram que a autoconsciência, conforme retratada na ficção científica, é provavelmente improvável, mas que existem outros perigos e armadilhas em potencial. [89]

    Frank S. Robinson prevê que, uma vez que os humanos alcancem uma máquina com a inteligência de um humano, os problemas científicos e tecnológicos serão enfrentados e resolvidos com uma capacidade cerebral muito superior à dos humanos. Ele observa que os sistemas artificiais são capazes de compartilhar dados mais diretamente do que os humanos, e prevê que isso resultaria em uma rede global de superinteligência que diminuiria a capacidade humana. [90] Robinson também discute como o futuro seria potencialmente diferente após tal explosão de inteligência. Um exemplo disso é a energia solar, onde a Terra recebe muito mais energia solar do que a humanidade capta, portanto, capturar mais dessa energia solar seria uma grande promessa para o crescimento civilizacional.

    Em um cenário de decolagem difícil, um AGI se auto-melhora rapidamente, "assumindo o controle" do mundo (talvez em questão de horas), muito rapidamente para correção de erro significativa iniciada por humanos ou para um ajuste gradual dos objetivos do AGI. Em um cenário de decolagem suave, o AGI ainda se torna muito mais poderoso do que a humanidade, mas em um ritmo semelhante ao humano (talvez na ordem de décadas), em uma escala de tempo em que a interação humana contínua e a correção podem efetivamente conduzir o desenvolvimento do AGI. [92] [93]

    Ramez Naam argumenta contra uma decolagem difícil. Ele apontou que já vemos o autoaperfeiçoamento recursivo por superinteligências, como as corporações. A Intel, por exemplo, tem "a capacidade intelectual coletiva de dezenas de milhares de humanos e provavelmente milhões de núcleos de CPU para. Projetar CPUs melhores!" No entanto, isso não levou a uma decolagem difícil, em vez disso, levou a uma decolagem suave na forma da lei de Moore. [94] Naam aponta ainda que a complexidade computacional de inteligência superior pode ser muito maior do que linear, de tal forma que "criar uma mente de inteligência 2 é provavelmente mais que duas vezes mais difícil do que criar uma mente inteligente 1. "[95]

    J. Storrs Hall acredita que "muitos dos cenários mais comumente vistos para decolagem dura durante a noite são circulares - eles parecem assumir capacidades hiper-humanas no ponto de partida do processo de autoaperfeiçoamento "para que uma IA seja capaz de realizar as melhorias dramáticas de domínio geral necessárias para a decolagem. Hall sugere que, em vez de autoaperfeiçoar recursivamente seu hardware, software e infraestrutura por conta própria, um A IA incipiente seria melhor se especializar em uma área onde fosse mais eficaz e, em seguida, comprar os componentes restantes no mercado, porque a qualidade dos produtos no mercado melhora continuamente, e a IA teria dificuldade em acompanhar o corte. tecnologia de ponta usada pelo resto do mundo. [96]

    Ben Goertzel concorda com a sugestão de Hall de que uma nova IA de nível humano faria bem em usar sua inteligência para acumular riqueza. Os talentos da IA ​​podem inspirar empresas e governos a espalhar seu software pela sociedade. Goertzel é cético quanto a uma decolagem difícil de cinco minutos, mas especula que uma decolagem do nível humano para o sobre-humano na ordem de cinco anos é razoável. Goerzel refere-se a esse cenário como uma "decolagem semifruta". [97]

    Max More discorda, argumentando que se houvesse apenas algumas IAs super-rápidas de nível humano, eles não mudariam radicalmente o mundo, pois ainda dependeriam de outras pessoas para fazer as coisas e ainda teriam restrições cognitivas humanas. Mesmo se todos os IAs super-rápidos funcionassem no aumento da inteligência, não está claro por que eles fariam melhor de forma descontínua do que os cientistas cognitivos humanos existentes na produção de inteligência super-humana, embora a taxa de progresso aumentasse. More ainda argumenta que uma superinteligência não transformaria o mundo da noite para o dia: uma superinteligência precisaria se envolver com sistemas humanos lentos existentes para realizar impactos físicos no mundo. "A necessidade de colaboração, de organização e de colocar ideias em mudanças físicas garantirá que todas as regras antigas não sejam descartadas da noite para o dia ou dentro de anos." [98]

    Em seu livro de 2005, A singularidade está próxima, Kurzweil sugere que os avanços médicos permitiriam às pessoas proteger seus corpos dos efeitos do envelhecimento, tornando a expectativa de vida ilimitada. Kurzweil argumenta que os avanços tecnológicos na medicina nos permitiriam continuamente reparar e substituir componentes defeituosos em nossos corpos, prolongando a vida até uma idade indeterminada. [99] Kurzweil reforça ainda mais seu argumento, discutindo os avanços atuais da bioengenharia. Kurzweil sugere terapia gênica somática após vírus sintéticos com informações genéticas específicas, o próximo passo seria aplicar essa tecnologia à terapia gênica, substituindo o DNA humano por genes sintetizados. [100]

    K. Eric Drexler, um dos fundadores da nanotecnologia, postulou dispositivos de reparo de células, incluindo aqueles que operam dentro das células e utilizando máquinas biológicas ainda hipotéticas, em seu livro de 1986 Motores de Criação.

    De acordo com Richard Feynman, foi seu ex-aluno de graduação e colaborador Albert Hibbs quem originalmente sugeriu a ele (por volta de 1959) a ideia de um médico usar para as micromáquinas teóricas de Feynman. Hibbs sugeriu que certas máquinas de conserto poderiam um dia ter seu tamanho reduzido a ponto de ser, em teoria, possível (como disse Feynman) "engolir o médico". A ideia foi incorporada ao ensaio de Feynman de 1959 Há muito espaço no fundo. [101]

    Além de simplesmente estender a vida operacional do corpo físico, Jaron Lanier defende uma forma de imortalidade chamada "Ascensão Digital" que envolve "pessoas morrendo na carne e sendo carregadas em um computador e permanecendo conscientes". [102]

    Um artigo de Mahendra Prasad, publicado em AI Magazine, afirma que o matemático do século 18 Marquês de Condorcet foi a primeira pessoa a hipotetizar e modelar matematicamente uma explosão de inteligência e seus efeitos na humanidade. [103]

    Uma descrição inicial da ideia foi feita no conto de John Wood Campbell Jr. de 1932 "A última evolução".

    Em seu obituário de 1958 para John von Neumann, Ulam lembrou uma conversa com von Neumann sobre o "progresso cada vez mais acelerado da tecnologia e as mudanças no modo de vida humana, o que dá a aparência de se aproximar de alguma singularidade essencial na história da raça além da qual os assuntos humanos, como os conhecemos, não podiam continuar. " [5]

    Em 1965, Good escreveu seu ensaio postulando uma "explosão de inteligência" de autoaperfeiçoamento recursivo da inteligência de uma máquina.

    Em 1981, Stanisław Lem publicou seu romance de ficção científica Golem XIV. Descreve um computador de IA militar (Golem XIV) que adquire consciência e passa a aumentar sua inteligência, caminhando em direção à singularidade tecnológica pessoal. Golem XIV foi originalmente criado para ajudar seus construtores em guerras, mas como sua inteligência avança para um nível muito mais alto que o dos humanos, ele deixa de se interessar pelos requisitos militares porque os considera carentes de consistência lógica interna.

    Em 1983, Vernor Vinge popularizou enormemente a explosão da inteligência de Good em uma série de escritos, abordando pela primeira vez o tópico na edição de janeiro de 1983 da Omni revista. Neste artigo, Vinge parece ter sido o primeiro a usar o termo "singularidade" de uma forma que foi especificamente ligada à criação de máquinas inteligentes: [104] [105]

    Em breve criaremos inteligências maiores do que a nossa. Quando isso acontecer, a história humana terá alcançado uma espécie de singularidade, uma transição intelectual tão impenetrável quanto o nó-espaço-tempo no centro de um buraco negro, e o mundo passará muito além de nossa compreensão. Essa singularidade, acredito, já assombra vários escritores de ficção científica. Torna impossível a extrapolação realista para um futuro interestelar. Para escrever uma história que se passa em mais de um século, é necessária uma guerra nuclear no meio. para que o mundo permaneça inteligível.

    Em 1985, em "The Time Scale of Artificial Intelligence", o pesquisador de inteligência artificial Ray Solomonoff articulou matematicamente a noção relacionada do que ele chamou de "ponto infinito": se uma comunidade de pesquisa de IAs de autoaperfeiçoamento em nível humano levar quatro anos para dobrar sua própria velocidade, depois dois anos, depois um ano e assim por diante, suas capacidades aumentam infinitamente em tempo finito. [6] [106]

    O artigo de Vinge de 1993 "The Coming Technological Singularity: How to Survive in the Post-Human Era", [7] se espalhou amplamente na internet e ajudou a popularizar a ideia. [107] Este artigo contém a declaração: "Dentro de trinta anos, teremos os meios tecnológicos para criar inteligência sobre-humana. Pouco depois, a era humana terminará." Vinge argumenta que os autores de ficção científica não podem escrever personagens pós-singularidade realistas que superem o intelecto humano, já que os pensamentos de tal intelecto estariam além da capacidade de expressão dos humanos. [7]

    Em 2000, Bill Joy, um tecnólogo proeminente e cofundador da Sun Microsystems, expressou preocupação com os perigos potenciais da singularidade. [44]

    Em 2005, Kurzweil publicou A singularidade está próxima. A campanha publicitária de Kurzweil incluiu uma aparição em The Daily Show com Jon Stewart. [108]

    Em 2007, Eliezer Yudkowsky sugeriu que muitas das definições variadas que foram atribuídas a "singularidade" são mutuamente incompatíveis em vez de se apoiarem mutuamente. [19] [109] Por exemplo, Kurzweil extrapola as trajetórias tecnológicas atuais além da chegada da IA ​​de autoaperfeiçoamento ou inteligência sobre-humana, que Yudkowsky argumenta que representa uma tensão tanto com a ascensão descontínua proposta de I. J. Good quanto com a tese de Vinge sobre a imprevisibilidade. [19]

    Em 2009, Kurzweil e o fundador do X-Prize Peter Diamandis anunciaram o estabelecimento da Singularity University, um instituto privado não credenciado cuja missão declarada é "educar, inspirar e capacitar líderes para aplicar tecnologias exponenciais para enfrentar os grandes desafios da humanidade." [110] Financiada pelo Google, Autodesk, ePlanet Ventures e um grupo de líderes da indústria de tecnologia, a Singularity University está sediada no Ames Research Center da NASA em Mountain View, Califórnia. A organização sem fins lucrativos administra um programa anual de pós-graduação de dez semanas durante o verão, que cobre dez tecnologias diferentes e áreas afins, e uma série de programas executivos ao longo do ano.

    Em 2007, o Comitê Econômico Conjunto do Congresso dos Estados Unidos divulgou um relatório sobre o futuro da nanotecnologia. Ele prevê mudanças tecnológicas e políticas significativas no futuro de médio prazo, incluindo possível singularidade tecnológica. [111] [112] [113]

    O ex-presidente dos Estados Unidos Barack Obama falou sobre a singularidade em sua entrevista ao Com fio em 2016: [114]

    Uma coisa sobre a qual não conversamos muito, e só quero voltar, é que realmente temos que pensar nas implicações econômicas. Porque a maioria das pessoas não está gastando muito tempo agora se preocupando com a singularidade - elas estão se preocupando com "Bem, meu trabalho será substituído por uma máquina?"


    Volvelle: A máquina de papel projetada para calcular o tempo e computar a verdade da religião - História

    Métricas de avaliação: notas rápidas

    • Macro: média das pontuações das sentenças
    • Micro: corpus (soma numeradores e denominadores para cada par hipótese-referência (s) antes da divisão)
    1. BLEU (Understudy de Avaliação BiLingual)
    2. 'Mede quantas palavras se sobrepõem em uma determinada tradução em comparação com uma tradução de referência, dando pontuações mais altas para palavras sequenciais.' (lembrar)
    3. Limitação:
      • Não considera diferentes tipos de erros (inserções, substituições, sinônimos, paráfrase, radicais)
      • Projetado para ser uma medida de corpus, por isso tem propriedades indesejáveis ​​quando usado para frases únicas.
  • GLEU (Google-BLEU)
  • Mínimo de recall BLEU e precisão aplicada a 1, 2, 3 e 4 gramas
    • Lembre-se: (número de n-gramas correspondentes) / (número de n-gramas totais no alvo)
    • Precisão: (número de n-gramas correspondentes) / (número de n-gramas totais na sequência gerada)
  • Correlaciona bem com a métrica BLEU em uma métrica corpus, mas não tem suas desvantagens para o objetivo de recompensa por frase.
  • Não deve ser confundido com Compreensão da Avaliação de Linguagem Generalizada ou BLEU generalizado, também conhecido como GLEU
    • Napoles et al. Artigo ACL de 2015: Verdade fundamental para métricas de correção de erros gramaticais
    • Napoles et al. 2016: GLEU sem ajuste
      • É necessário um pequeno ajuste à medida que o número de referências aumenta.
    • Variante simples do BLEU, ele se adapta muito mais aos julgamentos humanos.
    • "Em MT, uma palavra ou frase não traduzida quase sempre é um erro, mas em GEC, esse não é o caso."
      • GLEU: "calcula precisões de n-gramas sobre a referência, mas atribui mais peso para n-gramas que foram alteradas corretamente a partir da fonte."
  • NÓS SOMOS (Taxa de erros de palavras)
    • Distância de Levenshtein (distância de edição) para palavras: número mínimo de edições (inserção, exclusões ou substituições) necessárias para transformar a frase da hipótese na referência.
    • Faixa: maior que 0 (ref = hip), sem faixa máxima, pois o Reconhecedor Automático de Fala (ASR) pode inserir um número arbitrário de palavras
    • $ WER = frac= frac$
      • S: número de substituições, D: número de exclusões, I: número de inserções, C: número de acertos, N: número de palavras na referência ($ N = S + D + C $)
    • WAcc (precisão de palavras) ou taxa de reconhecimento de palavras (WRR): $ 1 - WER $
    • Limitação: não fornece detalhes sobre a natureza dos erros de tradução
      • Erros diferentes são tratados igualmente, mesmo que possam influenciar o resultado de forma diferente (sendo mais perturbadores ou mais difíceis / mais fáceis de serem corrigidos).
      • Se você olhar a fórmula, não há distinção entre um erro de substituição e uma exclusão seguida por um erro de inserção.
    • Possível solução proposta por Hunt (1990):
      • Uso de uma medida ponderada
      • $ WER = frac$
      • Problema:
        • A métrica é usada para comparar sistemas, então não está claro se a fórmula de Hunt pode ser usada para avaliar o desempenho de um único sistema
        • Quão eficaz esta medida é para ajudar um usuário na correção de erros
    • Veja mais informações
  • METEORO (Métrica para avaliação da tradução com ordenação explícita):
    • Artigo de Banerjee 2005: Meteor: uma métrica automática para avaliação de MT com altos níveis de correlação com julgamentos humanos
    • Sobre: ​​"com base na média harmônica de precisão unigrama e rechamada (com peso superior à precisão)"
    • Inclui: correspondência exata de palavra, radical e sinônimo
    • Projetado para corrigir alguns dos problemas encontrados na métrica BLEU, ao mesmo tempo que produz uma boa correlação com o julgamento humano no nível da frase ou do segmento (ao contrário do BLEU, que busca correlação no nível do corpus).
  • TER (Taxa de edição da tradução)
    • Snover et al. Artigo de 2006: Um estudo da taxa de edição da tradução com anotação humana direcionada
    • Número de edições (exclusão, adição e substituição de palavras) necessárias para fazer uma tradução automática corresponder exatamente à tradução de referência mais próxima em fluência e semântica
    • TER = $ frac$ = (número mínimo de edições) / (comprimento médio do texto de referência)
    • Geralmente é preferível ao BLEU para estimar o esforço de pós-edição da frase. Fonte.
    • char-TER: nível de personagem TER
    1. ROUGE (Understudy Orientado a Recall para Avaliação de Gisting)
      • Lin 2004: ROUGE: Um Pacote para Avaliação Automática de Resumos
      • Pacote para avaliação automática de resumos
    1. CIDEr (avaliação de descrição de imagem baseada em consenso)
      • Vedantam et al. 2015: CIDEr: Avaliação de descrição de imagem baseada em consenso
      • Usado como uma medida para a qualidade da legenda da imagem

    Marque com estrela ou bifurque se este código foi útil para você. Se você usar em um artigo, cite como:


    Assista o vídeo: Nova Biblioteca PUC Rio (Pode 2022).