????… ??? ?? ??? ?? ????? Learn – Aprenda como a codificação de caracteres funciona na ciência da computação

Use caracteres codificados e hackear fontes diferentes para qualquer site. Divirta-se enquanto aprende conceitos de programação.

Antoine Solnichkin Blocked Desbloquear Seguir Seguindo 6 de janeiro

Dica: Eu não subornei a Equipe de Web Design Médio para adicionar minhas próprias fontes de fantasia! Ainda não… ?

H ave que você sempre sonhou sobre o uso de fontes personalizadas fantasia onde quiser na web? Você já pode ver um exemplo usado neste artigo da Medium, mas e se você pudesse usar esse pequeno truque em todos os lugares? Facebook, Youtube, Reddit, LinkedIn, Twitch, etc.

Não seria legal? Aqui estão alguns exemplos do que é possível.

LinkedIn, Reddit, até títulos de vídeos do youtube!

Hoje, estamos discutindo um tópico mais leve, porém muito interessante, da ciência da computação: a codificação de caracteres .

I – Uma rápida olhada na linguagem de computadores

Se você alguma vez já codificou algo que “parece um hack mas funciona”, lembre-se que um processador é literalmente uma rocha que nos levou a pensar

Esta afirmação engraçada, mas incrivelmente realista de Daisyowl, que não poderia ser mais verdadeira. Uma CPU e um computador em si são apenas uma questão que "enganamos para pensar". Mas nós não paramos por aí. Nós também o enganamos para sermos capazes de entender a linguagem humana – ie. números, letras, o alfabeto grego e até… emojis!

Mas como faríamos isso?

Os computadores entendem os bits: 0 e 1. É simplesmente um impulso elétrico ou nada. Eles não entendem letras, números ou emojis. Humanos fazem.

Para representar textos, imagens e vídeos, inventamos alguns padrões para converter a linguagem de computador em linguagem humana e vice-versa. Hoje, vamos pular em um subconjunto desses padrões , aplicados à representação de texto, que são os padrões ASCII e Unicode .

II – Antes das letras, havia números

Antes de podermos traduzir letras, temos que ser capazes de traduzir bits em números e números em bits. Para isso, usamos uma ferramenta muito poderosa, que é representação binária.

O que é representação binária? A representação de um número em bits! Isso significa que qualquer número, dado uma quantidade suficiente de bits, pode ser codificado usando a representação binária e, como conseqüência, pode ser entendido por um computador.

Os computadores não são inteligentes?

Freqüentemente, os números são codificados usando 8 bits (que na verdade é chamado de byte) ou 16 bits. A diferença entre os dois é a quantidade de números que podemos codificar usando um sistema ou outro. Com 8 bits, somos capazes de representar 2? (256) números possíveis. Com 16 bits, você está lidando com 2¹? possibilidades. Isso é 65536 combinações.

Então, agora que sabemos que podemos converter números em bits, como convertemos nossas letras em bits?

III – Conheça ASCII e Unicode

O ASCII (Código Padrão Americano para Intercâmbio de Informações) é uma norma criada para resolver esse problema. Criada em 1960, atribui uma letra a um número e esse número é então convertido em uma representação binária. Dê uma olhada na tabela abaixo:

Tabela ASCII – 1960

Lendo desta tabela, a letra “A” é (começando dos bits de ordem mais alta até os bits de ordem mais baixa) seria 1000001 ou 01000001 no ASCII estendido. Converter esse valor em uma representação decimal forneceria o número 065.

Lembra quando falamos sobre o número de possibilidades que podemos ter codificando em 7 bits? Esse 2?, portanto, o ASCII é capaz de codificar 128 caracteres.

Essa é uma quantidade decente de personagens. Definitivamente o suficiente para codificar todo o alfabeto latino, além de alguns sinais comuns, como colchetes e pontos de interrogação. Mas será que é suficiente para cada representação gráfica que nós humanos possamos escrever? Certamente não. Temos diferentes alfabetos, emojis e inúmeros sinais para formalizar nossos pensamentos. Precisamos de mais possibilidades.

Para resolver esse problema, os programadores construíram o Unicode. Unicode é um padrão que atribui um número ( chamado de ponto de código ) a cada caractere no mundo, e eles ainda estão trabalhando nisso!

Agora não entenda errado. O Unicode não define como ENCODER os caracteres – é apenas um mapeamento entre uma representação gráfica de um símbolo e um número . O Unicode é definido pela codificação de caracteres, como UTF-8, UTF-16 e UTF-32, usados para converter pontos de código Unicode em representação de bytes.

Emojis também recebem um ponto de código!

IV – se divertindo

Agora que você sabe o que está por trás do meu pequeno truque, é hora de você se divertir e finalmente ser notado no Reddit!

A ferramenta que usei para criar esse título sofisticado é o Fancy Text Generator , basta colar o texto que você deseja transformar em Unicode e copiá-lo para qualquer plataforma que desejar: vídeos do Youtube, posts do Reddit, compartilhamentos do LinkedIn ou Facebook e muitos mais.

Não hesite em compartilhar suas criações mais legais comigo e, como sempre, se você gostou do artigo, aplauda! Se você quiser mais artigos sobre engenharia de software, fique à vontade para nos seguir!

Sempre bata palmas!