Digitalização e impressão 3D LiDAR do iPhone 12 Pro: O que isso significa?

Durante anos, as pessoas especularam quando ou se a digitalização 3D chegará aos telefones celulares. A aquisição de várias empresas de digitalização 3D pela Apple e o Projeto Tango do Google geraram discussões intermináveis. Mas, como a aquisição PrimeSense foi muito falado em 2013, a aquisição LinX alimentou muita especulação em 2015,  a câmera TrueDepth ia mudar tudo em 2017, e ARKit sempre foi emocionante para nós, pois coisas como reconhecimento de objetos e imagem a reconstrução também beneficiaria a impressão 3D. A realidade costuma ser mais parecida com melaço gotejante do que avanços relâmpagos sonhados.Tarde da noite em bares e sussurros silenciosos em corredores mencionavam enormes quantidades de sensores sendo comprados e funcionando em software de conserto de arquivos. Investimentos e lançamentos iminentes acabaram levando anos para serem concluídos. 

Com bilhões de dispositivos em todo o mundo, a digitalização 3D em smartphones pode tornar a digitalização 3D uma tecnologia que muitas pessoas usam no dia a dia. Além do mais, uma capacidade nativa de digitalização 3D pode nos permitir esculpir objetos no ar ou personalizar objetos por meio de aplicativos simples. Na verdade, traria o poder do software para resolver nosso problema de que ninguém pode modelar nada em 3D. Para que todos se envolvam na impressão 3D, eles precisariam de uma maneira simples do Twitter para inserir seus projetos e ideias.

Se olharmos para a customização em massa, também, ela está sendo retida atualmente. Exige esforço ir a uma loja e fazer a varredura em 3D. Se o seu telefone for um bom scanner 3D, você poderá digitalizar a si mesmo e obter luvas exclusivas impressas em 3D, ou um taco de golfe ou um encosto de cabeça para o seu carro. A personalização em massa seria uma tecnologia de tempo ocioso disponível em qualquer lugar, sujeita a gratificação quase instantânea, se a digitalização 3D estivesse disponível em todos os telefones. A digitalização 3D baseada em telefone seria a melhor e maior coisa que poderia acontecer ao nosso setor, além de nossos próprios esforços para melhorar a nós mesmos. 

A boa notícia é que a digitalização 3D em telefones está aqui … mais ou menos. Desta vez, finalmente vai acontecer … de novo. Os novos iPhones da Apple suportam uma série de recursos de digitalização que podem evoluir para ser altamente impactantes para nós. O suporte de software para STL e coisas como reconhecimento de objetos por meio de digitalização 3D também podem ser impactantes. No front de hardware, o Neural Engine do chip A14 habilitará aplicativos de aprendizado de máquina. O chip também tem 30% mais desempenho gráfico e processamento de imagem mais rápido, o que será muito útil para aplicativos de digitalização. 

A câmera TrueDepth permite o reconhecimento facial. Em 2017, este era um scanner de luz estruturado usando um projetor IR. Agora é a hora do vôo. Enquanto isso, na outra face dos modelos Apple Pro, você obtém três câmeras (principal, ampla e telefoto), além do LiDAR. LiDAR é uma tecnologia de digitalização 3D usada com mais frequência para objetos do tamanho de edifícios ou salas. A Apple parece querer implantá-lo para realmente trazer objetos de RA para nossas salas de estar ou para permitir aplicativos de digitalização do tamanho da sala. Ele possui um scanner de tempo de vôo que pode medir distâncias com precisão e capturar cenas em um intervalo de cinco metros.

Para a Apple, é claro, ser capaz de se mover de forma realista em ambientes de jogo e fazer coisas como experimentar produtos virtualmente será significativo. Em casa, apenas a capacidade de ver o tamanho da TV que você encontrou online ou de ver virtualmente como sua nova mesa se encaixará em sua casa pode ter um grande impacto para o comércio eletrônico. Experimentar roupas virtuais também pode ser enorme, já que os compradores online devolvem cerca de 40% das roupas compradas na web.

Enquanto isso, o tipo de nível de detalhe de que você precisa para a impressão 3D pode não estar previsto. O número de pontos provavelmente não será o suficiente. Não está claro se podemos extrair uma nuvem de pontos e ainda não se sabe como o reparo dessa nuvem de pontos funcionaria. 

Para a Apple agora, a medição superprecisa e a varredura de quartos abrirão um mundo de RA inteiro, bem como muitas possibilidades em aplicativos, como: experimente novas cores de pintura, calcule quanto papel de parede você precisa, ajuste sua nova cozinha, Escaneie 3D e eBay seus objetos, calcule seu movimento, cante junto com Frank Sinatra, coloque-se em uma cena de filme, emojis 3D etc. Com a vocação do virtual e aplicativos tão fortes, a principal atração da Apple parece estar no espaço, não necessariamente grande precisão em objetos do tamanho de uma bola de softball. Com os benefícios comerciais principalmente na precisão na sala, nós, na impressão 3D, podemos nos tornar a ignorada Cinderela. já que as irmãs adotivas do e-commerce, AR e jogos recebem toda a tecnologia direcionada a elas. 

Melhor AR ou uma liderança em jogos baseados em AR pode ser o futuro completo de grande parte da indústria de jogos. A Apple não pode se dar ao luxo de perder esse barco. Não vamos esquecer também que os scanners Time of Flight estão nos telefones por um motivo muito importante: melhorar nossas selfies. Por mais que muitas vezes pensemos que, na impressão 3D, somos o centro do mundo, melhores selfies e melhores imagens são uma grande vitória para a Apple e a tornariam mais competitiva em relação à Samsung e similares. 

Então, nós, como enteados ignorados, somos deixados a labutar nas sombras? Talvez não. Embora o suporte completo para impressão 3D ainda não pareça iminente, há maneiras de contornar isso que podem ser muito frutíferas. Com maior poder de computação e aprendizado generativo, muito bem poderia ser possível. O software pode ajudar a limpar e reconstruir arquivos, tornando-os estanques e múltiplos para impressão. Eventualmente, alguém será capaz de extrair detalhes suficientes dos scanners do Apple iPhone para obter algo para imprimir e isso permitirá que muitas pessoas liberem sua criatividade. Mas, podemos fazer algo agora que pode de fato nos dar um caminho conjunto para um mundo de telefones Apple impressos em 3D. 

Para isso, teremos que fazer uma pequena excursão ao mundo dos atiradores militares e policiais. Quando um atirador está atirando de perto, mirar através da mira pode ser suficiente, mas disparos de longo alcance são mais difíceis. As balas voam em arco, portanto, para um tiro mais longo, a queda da bala deve ser estimada. Para planos extremamente longos, não apenas o vento, mas também a curvatura da Terra deve ser compensada. Uma variável importante ao tentar calcular como dar um certo tiro é estimar o alcance que você tem do alvo. Os telêmetros modernos podem fazer isso por você, mas um bom e velho método analógico é o ponto mil. O mil-ponto é um padrão medido na visão do seu telescópio. 

A distância entre os centros de quaisquer dois pontos adjacentes em uma luneta de retículo MIL-Dot é igual a 1 Mil, que é cerca de 36″ (ou 1 jarda) a 1000 jardas ou 3,6 polegadas a 100 jardas.

[A] maneira mais fácil de atingir um alvo é pegar a altura (ou largura) do alvo em jardas ou metros multiplicada por 1000 e, em seguida, dividir pela altura (ou largura) do alvo em MILs para determinar o alcance para alvo.

E um exemplo: 

Um cão da pradaria de 10” de altura se encaixa entre a mira vertical e a parte inferior do primeiro ponto MIL, o que equivale a 0,875 mils. Quantos metros faltam?

No exemplo do atirador, muitas vezes não sabemos o alcance do nosso alvo, então pegamos um objeto conhecido e, por meio de seu tamanho e uma referência, podemos estimar o alcance. Lembra daquela matemática nebulosa do ensino médio com triângulos? Se eu conhecer alguns lados, posso calcular os outros. Com nossos iPhones, seremos muito bons em saber a que distância as coisas estão de nós por meio dos muitos pontos dos scanners de tempo de voo disparados de nosso sensor LIDAR. O LIDAR irá continuamente variar tudo o que vê. Com o ARKit da Apple, sabemos que podemos fazer o reconhecimento de objetos. Por meio de um aplicativo, poderíamos, portanto, incluir muitos objetos de referência.

Ao reconhecer latas de Coca-Cola, modelos específicos de cadeiras, móveis IKEA, óculos de sol ou muitos outros objetos, poderíamos comparar a estimativa de alcance e tamanho com os valores conhecidos armazenados e aumentar a precisão de nossa variedade. Poderíamos então estimar nossa localização na sala em relação a todas as distâncias conhecidas em várias passagens. Essas informações poderiam então ser comparadas com o acelerômetro e até mesmo com GPS. Em suma, obteremos uma imagem muito mais precisa de onde o scanner está, como está orientado e onde está tudo na sala. Poderemos saber muitas coisas medidas mais exatas também. 

Se pudéssemos digitalizar em 3D uma série de objetos usando scanners 3D industriais de alta capacidade, as curvas e medições desses objetos de referência seriam ainda mais precisas e seriam capazes de preencher com mais precisão as partes vazias de nossas nuvens de pontos e descrever melhor os objetos. Poderíamos até usar fotogrametria ou outro método de digitalização baseado em câmera para melhor preencher e obter texturas de objetos impressos em 3D. Esse processo deve nos aproximar muito da obtenção de malhas imprimíveis em 3D. 

Idealmente, é claro, os dados da câmera das outras lentes também poderiam ser comparados, e três câmeras poderiam tirar a mesma imagem e estimar mais claramente sua orientação e obter a cor e a textura. Na verdade, a Apple já faz isso para imagens:

[O] sistema captura imagens usando as duas câmeras. Como as duas câmeras paralelas estão a uma pequena distância na parte traseira do dispositivo, recursos semelhantes encontrados em ambas as imagens mostram um deslocamento de paralaxe: objetos que estão mais próximos da câmera deslocam-se por uma distância maior entre as duas imagens. O sistema de captura usa essa diferença, ou disparidade , para inferir as distâncias relativas da câmera aos objetos na imagem, conforme mostrado abaixo.

Então seria uma questão de usar a capacidade de processamento neural e de imagem do telefone para restaurar essa malha com dados de imagem corretos. 

Partes de todo esse processo seriam fantasiosas, mas parece que poderia funcionar pelo menos na obtenção de medidas e arquivos mais precisos que poderiam ser usados ​​para impressão. Se esse arquivo também pudesse ter informações de textura e cor aplicadas de forma coerente, seria uma etapa totalmente mais difícil, mas somos péssimos na cor de qualquer maneira. Não tenho 100% de certeza se essa é a resposta, mas no geral, acho que, embora possamos não ser capazes de extrair imediatamente muitas impressões 3D dos dados LiDAR do iPhone, poderemos eventualmente. No curto prazo, eu esperaria que, para alguns materiais e itens de alto contraste, juntamente com bons itens de referência, pudéssemos usar essa tecnologia para digitalizar em 3D alguns itens imprimíveis em 3D. 

Fonte: 3DPrint.com

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Posts Relacionados

Comece a digitar sua pesquisa acima e pressione Enter para pesquisar. Pressione ESC para cancelar.

De volta ao topo