Intel annonce une carte SD-ordinateur !

moins de 1 minute de lecture art

Appelé Edison, l’ordinateur en question vous fera penser à un Raspberry Pi, cet ordinateur tout-intégré que vous pouvez trouver 35€ sur le net et tournant sous Linux. Dans le même ordre d’idée, l’ordinateur de Intel entre dans une carte SD ! Elle aussi sous Linux, elle intègre le wifi, bluetooth, et un processeur dual-core Quark SOC.

Pour l’instant, difficile de comparer réellement cette puce à un ordinateur - il manque les branchements USB/hdmi/etc qui vont bien - mais elle pourra sans nul doute devenir un élément permettant de poursuivre la course à la miniaturisation.

En attendant, il y a toujours le Raspberry Pi, qui lui intègre toutes les connectiques necessaires mais n’a que la taille d’une carte crédit !

Commentaires

Pierre et vacances fin de bail

C’est bien beau de vouloir créer des ordinateurs tout petit, mais hélas il restera forcément une limite… Tout d’abord au niveau de l’écran, je veux bien qu’une puce de cette taille permette le fonctionnement d’un ordinateur, mais comment faire pour visionner ce qu’il s’y passe sur la machine sans écran? Je pense que la limite de la miniaturisation sera justement au niveau du visuel, ce qui peut être intéressant en revanche, c’est de pouvoir se balader partout avec son micro ordinateur et le relier facilement à un écran peut importe le lieux. Merci pour cette découverte, c’est toujours intéressant d’être tenu informé de ce type d’innovation!

King of GSM

On voit vraiment que la micro-informatique est une tendance actuellement, mais c’est vrai que ça peut changer une vie, à condition de trouver une utilité à ces petites machines.

Je me demande quand même quelle architecture supporte ce micro-PC, parce-que déjà que sur Arm le choix de programmes est très vite limité comparé à une vraie distribution UNIX-Like, ça peut vite devenir un frein.

Par contre vu que c’est Intel, on peut leurs faire confiance. Ils sont assez investi dans l’open-source, notamment avec leurs drivers graphiques libres. Nvidia devrait en prendre de la graine !

Laisser un commentaire

Votre adresse email ne sera pas visible. Les champs obligatoires sont marqués *

Chargement...
Reçevoir les prochains commentaires de cet article.