Micronet C.A.

¡Tu solución en informatica!

  • Inicio
  • Servicios
    • Desarrollo a Medida
    • Ventas de Equipos Informaticos
    • PSKloud Software
  • Blog
    • Achepe.NET Blog
    • Bitcoin News
  • Soporte Tecnico
    • Soporte Tecnico
    • Servicios Post-venta
  • Contacto

23/01/2015 Por Freddy Moreno 1 Comment

Los Mitos de la Tecnologia

Los mitos hacen que curiosidades o historias perduren en el tiempo y pasen de generación en generación sin ser cuestionados. En muchas ocasiones se han desvelado falsos mitos que han sorprendido pero que, por mucho que lo intentemos, continúan transmitiéndose con el “boca a boca”. A continuación damos a conocer siete falsos mitos sobre la tecnología:

 

1. Graham Bell NO inventó el teléfono: así es, aunque te lo memorizases en el colegio debes olvidarlo porque no es cierto. El 11 de junio del 2002 se aprobó la resolución 269 en el Congreso de los Estados Unidos por la que se reconocía a Antonio Meucci como el autentico inventor del teléfono.
2. Pong NO fue el primer videojuego de la historia: fue creado en el año 1972 por Atari pero, a pesar de ser cierto que fue el primero en distribuirse a escala mundial, eso no significa que fuese el primer videojuego de la historia. Tennis for Two fue el precedente de Pong, creado en 1957 por William Higginbotham, y no es el único caso: Spacewar, creado en 1962 por Steven Rusell, o Fox and Hounds, desarrollado por Ralp Baer y Bob Tremblay en 1966, fueron lanzados al mundo de los videojuegos antes de que Pong apareciese.
3. Apple NO inventó el sistema de ventanas: este descubrimiento que parecía haberles plagiado Microsoft no pertenece a Apple. Su verdadero creador fue Xerox, y una visita de Steve Jobs en el año 1979 hizo que se incorporase a Apple a cambio de un paquete de acciones a favor de Xerox.
4. La calidad de una cámara NO se mide por los megapíxeles: una de las primeras cosas que miramos en una cámara es su número de megapíxeles creyendo que así daremos con la mejor. Es un error fomentado por los comerciantes y el marketing y, aunque ayuda a la hora de comprar una cámara, debemos tener en cuenta otros factores que son igual o más importantes como la calidad del objetivo, el sensor o la distribución de los píxeles.
 
5. Los Mac SÍ sufren virus: necesitan protección como el resto de ordenadores, algo que se demostró con el caso del troyano Flashback.
 
6. Los cables HDMI caros NO son mejores que los baratos: la calidad de la imagen la marca el dispositivo de reproducción que utilicemos. La existencia de cables HDMI por menos de 5€ y otros por más de 1000€ nos hace creer que los de bajo precio son peores, pero la diferencia la marca el margen de beneficio del fabricante.
 
7. Un procesador NO es mejor si su velocidad es mayor: Es un aspecto importante a tener en cuenta pero depende de la cantidad de trabajo por ciclo que realice. Hay procesadores que necesitan una mayor o menor velocidad en función del número de ciclos que necesita su arquitectura para llevarlo a cabo.

Filed Under: Achepe.NET Blog Tagged With: Ciencia, Computadoras, CPU, Ensamblaje, Historia, Virus, Windows

09/08/2011 Por Freddy Moreno Leave a Comment

La interfaz de audio SPDIF, parte I

SPDIF (o S/PDIF) significa Sony/Philips Digital Interface, y consiste básicamente en una interfaz que transmite audio digital de una calidad muy superior a la que brindan las conexiones analógicas tradicionales. En la serie de notas que comienza aquí, veremos los detalles de esta interfaz y cuándo conviene usarla.
Actualmente existen dos interfaces principales que se usan para transmitir audio en formato digital: SPDIF y HDMI. SPDIF sólo transmite audio, mientras que HDMI también transporta señales de video digital. La razón por la que existe SPDIF es que no todos los equipos de audio/video ofrecen una salida HDMI. Es el caso de reproductores de CDs profesionales, que poseen una salida SPDIF pero no HDMI, debido a que no transmiten video. Además, en ciertas situaciones se necesita transmitir video por HDMI y audio por una conexión SPDIF.
¿Cuándo utilizar SPDIF?
Es conveniente utilizar una conexión de audio digital siempre que sea posible, debido a que provee la mejor calidad de sonido. La pregunta es cuándo conviene usar HDMI y cuándo usar SPDIF.
En caso de conectar dos equipos de audio, si uno de ellos no cuenta con conector SPDIF, no habrá más remedio que conectarlos mediante una interfaz analógica, utilizando un par de cables RCA. Además, para poder utilizar una conexión de audio digital, ambos equipos deberán contar con el mismo tipo de conector, ya que existen dos tipos: coaxial (RCA) y óptico (Toslink).
En el caso de que el equipamiento incluya salidas HDMI y SPDIF, pero sólo se desea conectar audio, también se utiliza la interfaz SPDIF. Por ejemplo, si se quiere conectar una PC a un home-theater para escuchar música o jugar un juego, pero no se desea enviar las imágenes a la TV, es conveniente usar la conexión SPDIF entre la PC y el home-theater.
Conexiones SPDIF
Existen dos clases de conexiones SPDIF disponibles para consumidores: coaxial y óptica. La conexión coaxial usa un conector RCA mono, comúnmente de color naranja que lo diferencia de las conexiones de video que emplean un conector similar pero de diferente color. La conexión SPDIF óptica emplea un conector cuadrado denominado Toslink (por Toshiba Link). Algunos equipos ofrecen ambos conectores, mientras que otros sólo incluyen uno de ellos.
En reproductores profesionales de CDs es posible encontrar ambos tipos de conectores con un switch que habilita SPDIF digital. En consolas de juegos de última generación puede encontrarse una salida digital SPDIF al lado de la salida HDMI.
En la segunda parte de este tutorial veremos cómo son los cables utilizados para conexiones SPDIF y cómo instalar la interfaz de audio digital en una computadora.

Filed Under: Achepe.NET Blog, Sin Categoria Tagged With: Computadoras, Sonido

02/08/2011 Por Freddy Moreno Leave a Comment

¿Qué es HD Audio?

La denominación “HD Audio”, si bien suele usarse en forma genérica para definir prácticamente a cualquier tecnología de audio de alta definición, corresponde a un estándar –también conocido como “Azalia”– creado por Intel para dotar a sus chipset de audio on-board de alta calidad. En esta nota veremos en qué consiste este estándar.
Todos los chipsets Intel basados en el bus PCI Express soportan High Definition Audio (o HD Audio). Este estándar provee dos nuevas características: audio de alta calidad y multi-streaming, que permite que más de una señal sea enviada a dispositivos de audio diferentes; por ejemplo, para poder ver un DVD en el living, enviando el audio a través de una red inalámbrica, mientras se habla por VoIP en forma simultánea desde la oficina.
Antes de que Intel lanzara HD Audio, la calidad del audio on-board dependía de que la motherboard tuviera un controlador de audio de alta calidad separado. Con la tecnología HD Audio, el componente south-bridge del chipset produce audio de alta calidad por sí mismo, sin la necesidad de un chip controlador separado que elevaría el costo de la motherboard. El chip south bridge sólo necesita un chip códec externo para hacer las conversiones digital/analógica y analógica/digital. Tal chip es poco costoso en comparación con un chip controlador “completo”.
HD Audio provee sonido envolvente con una tasa de muestreo de 192 KHz y resolución de hasta 32 bits. Otras soluciones de audio embebidas en los chipsets soportan una tasa de muestreo máxima de 48 KHz y resolución de 20 bits, aún cuando soportan configuración 5.1 (audio envolvente de 6 canales).
Intel está promoviendo HD Audio junto con Dolby Labs, creadores de tres niveles de audio para PCs en base a HD Audio: Dolby Sound Room, Dolby Home Theater y Dolby Master Studio. Estos tres niveles están dirigidos al usuario entry-level, de rango medio y high-end, respectivamente. Las características de dichos niveles son las siguientes:
Dolby Sound Room: audio de dos canales que soporta las tecnologías Dolby Virtual Speaker y Dolby Head Phones. Estas dos tecnologías simulan audio 5.1 usando sólo 2 parlantes, en base a la tecnología Dolby Pro Logic II. Posee una relación señal/ruido de al menos 75 dB.
Dolby Home Theater: audio de 6 canales (5.1) con una relación señal/ruido de al menos 85 dB, en base a la tecnología Dolby Pro Logic II.
Dolby Master Studio: audio de 8 canales (7.1) con una relación señal/ruido de al menos 95 dB, en base a las tecnologías Dolby Pro Logic IIx y Dolby Digital Live.
Algo interesante acerca de la tecnología Dolby Pro Logic II es que permite que el sistema use audio 5.1 (o 7.1 con Dolby Pro Logic IIx) aún cuando la fuente de sonido tenga sólo dos canales (como ocurre con los CDs, por ejemplo), gracias al uso de una serie de filtros.
Digital Live es la tecnología de streaming de Dolby Labs, utilizada para transferir música almacenada en la PC a un receptor remoto; por ejemplo, enviando música a un receptor ubicado en el living a través de una red inalámbrica.
La idea detrás de estos niveles es facilitar al usuario el entendimiento de qué clase de sonido on-board ofrece la mother que está adquiriendo, en base al logo Dolby que esté impreso en la caja (Sound Room, Home Theater o Master Studio).

Filed Under: Achepe.NET Blog, Sin Categoria Tagged With: Computadoras, Sonido

20/04/2011 Por Freddy Moreno Leave a Comment

Las ventas de PCs caen por primera vez en año y medio

Según Gartner, las ventas mundiales de PCs cayeron un 1,1% en 18 meses. Una cifra que, sin duda, echa por tierra las optimistas previsiones ofrecidas por la consultora anteriormente y que situaban el crecimiento de este mercado en un 3%, 4,1 puntos porcentuales más que la cifra registrada en realidad. Y es que aunque las ventas en los tres primeros meses del año tienen un ritmo menor que durante los nueve meses restantes, lo cierto es que, en esta ocasión, parece algo más que una mera cuestión estacional.
De acuerdo con Mikako Kitagawa, analista de Gartner, “la debilidad en la demanda en los PCs de consumo es el principal inhibidor de crecimiento. La bajada en los precios, que habían estimulado las ventas en el sector, parece que ya no es un reclamo para el consumidor que ha dirigido su mirada a las tabletas y otros dispositivos electrónicos de consumo. De hecho, con el lanzamiento del iPad2 en febrero, hemos observado que los usuarios prefieren comprar un dispositivo alternativo o simplemente no renovar su PC. La clave es saber si esta tendencia tendrá un efecto a largo plazo en el mercado de los PCs”.
Por fabricantes, HP mantiene la primera posición, con una cuota del 17,6%, aunque las ventas estuvieron por debajo de la media del mercado. De hecho, la compañía registró un descenso del 3,4% en el primer trimestre de este año frente al mismo periodo del año anterior. Pero la mayor caída la protagonizó Acer. El fabricante descendió en un 12% el volumen de unidades vendidas, aunque consiguió mantener su segunda posición en el mercado. También el tercer fabricante por volumen de ventas, Dell, experimentó menores ventas. En este caso, del 2,2%.
Los porcentajes positivos se trasladan a la cuarta y quinta posición del ranking mundial, ocupadas por Lenovo y Toshiba, respectivamente. Lenovo incrementó en dos dígitos (16,6%) sus ventas en este trimestre mientras que Toshiba lo hizo en un 5,3%.
En lo que se refiere a zonas geográficas, las ventas de PCs en la zona de EMEA alcanzaron los 26,1 millones de unidades en el primer trimestre de 2011, lo que supone un descenso del 2,8% frente al mismo trimestre del pasado año. En el caso de Estados Unidos, la bajada en las ventas fue significativamente superior hasta alcanzar el 6,1%. En total, durante el primer trimestre de 2001 se vendieron 16,1 millones de PCs.
Al igual que ha sucedido en el mercado mundial, en el caso del norteamericano la ‘moda’ de las tabletas ha sido un factor clave para explicar esta tendencia a la baja en las ventas. Mientras, en el caso de la zona de EMEA, que no había registrado un descenso desde el tercer trimestre de 2009, cuando las ventas cayeron un 8,9%, Ranjit Atwal, director de investigación de Gartner, ve signos de esperanza, pues, como explica, “el exceso de inventario acumulado a finales del último trimestre del pasado año se ha ido diluyendo poco a poco, y la estacionalidad ha sido algo menor de lo esperado”.

Filed Under: Achepe.NET Blog, Sin Categoria Tagged With: Computadoras, Tendencias

10/03/2011 Por Freddy Moreno Leave a Comment

Sospechosos Habituales: Errores comunes del ensamblado de PCs, parte II

Aún los ensambladores más expertos pueden cometer errores que derivan en PCs defectuosas, como por ejemplo, utilizar un gabinete inadecuado para la motherboard, o colocar incorrectamente los ventiladores o la grasa térmica. En esta nota repasaremos otros errores que suelen cometerse a la hora de armar una PC.
En esta segunda parte, de Sospechosos Habituales: Errores comunes de ensamblado, los problemas que se mencionan a continuación, si bien no están relacionados directamente con el sobrecalentamiento, deben chequearse para asegurar que las PCs no tengan fallas evitables o pérdidas de performance debidas a un ensamblado incorrecto.
Motherboard suelta

La falta de una ajuste adecuado de la mother al chasis ocasiona problemas aleatorios, como resets que ocurren ante un ligero movimiento del gabinete. Si la placa no tiene todos sus elementos de sujeción al chasis firmemente colocados, es probable que se doble al colocar una placa y alguno de los contactos toque el marco metálico del gabinete, ocasionando (por ejemplo) un borrado e inicialización de la configuración. Deben usarse la mayor cantidad posible de elementos de sujeción para evitar inconvenientes aleatorios.
Cables de discos rígidos

Los cables IDE planos ya son cosa del pasado. Pero cuando nos topamos con alguna antigua PC que los usa, deberemos verificar que los conectores de la punta de los cables no estén sueltos. Suele ocurrir que, por comodidad, cuando se conecta un único disco al cable plano, se utiliza el conector del medio del cable y no el de la punta, dejando a este último colgando suelto. Esto no es bueno, debido a que el tramo de cable suelto actúa como una antena, recibiendo e inyectando interferencias en la transmisión de datos, lo que ocasiona una reducción en la tasa de transferencia del disco rígido. También es conveniente verificar que todo cable plano de 40 cables se reemplace por uno de 80.
Disco óptico como esclavo

En configuraciones IDE, ocasionalmente se conecta la unidad óptica (DVD o CD) en el mismo cable que el disco rígido, utilizando el conector del medio, y se configura a aquella como esclava (slave). En tal configuración, el disco rígido y la unidad óptica deben competir por la utilización del cable, no pudiendo ambos dispositivos intercambiar información con el procesador del sistema simultáneamente. El resultado es una notable reducción de la performance.
Para evitar este problema, simplemente se debe instalar la unidad óptica conectándola al puerto IDE secundario en modo “master”. En mothers que combinan puertos Serial ATA con puertos IDE, lo más recomendable es colocar un disco rígido Serial ATA e instalar la unidad óptica conectándola a uno de los IDE, evitando pérdidas de performance.
En la próxima entrega, y para concluir este tutorial, veremos algunos errores comunes en la instalación y configuración de la memoria.

Filed Under: Achepe.NET Blog, Sin Categoria Tagged With: Computadoras, Ensamblaje

  • 1
  • 2
  • 3
  • …
  • 5
  • Next Page »

Micronet ¡tu solución informatica! | RIF: J-08516405-7

Web Design: Micronet C.A. & Eliseosky.com | Powered by Achepe.NET | V1 Copyright © 2019