Pequeños consejos útiles:

1 08 2008

Hola a todos, perdonad por este parón, aunque parece que tengo esa manía…

Hoy vengo a estrenar una nueva sección de pequeños consejos que harán nuestra experiencia con el ordenador un poco más agradable.

¿Nunca os ha pasado que habéis pulsado, por error, el botón de apagado del ordenador? Esta situación suele ser frecuente si tenéis el pc en el suelo, puede ser porque alguien se acerca demasiado a la mesa y le da con el pie, o por simple despiste nuestro. Si está encima de la mesa, a veces también ocurre… incluso en los portátiles puede pasar. ¿Y cuál es el resultado? pues que el ordenador se apaga inmediata e inexorablemente, haciendo, lo más seguro, que perdamos aquello que estamos haciendo.

Bueno, pues hay una forma muy sencilla de arreglarlo, en entornos windows, sólo tenéis que situaros en el escritorio y pulsar con el botón derecho en una parte limpia (sin iconos) del mismo, y en la ventana que os sale, darle a propiedades:

Propiedades

Propiedades

En la nueva ventana que se abre, tenemos que hacer clic en la pestaña de protector de pantalla, y ahí vamos a la opción de energía:

Propiedades de pantalla

Propiedades de pantalla

Al hace clic en ese botón, se nos abrirá una nueva ventana llamada Propiedades de Opciones de energía, si tenéis un portátil es útil hacer algunas modificaciones en las opciones para aumentar la vida de la batería (claro que si tenéis un portátil, lo más seguro es que os venga con un programa aparte para lo mismo).

Propiedades de opciones de energia

Propiedades de opciones de energía

Lo que a nosotros nos ocupa está en la pestaña de Opciones Avanzadas, hay dos partes en esta pestaña, una llamada opciones, y otra botones de encendido, en este segundo apartado es donde encontraremos, la opción, con un desplegable debajo, Cuando presione el botón de encendido de mi equipo:

Opciones avanzadas, energia

Opciones avanzadas, energía

Bien, seguramente, la mayoría tendréis la opción por defecto del sistema, que es la de Apagar, lo que tenemos que hacer es cambiarla por Preguntar qué hacer, o No hacer nada, así evitaremos sustos, y cabreos, por descuidos o cotillas patosos que se acercan más de lo que deberían.

Para concluir damos al botón de aceptar en ambas ventanas: Propiedades de Opciones de energía y Propiedades de pantalla. Y para asegurarnos de que se ha hecho el cambio, sólo tenemos que (teniéndolo todo cerrado, no vaya a ser que hayáis olvidado hacer un paso), probar dándole al botón de apagar, si pusisteis la opción de Preguntar, os aparecerá el menú como si se hubiese dado en apagar equipo, y si pusisteis No hacer nada, pues no debería ocurrir nada.

Eso es todo, espero que os sea útil🙂 .





[Manual] Construir tu ordenador. Parte 1, los periféricos.

10 07 2008

Hoy, como no puede ser menos, toca una nueva entrega del manual sobre construir nuestro propio ordenador. Pero primero hagamos un repaso a lo que ya llevamos visto, para así, saber qué nos queda por ver.

Además y aunque no entre dentro del manual, también abordamos temas que pueden resultar complementarios a la hora de montar un ordenador:

Dado que las partes más importantes de un ordenador ya están cubiertas finalizaremos esta primera parte del manual hablando de los diferentes periféricos que podemos encontrar para nuestro ordenador. Comúnmente se llama periférico a todo aquello que va enchufado a la torre del ordenador (pantalla, teclado, impresora…), pero casi es más acertado hablar de periférico refiriéndose a todo aquello que va enchufado a la placa base, (exceptuándose microprocesador y RAM, dado que ambos son partes totalmente imprescindibles). Así pues voy a clasificarlos en dos partes que tendrán diferentes categorías; la primera parte serán periféricos internos del ordenador, y la segunda periféricos de escritorio, o aquellos que no están ubicados dentro del ordenador.

Periféricos Internos:

Aunque bien es cierto que la tarjeta gráfica y el disco duro entran dentro de este tipo de periféricos, hoy día es tan importante su trabajo que, como ya hice, se merecen una entrega del manual aparte.

  • Periféricos de lectura/escritura.
    • En esta categoría podemos encontrarnos a las grabadoras de DVD o CD, y a los lectores de estos formatos, también se incluyen las disqueteras y los lectores de tarjetas. Una cosa que no me gusta, es que ahora, muchos ordenadores que se compran no traen disquetera, sí puede que sea algo casi inútil y que no se use, pero os puedo decir que el tenerla me ha sacado de varios apuros más de una vez. Mi recomendación es que si la placa tiene puerto de disquetera, pongáis una.
    •  

    • Hoy día debido a la alta proliferación de aparatos que funcionan con tarjetas de memoria (CF, SD, MS, SM, MMC, 😄) tener un lector multitarjetas es muy importante, porque aunque los aparatos se puedan conectar por USB, sale más práctico y económico (dado que no se usa la batería del gadget), utilizar el lector.
    •  

    • Para finalizar, últimamente veo con horror para mi, que la mayoría de los ordenadores sólo traen una grabadora de DVD, que no es acompañada de un lector, lo cual me parece un poco arriesgado, porque estamos quitando vida útil a la grabadora, haciendo funciones que puede hacer un simple lector. Aunque yo, personalmente, prefiero tener dos grabadoras. Pero aquí priman los gustos de cada uno.
    •  

  • Periféricos de entrada/salida de datos.
    • Aquí nos podemos encontrar con diferentes tarjetas, como pueden ser las sintonizadoras de televisión o las de sonido. Hay alguna más, pero estás dos son las más populares, por lo que me centraré en ellas.
    •  

    • Una tarjeta sintonizadora o capturadora de televisión, es una tarjeta PCI principalmente, que permite ver y grabar en el ordenador la televisión. La mayoría de los modelos actuales ya cuentan con sintonizador TDT. En el caso de la conexión funcionan como una televisión normal, conectando el cable coaxial, como si de una televisión se tratara. Todas las tarjetas vienen con su propio software para el visionado de los canales. Existen tarjetas tanto internas como externas, dando estas últimas menor calidad que las internas.
    •  

    • Aunque prácticamente la totalidad de placas base del mercado, vienen con una tarjeta de sonido integrada, hay quienes prefieren tener una tarjeta de sonido de mejor calidad y optan por conectar una a una ranura, PCI principalmente. La reina actual de las tarjetas de sonido, viene de la afamada marca Creative, que revolucionó el mercado a principios de los 90, con sus tarjetas de sonido Sound Blaster y sus diferentes mejoras. Creative, hace unos pocos años creó la tecnología X-FI (extrema fidelidad), que entre otras cosas, mejora notablemente la calidad de los archivos de audio comprimidos como el mp3.

Periféricos de escritorio:

Los periféricos de escritorio, son aquellos por los que interactuamos comúnmente con el ordenador.

  • Periféricos de entrada/salida de datos:
    • En esta categoría se incluyen prácticamente, por no decir todos, los periféricos que utilizamos tanto para trabajar como para jugar con el ordenador.
    •  

    • La pantalla por ejemplo, es el periférico de salida de datos por excelencia, gracias a este periférico, trabajar con un ordenador dejó de ser un proceso en el cual se introducían datos por comandos, el ordenador los procesaba y sacaba el resultado por una impresora matricial. Aunque hubo de pasar bastante tiempo hasta llegar a un sistema operativo basado en interfaz gráfica, la pantalla tenía que estar allí para crear esa interacción. Desde las viejas monocromas, las pantallas han mejorado en cuanto a resolución (cantidad de píxeles que pueden mostrar), tamaño tanto físico como en pulgadas de las pantallas. Pasando de las viejas, aunque muy queridas por su calidad de colores, pantallas CRT a las actuales pantallas LCD de formato panorámico 16:9 (16:10 en algunos casos). Que aunque personalmente no acabo de cogerles el gusto (soy un antiguo que prefiere el formato 4:3 de toda la vida), son las que se han puesto de moda y las que además sirven para ver formatos HD (alta definición). Marcas sobresalientes en este campo, tenemos a las clásicas, Samsung, LG, Panasonic, y alguna que otra más nueva como puede ser ASUS.
    •  

    • Otros periféricos de salida, son los altavoces, los cuales han avanzado mucho en estos últimos tiempos con los sistemas surround de cine en casa. Actualmente se sigue contando con sistemas estéreo, también llamados 2.0 (porque son dos altavoces y no tienen subwoofer) o los más poderosos e impresionantes sistemas como el 7.1 GigaWorks de Creative, que cuenta con certificado THX (nombre comercial de un sistema de sonido de alta fidelidad usado en películas, salas de reproducción profesionales, desarrollado por Lucas Film).
    •  

    • Como siguiente periférico de salida tenemos a las impresoras. Las impresoras han mejorado mucho desde aquellas viejas matriciales, que cuando funcionaban parecía que había un terremoto por el ruido que generaban. Actualmente tenemos gran variedad, desde impresoras multifunción, que incluyen escaner, fotocopiadora, e incluso fax en una sólo máquina, hasta impresoras láser, pasando por plotters, que son impresoras de gran formato. El gran problema de las impresoras sigue siendo el precio de sus cartuchos (en las de inyección de tinta o láser a color), y del toner (en las láser en blanco y negro), dado que la tinta de impresora es el líquido más caro que existe, (al menos a la hora de llegar al consumidor).
    •  

    • Como periféricos de entrada, tenemos el teclado, el ratón, la webcam y demás dispositivos de juegos, los teclados han evolocionado desde los básicos teclados mecánicos hasta los actuales de membrana y con varias teclas programables para diferentes funciones. Los teclados han pasado de ser un simple objeto con el que manejar el cursor mecanicamente, ha posicionarlo con la precisión milimétrica de un haz láser, de esta forma trabajar en diseño, dibujo, o jugar a diversos juegos se hace de una manera más eficiente. En cuanto a los periféricos de juegos, disponemos de joysticks, volantes y gamepads (mandos). Para este tipo de periféricos os recomiendo una marca Logitech. Puede que os parezca cara, pero lo que estáis pagando es calidad y durabilidad. Saitek es una marca de gran calidad para el mercado de los jugones.




El BlueTooth.

4 06 2008

BlueTooht-Logo

El bluetooth es un sistema de transmisión de datos y voz, que funciona por radiofrecuencia en la banda del 2,4GHz. ¿Qué quiere decir radiofrecuencia? Radiofrecuencia quiere decir, que utiliza ondas de radio para transmitirse, los 2,4Ghz son la amplitud de honda que utilizan. Esto es como las radios, una determinada radio utiliza una amplitud de onda otorgada por el gobierno (dado que el espacio radioeléctrico es propiedad del estado), normalmente las radios utilizan amplitudes entre los 80 y 100 Mhz (es una aproximación). Y debido a que cada una utiliza una amplitud de onda diferente, pueden coexistir sin que se colapsen, claro esto en la teoría, porque todos sabemos que a veces, sí que se colapsan. En cambio, la frecuencia del bluetooth está abierta globalmente, esto significa que se puede utilizar sin mediar un pago por estar ocupando esta banda del espacio radioeléctrico.

Este protocolo de transmisión nació para facilitar la conexión entre diferentes aparatos, sin necesidad de cables, además de para poder crear pequeñas redes entre ellos.

El bluetooth fue diseñado para utilizarse en dispositivos de bajo consumo tipo móviles, pdas, ordenadores portátiles, etc. La gran ventaja de este sistema, al anteriormente utilizado, los infrarrojos, es que los dispositivos no necesitan estar pegados un contra el otro por su sistema de emisión, dado que la clase 1 (y la mayormente utilizada) tiene una cobertura de 100m, esto permite estar con el portátil en una habitación y enviar documentos a imprimir a una impresora situada en otra habitación.

Historia, actualizaciones y versiones.

En 1994, Ericsson inició un estudio para investigar la viabilidad de una nueva interfaz de bajo costo y consumo para la interconexión vía radio (eliminando así cables) entre dispositivos como teléfonos móviles y otros accesorios. El estudio partía de un largo proyecto que investigaba unos multicomunicadores conectados a una red celular, hasta que se llegó a un enlace de radio de corto alcance, llamado MC link. Conforme este proyecto avanzaba se fue haciendo claro que éste tipo de enlace podía ser utilizado ampliamente en un gran número de aplicaciones, ya que tenía como principal virtud que se basaba en un chip de radio.

  • Bluetooth v.1.1
  • Bluetooth v.1.2
  • Bluetooth v.2.0
  • Bluetooth v.2.1

La versión 1.2, a diferencia de la 1.1, provee una solución inalámbrica complementaria para co-existir Bluetooth y Wi-Fi en el espectro de los 2.4 GHz, sin interferencia entre ellos.

La versión 1.2 usa la técnica “Adaptive Frequency Hopping (AFH)”, que ejecuta una transmisión más eficiente y un cifrado más seguro. Para mejorar las experiencias de los usuarios, la V1.2 ofrece una calidad de voz (Voice Quality – Enhanced Voice Processing) con menor ruido ambiental, y provee una más rápida configuración de la comunicación con los otros dispositivos bluetooth dentro del rango del alcance, como pueden ser PDAs, HIDs (Human Interface Devices), computadoras portátiles, computadoras de escritorio, Headsets, impresoras y celulares.

La versión 2.0, creada para ser una especificación separada, principalmente incorpora la técnica “Enhanced Data Rate” (EDR) que le permite mejorar las velocidades de transmisión en hasta 3Mbps a la vez que intenta solucionar algunos errores de la especificación 1.2.

La versión 2.1, simplifica los pasos para crear la conexión entre dispositivos, además el consumo de potencia es 5 veces menor.

Origen.

El nombre procede del rey danés y noruego Harald Blåtand cuya traducción al inglés sería Harold Bluetooth (Diente Azul, aunque en lengua danesa significa ‘de tez oscura’) conocido por buen comunicador y por unificar las tribus noruegas, suecas y danesas.

De la misma manera, Bluetooth intenta unir diferentes tecnologías como las de las ordenadores, los teléfonos móviles y el resto de periféricos.

El símbolo de Bluetooth es la unión de las runas nórdicas análogas a las letras B y H: (Hagall) y (Berkanan).

Lista de aplicaciones.

  • Conexión sin cables entre los teléfonos móviles y equipos de manos libres y kit para vehículos.
  • Red inalámbrica en espacios reducidos donde no sea tan importante un ancho de banda grande.
  • Comunicación sin cables entre el ordenador y dispositivos de entrada y salida. Mayormente impresora, teclado y ratón.
  • Transferencia de ficheros entre dispositivos vía OBEX.
  • Transferencia de fichas de contactos, citas y recordatorios entre dispositivos vía OBEX.
  • Reemplazo de la tradicional comunicación por cable entre equipos GPS y equipamiento médico.
  • Controles remotos (tradicionalmente dominado por el infrarrojo).
  • Las consolas Sony PlayStation 3 y Nintendo Wii incorporan Bluetooth, lo que les permite utilizar mandos inalámbricos.

Red BlueTooh





Coletazos y suspiros. [No diré adios]

6 05 2008

Muchos os preguntaréis porque ya no escrito tanto, por qué mis post están tan separados en el tiempo, la respuesta la habréis de buscar en los propios post que he escrito, y esque todos los post los he escrito yo, la ayuda que me prometieron mis “amigos” y “colegas” se ha esfumado como el viento en el que sus palabras fueron escritas, y es por esa mezcla de apetencia y disgusto por la que mis post están viéndose reducidos de manera tan escandalosa.

Aún así intento no dejar morir el blog, me gusta la labor que estaba desempeñando, lo único que últimamente me cuesta encontrar un tema sobre el qué hablaros.

¿Os gustaría que hablase de algo en concreto? No tengo impedimento alguno para hablar sobre cualquier tema relacionado con la temática que tiene el blog.🙂





[Manual] Construir tu ordenador. Parte 1, la tarjeta gráfica.

16 04 2008

La tarjeta gráfica es una parte vital del ordenador, es quien comunica a este con la pantalla y la que se encarga de procesar todo lo que tenga que ver con imágenes.

nVidia 8800 Ultra

En la era primigenia de la informática la información no se veía por pantallas si no que se utilizaban impresoras para verla, esto hacía que fuera muy lento interactuar con los ordenadores. Por lo que a finales de 1960 se empezaron a usar monitores, y las encargadas de crear aquellas primeras imágenes fueron las tarjetas de vídeo.

Después de unas cuantos formatos infructuosos, o de los cuales evolucionaron otros, nació el estándar VGA para el que se empezaron a trabajar en diferentes tarjetas. Todas estas tarjetas se anclaban al puerto PCI, pero rápidamente se vio desfasado por la gran potencia que las tarjetas estaban adquiriendo, debido a ello Intel desarrolló el puerto AGP, al cual sucedieron varias versiones hasta el más reciente el AGP 8x. Pero desde hace dos años este puerto se quedó obsoleto, siendo el más extendido actualmente el PCI-express 16x el que se utiliza para su conexión.

Ya hablamos, del formato PCI-express y de sus ventajas cuando traté el tema de la Placa Base, por lo que sólo recordaré que es una arquitectura, que al contrario que el viejo AGP, permite conectar varias tarjetas para que cooperen entre ellas, mencioné que esto había evolucionado en poder conectar dos tarjetas gráficas entre sí. Pero la afamada marca Nvidia no deja de sorprender y sacó un sistema SLI (que así se conoce a la tecnología que permite interconectarlas) que soporta la conexión de tres tarjetas gráficas en SLI. El SLI no duplica, o triplica, la potencia gráfica del ordenador, pero sí que aumenta su rendimiento considerablemente.

Triple SLI

Ahora bien, ¿necesitas tanta potencia?. Si lo tuyo son los últimos juegos y tecnologías, exprimir hasta la última gota de tu equipo e intentar sacarle alguna más, entonces sí, móntate un SLI con las dos tarjetas más potentes que encuentres. Si es no, o no tanto, puedes optar por una sola tarjeta gráfica de gama alta o de gama media (sinceramente las de gama baja, me dan un poco de asco…).

Y ahora que tenemos más o menos claro qué tipo de tarjeta necesitas. Ha llegado el momento de darte a conocer los dos fabricantes de tarjetas gráficas más exitosos que hay en el mercado:

: ATI era una empresa independiente que compró AMD, hace un tiempo, sí la misma de los procesadores. Lamentablemente está un poco de capa caída últimamente y no saca o no da tantas noticias como lo hace su rival.

nVidia: es la reina del mercado actual, lo ha revolucionado con la tecnología que os mostraba antes del triple SLI y también por su última serie de tarjetas la serie GeForce 9.

Personalmente me decanto por nVidia como mi marca preferida de tarjetas gráficas. Si os decantáis por ella buscad que el fabricante de las tarjetas sea XFX, ha demostrado ser el que mejor sabe fabricarlas y el que mayor rendimiento les saca.

Si ya os habéis decantado por una u otra marca, sabed que si la compráis ahora, deberíais buscar que la tarjeta sea compatible con DirectX 10. (DirectX son unas instrucciones utilizadas para la programación de videojuegos). De esta forma os aseguráis que valga para un futuro no muy lejano.

Las tarjetas gráficas tienen su propia RAM, normalmente del tipo DDR3, la más rápida actualmente, es importante que os fijéis en esto, puesto que cuanto más RAM tenga la tarjeta más rápido podrá funcionar aunque más cara será. 256 Mb de RAM, son suficientes para las tareas sencillas medias, con 512 os aseguráis un rendimiento óptimo con cualquier juego. (Las hay de 1GB de RAM DDR3, pero para mí es un poco más que excesivo). Tenéis que tener mucho cuidado con dos tecnologías que parecen muy golosas cuando lo que están haciendo es fastidiar al sistema entero, estas son TurboCaché e HyperMemory (la primera es de nVidia y la segunda de ATI), estas tecnologías logran hacer uso además de la memoria de la gráfica (que suele ser muy pequeña), de la del sistema haciendo que ante grandes esfuerzos gráficos, la capacidad de memoria de todo el ordenador se reduzca, reduciéndose de este modo el rendimiento de todo el equipo. Ambas tecnologías son de esas que suenan muy bonitas (que hacen que se te llene la boca al decirlas), pero son un poco estafa a mi entender. Es preferible una tarjeta gráfica de 256 Mb dedicados (que son exclusivos de la gráfica) que no una de hasta 512 (que suele significar que tiene 64 exclusivos, y que el resto lo coge al sistema), ¿veis el engaño?

Por último, y como ya dije en otro post, tened siempre los controladores actualizados, los podéis descargar desde estos dos enlaces: nVidia, ATI.

Una vez más, recomendar la tienda de coolmod para vuestras compras:

Coolmod





La estafa de los Gigas.

1 04 2008

También llamado: ¿Por qué mi disco duro de 320GB tiene, en realidad 298GB?

Cuando uno va a una tienda y ve un disco de 500 gigas, piensa, erróneamente, que ese disco duro, tiene 500 GB (giga arriba o abajo, porque alguno se pierde al dar formato al disco duro), pero cuando lo instalas, y compruebas la capacidad, observas que ni siquiera tiene 495, si no que ronda los 460 470 gigas de capacidad, ¿y dónde han ido a parar esos cincuenta o cuarenta gigas que faltan?

Esto, me hace algo de gracia, en parte, porque me han contado historias, de usuarios que se sentían enfadados con los vendedores, y les acusaban de quedarse con esos gigas, para vendérselos a otro. – Oye qué tú te estás quedando con mis gigas-. Claro y también con unos cuantos megas de ram, es que me han dicho que son buenos para tomar en el desayuno. (Mira, en la RAM, no suelen estafar).

¿Pero entonces dónde está esa capacidad perdida? ¿Quién es el culpable, de que mi disco duro no tenga la capacidad que promete? Pues la culpa es de los fabricantes que son muy listos. ¿De dónde sacan ellos que un disco duro tenga menos capacidad que la que dice, dónde reside la estafa?.La estafa está en la forma en que ellos miden la capacidad de los discos duros, para ellos un gigabyte, es igual a 1.000 megabytes y como la mayoría de la gente cree que es así se aprovechan de ellos, pero esto no es así. Os voy a explicar por qué.

Hard Disk

La unidad más pequeña de almacenamiento es el bit, que equivale a una unidad binaria (un uno o un cero), la siguiente unidad más pequeña es el byte (octeto), que tiene 8 bits. A partir de aquí se sigue un método muy simple para calcular las medidas, se utilizan potencias de dos (si os fijáis un poco, en informática todo se mide o calcula usando potencias de dos). Así un kilobyte es 2 elevado a 10 bytes, esto es 1024 bytes. Por esta misma regla, un Megabyte son 1024 kilobytes, un Gigabyte son 1024 megabytes, un terabyte 1024 gigabytes, etc etc. ¿Veis donde está la estafa?, quitan 24 bytes, por kilobyte que se supone que tiene el disco duro. Así un gigabyte, para ellos tiene 1.000.000 de bytes, cuando en realidad tiene 1.048.576 bytes, están quitando 48.576 de bytes por giga, que son aproximadamente 47 megas. Si en un giga nos quitan 47 megas, en 10 nos quitan 470 y en 100 4’7 gigas, pero en un tera (recordemos un tera 1024 Gigas), en un tera nos quitan 47 Gigas!!.

¿Por qué se les permite esta forma de engañar a la gente? Sinceramente, no lo sé, pero lo que sí se, es que cuanto más grandes sean los discos duros, que lo serán y mucho más que un Terabyte, el engaño será más patente.





Arreglar una pantalla TFT con un píxel que no funciona.

25 03 2008

El otro día adquirimos una pantalla plana para el ordenador (bueno, mi progenitor masculino lo hizo), en concreto una Samsung SyncMaster 720n de 17″, yo hubiese escogido otra, pero ya sabéis, los que no saben van a lo más barato.

En fin, que la pantalla venía con un píxel atascado (llamados así porque están permanentemente en color rojo, azul o verde, el mío estaba en rojo). Hay dos clases más de fallos en los píxeles, los muertos que no muestran ningún color, es decir está apagado, y los que siempre muestran color blanco, que son llamados calientes, porque suelen salir tras largos periodos de uso ininterrumpido de la pantalla.

Los fabricantes de monitores suelen tener diferentes políticas ante los píxeles defectuosos de una pantalla, los hay que se comprometen a que no haya ni un sólo píxel mal en todo el panel, y otros que dejan un margen de píxeles defectuosos, por los cuales no se puede reclamar si lo superan.

Pero no todo está perdido, existen varios métodos para arreglarlos, se puede instalar un programa, se puede bajar un vídeo y reproducirlo en la zona del píxel o a pantalla completa, pero buscando por la red una forma más cómoda encontré esta página JScreenFix que ofrecen una pequeña aplicación java accesible desde un enlace. Su función es muy simple y cómoda, al hacer clic en el enlace, se abre una nueva ventana del explorador, más pequeña, con algo así, pero lo de dentro se mueve:

jscreenfix

Esta pantalla la moveremos a donde tenemos el problema con el píxel, y una vez situado encima, esperamos unos 5 o 10 minutos, este tiempo debería ser suficiente para que el pixel atascado se recupere, si en ese tiempo no ocurre deberemos esperar, como unos 20 minutos más.

Seguro que si buscáis encontraréis más métodos, como por ejemplo hacer presión en donde está el píxel atascado, pero sinceramente ese método puede hacer que os carguéis la pantalla si no sois extremadamente cuidadosos, y aún así, siempre puede ocurrir.

Pd: los píxeles muertos, están muertos, y eso quiere decir que no se pueden arreglar.