Reglamento general de los foros   •   FAQ   •   Buscar en el foro •  Registrarse | Iniciar sesión 



Portada » Foros Linux » Administración del sistema » Sistema


Nuevo tema Responder al tema
 [ 15 mensajes ] 
Patrocinadores

Autor
Buscar:
Mensaje

Desconectado
Forista Medio
Forista Medio
Avatar de Usuario

Registrado: Sab Nov 08, 2008 8:00 am
Mensajes: 360

Nota Publicado: Dom Jul 04, 2010 3:07 am 
Arriba  
Allá por mis inicios en Linux hace un par de años cometí lo que creía un error de principiante: intentar desfragmentar el disco duro, como lo había hecho en Windows siempre. Tras intentarlo infructuosamente me encontré con una gran cantidad de información que aseguraba que en Linux no hace falta desfragmentar el disco duro. Pero bien pensado esos argumentos eran débiles en tanto que no recuerdo haber visto una demostración de por qué en Linux los sistemas de archivos no se fragmentan.

Pues bien, ya he dado con la solución a ese mito. Resulta que en Linux los sistemas de archivos también se fragmentan, y de ¡qué manera!
Linux y la fragmentación: sí, ocurre
Linux y la fragmentación: provocando fragmentación en Ext4
Linux y la fragmentación: "delayed allocation
Linux y la fragmentación: el asignador de bloques de Ext4

Información muy valiosa y que sería muy útil que se divulgara. Como explica el autor de esta serie de artículos no se escribe mucho sobre esto en Internet.

Saludos.

_________________
"El que sólo busca la salida no entiende el laberinto, y, aunque la encuentre, saldrá sin haberlo entendido" J. Bergamín.

 Perfil  

Desconectado
Forista Legendario
Forista Legendario
Avatar de Usuario

Registrado: Vie Abr 27, 2007 7:00 am
Mensajes: 1873

Nota Publicado: Dom Jul 04, 2010 4:25 am 
Arriba  
Lo leí completo y la verdad que es totalmente convincente, es un excelente articulo, vale la pena, muy, muy bueno =D>
Habría que decirle al autor que una todos los articulo en un pdf, así es mucho mas fácil de leer.

_________________
Desarrollo en Qt: Codigo::Qt() | Qt Developer Network
Mis proyectos: github | SourceForge.net

 Perfil WWW  

Desconectado
Forista Medio
Forista Medio
Avatar de Usuario

Registrado: Lun Feb 11, 2008 8:00 am
Mensajes: 334

Nota Publicado: Mar Jul 06, 2010 1:34 am 
Arriba  
En una charla sobre software libre a la que fui hace cerca de dos años, el argumento que dieron acerca de la "escasa fragmentación de Linux" (admitieron la fragmentación, pero aseguraron que es tan pequeña que sólo es necesario desfragmentar a lo sumo cada 7 años) fue el hecho de que en sistemas de archivo de los SO de tipo Unix el archivo de swapping está en una partición aparte, mientras que en NTFS el pagefile.sys "compite con el resto de los archivos estresando el disco duro".
¿Al final es todo cuestión de algoritmos? ¿en las charlas de software libre mienten deliberadamente? :shock: :?


Última edición por quierolinux el Mar Jul 06, 2010 3:16 am, editado 1 vez en total
 Perfil  

Desconectado
Forista Legendario
Forista Legendario
Avatar de Usuario

Registrado: Vie Abr 27, 2007 7:00 am
Mensajes: 1873

Nota Publicado: Mar Jul 06, 2010 2:28 am 
Arriba  
No creo que mientan sino mas bien que están desinformados, fijate que al principio del articulo el autor menciona un punto clave que demuele el mito y es el hecho de que no es físicamente posible escribir varios archivos al mismo tiempo en el disco duro, obligatoriamente tiene que escribir un bloque de un archivo, luego un bloque de otro y así hasta terminar, para así crear la falsa sensación de multitasking, y así es como se van fragmentando los archivos, es algo realmente lógico.
La fragmentación es un problema general de todos los sistemas operativos y de todos los sistemas de archivos, nada mas que algunos utilizan mejores o peores algoritmos para reducir la fragmentación, pero la fragmentación sigue existiendo.

_________________
Desarrollo en Qt: Codigo::Qt() | Qt Developer Network
Mis proyectos: github | SourceForge.net

 Perfil WWW  

Desconectado
Forista Medio
Forista Medio
Avatar de Usuario

Registrado: Lun Feb 11, 2008 8:00 am
Mensajes: 334

Nota Publicado: Mar Jul 06, 2010 3:37 am 
Arriba  
Pues sí. Pero entonces no sería sólo problema de Linux sino de todos los SO.

Aunque también he visto casos opuestos: gente negando la fragmentación y sus consecuencias incluso en Windows.
Hay de todo :D

 Perfil  

Desconectado
Forista Medio
Forista Medio
Avatar de Usuario

Registrado: Vie Oct 19, 2007 7:00 am
Mensajes: 131
Ubicación: Buenos Aires - Argentina

Nota Publicado: Mié Jul 07, 2010 4:52 am 
Arriba  
y con ext3 como sistema de archivos como debería hacer para desfragmentar la PC... alguna recomendación?

_________________
Debian user
- antuankerbage.com.ar
- facebook.com/antuan.kerbage

 Perfil  

Desconectado
Forista Legendario
Forista Legendario
Avatar de Usuario

Registrado: Vie Abr 27, 2007 7:00 am
Mensajes: 1873

Nota Publicado: Mié Jul 07, 2010 5:13 am 
Arriba  
En el articulo menciona algunas herramientas, sera cuestión de averiguar si funcionan en ext3

_________________
Desarrollo en Qt: Codigo::Qt() | Qt Developer Network
Mis proyectos: github | SourceForge.net

 Perfil WWW  

Desconectado
Forista Mayor
Forista Mayor
Avatar de Usuario

Registrado: Mar Feb 21, 2006 8:00 am
Mensajes: 679
Ubicación: Lima - Perú

Nota Publicado: Vie Jul 09, 2010 8:53 am 
Arriba  
Realmente muy interesante y definitivamente muy acertado el contenido. Saludos.

_________________
G+: cronos | Twitter: @cronos426 | Pump.io: @cronos | IRC: cronos/cr0n0s
Manjarobox 0.8.9 i686 | Fedora 20 Gnome3 x86_64 | Debian Wheezy Xfce 4.8 i686
"Reciclemos, el planeta nos necesita"

 Perfil WWW  

Desconectado
Forista Ancestral
Forista Ancestral
Avatar de Usuario

Registrado: Jue Abr 12, 2007 7:00 am
Mensajes: 9186
Ubicación: tras la pantalla (...)

Nota Publicado: Dom Jul 11, 2010 4:30 pm 
Arriba  
si fragmentacion haber hay.... yo lei hace poco que se produce sobre todo en sistemas muy llenos ,porque va metiendo las cosas donde buenamente caben. Y daban una herramienta para comprobar el grado de fragmentacion, y algunos decian que lo tenian bastante fragmentado. Luego si eso busco el enlace.

Pero a lo que iba. La fragmentacion en una particion de datos es irrelevante: al fin y al cabo, lo que se busca no es velocidad de acceso sino capacidad (y si no, que alguien me explique por que leches vuelven los HD de 5400 RPM para sobremesas ). y la fragmentacion lo que causa principalmente es demora en el tiempo de acceso. Luego, la fragmentacion en particiones de datos no es preocupante.

llegamos a las particiones raiz. veamos, estadisticamente, a ojo, el 80% de los usuarios de linux (a nivel usuario, no empresa o server), usan distros que liberan nueva version cada 6 o 12 meses. Y de esos, un porcentaje muy alto, en lugar de actualizar, reinstalan, formateando el HD. Con lo que se queda limpito y sin fragmentacion. Y digo yo, que a no ser que la gente sea tan bruta como yo de dejar solo 4 Gb de raiz (he visto raices de 20 y 30 Gb :shock: ), el espacio libre suele sobrar en una raiz, asi que la fragmentacion que se pueda producir en 6 meses o 1 anio, no es relevante.

traduccion: que el problema existir existe. Pero para los usuarios de a pie, digamos que no nos afecta mucho.

voy a buscar ese enlace y vuelvo.



:D

Editado -- hace menos de un minuto --

Código:
3800:scripts # ./defrag.pl /home/niky
4.46248374220747% non contiguous files, 0.663497331479571 average fragments.
3800:scripts # df -H |grep /home
/dev/sdb6               11G   2,9G   7,2G  29% /home
3800:scripts #

eso tras yo diria que cerca de dos anios de uso (obviamente sin formatear).

Código:
 3800:scripts # ./defrag.pl /         
5.87816343003656% non contiguous files, 1.17083709225583 average fragments.
3800:scripts # df -h |grep root
rootfs                4,7G  3,4G  1,4G  72% /
3800:scripts #
 

y esto, tras un anio sin formatear, y un porcentaje de uso minimo del 50% (ha llegado a mas del 90).
todo sobre reiserfs.

y desmontando los articulos que nos decia e-Vox: ext4, llenita, con los temporales de la mula y el torrent, volcando copias de seguridad de 4 maquinas casi a diario con cp -Rvfpux (copia tal cual de la raiz, con todos sus archivos), y borrandolas al poco, y....
Código:
3800:scripts # ./defrag.pl /mnt/data
0.309949290885918% non contiguous files, 1.18317921739838 average fragments.
3800:scripts # df -h |grep data
/dev/sdb10            110G  102G  2,8G  98% /mnt/data
3800:scripts #


aunque he de reconocer que la limpie hace poco (copia datos a otro sitio, formatea, vuelve a copiar datos; poco es algo menos de medio anio), pero aun asi es la particion que mas trabaja (y ojo, porque esta a mas de un 90% de uso desde hace bastante tiempo)

(ext4)
Código:
3800:T7 #  filefrag *7x01* -v
Filesystem type is: ef53
File size of 24 7x01 08.00am-09.00am [BRRIP Xvid-AC3 5.1][Spanish-English][by jesuscas][TusSeries-Misteryrip].avi is 886654976 (216469 blocks, blocksize 4096)
 ext logical physical expected length flags
   0       0 17772544           32768
   1   32768 17805312           20480
   2   53248 18089984 17825791  32768
   3   86016 18122752           32768
   4  118784 18155520            2048
   5  120832 18159616 18157567  32768
   6  153600 18192384           32768
   7  186368 18225152           16384
   8  202752 18251776 18241535  13717 eof
24 7x01 08.00am-09.00am [BRRIP Xvid-AC3 5.1][Spanish-English][by jesuscas][TusSeries-Misteryrip].avi: 4 extents found
3800:T7 #

por poner un ejemplo.

Código:
3800:T8 #  filefrag 801*  -v
(...)
801.avi: 256 extents found
3800:T8 #  filefrag 801*   
801.avi: 381 extents found
3800:T8 #


este se ha bajado estando el HD lleno..... y por cierto, no se por que con el -v marca una cifra y sin el otra. :?

un ultimo dato..... aqui todos los archivos son de mas de 600 Mb.

Código:
 3800:scripts # ./defrag.pl /mnt/pelis
82.5% non contiguous files, 199.65 average fragments.
3800:scripts # df -h /mnt/pelis
Filesystem            Size  Used Avail Use% Mounted on
/dev/sdb9              50G   34G   17G  68% /mnt/pelis
3800:scripts #
(...)
 3800:pelis #  filefrag *   
Acero Azul (1990).avi: 166 extents found
Anticristo.[Spanish].CVCD.DVDScreener.[DTL].mpg: 164 extents found
CIENCIA FICCION 2004 Cube Zero Dvd-Rip Xvid-Mp3 Spanish Grup Ar Mi.avi: 166 extents found
Cuentos.inmorales.XVID.DVDrip.AC3.Spanish.by.cowboysgroup.to.www.cowboysdelared.es.avi: 260 extents found
__Dejame.Entrar.Spanish.XviD.MP3.DVDRip.By.FreAk.TEAm.avi: 267 extents found
Doce Hombres Sin Piedad - 1957 - Sidney Lumet - DVDRip Spanish English.avi: 164 extents found
^C
3800:pelis #

si que esta fragmentada, pero bueno. :cry: (el ^C es porque son muchos archivos y no quiero llenar esto con un exceso de codigo, asi que lo he cortado. )

bueno, bastantes datos por hoy. :D

_________________
#446716
>>"Linux: the operating system with a CLUE... Command Line User Environment".
(seen in a posting in comp.software.testing)

[ DNFD ] - [ F4A ] - [ dotfiles ]

 Perfil WWW  

Desconectado
Forista Medio
Forista Medio
Avatar de Usuario

Registrado: Sab Nov 08, 2008 8:00 am
Mensajes: 360

Nota Publicado: Mar Jul 13, 2010 4:50 pm 
Arriba  
Tu comentario inicial suena a aquello que suelen defender los usuarios de Windows cuando dicen cosas como que "Cuelgues en Windows hay, de verdad verdad, pero de vez en cuando. La última vez que se me colgó fue buffff..." jeje. Si hay cuelgues en Windows habrá que solucionarlo, punto. Si hay fragmentación en los sistemas de archivos que usa Linux también habrá que solucionarla, punto.
Y eso de que
Citar:
a ojo, el 80% de los usuarios de linux (a nivel usuario, no empresa o server), usan distros que liberan nueva version cada 6 o 12 meses. Y de esos, un porcentaje muy alto, en lugar de actualizar, reinstalan, formateando el HD. Con lo que se queda limpito y sin fragmentacion
te lo has sacado de la manga. Ni siquiera se sabe cuánta gente usa Linux, cómo se va a saber las costumbres de esos usuarios, siendo los linuxeros más "raritos" que otros usuarios de otros sistemas operativos.

También es curioso que enlaces a un artículo que está enlazado en el artículo inicial que yo he puesto, justo en la primera línea, donde dice "ha vuelto a renacer". En el artículo de DOH está explicado por qué el artículo de MuyLinux es erróneo. El script de MuyLinux lo único que hace es ver un porcentaje, no ve la fragmentación. Es una falsificación de la realidad.

Saludos.

_________________
"El que sólo busca la salida no entiende el laberinto, y, aunque la encuentre, saldrá sin haberlo entendido" J. Bergamín.

 Perfil  

Desconectado
Forista Legendario
Forista Legendario
Avatar de Usuario

Registrado: Vie Abr 27, 2007 7:00 am
Mensajes: 1873

Nota Publicado: Mar Jul 13, 2010 5:06 pm 
Arriba  
e-Vox escribió:
Tu comentario inicial suena a aquello que suelen defender los usuarios de Windows cuando dicen cosas como que "Cuelgues en Windows hay, de verdad verdad, pero de vez en cuando. La última vez que se me colgó fue buffff..." jeje. Si hay cuelgues en Windows habrá que solucionarlo, punto. Si hay fragmentación en los sistemas de archivos que usa Linux también habrá que solucionarla, punto.
Y eso de que
Citar:
a ojo, el 80% de los usuarios de linux (a nivel usuario, no empresa o server), usan distros que liberan nueva version cada 6 o 12 meses. Y de esos, un porcentaje muy alto, en lugar de actualizar, reinstalan, formateando el HD. Con lo que se queda limpito y sin fragmentacion
te lo has sacado de la manga. Ni siquiera se sabe cuánta gente usa Linux, cómo se va a saber las costumbres de esos usuarios, siendo los linuxeros más "raritos" que otros usuarios de otros sistemas operativos.

También es curioso que enlaces a un artículo que está enlazado en el artículo inicial que yo he puesto, justo en la primera línea, donde dice "ha vuelto a renacer". En el artículo de DOH está explicado por qué el artículo de MuyLinux es erróneo. El script de MuyLinux lo único que hace es ver un porcentaje, no ve la fragmentación. Es una falsificación de la realidad.

Saludos.


Y quiero agregar una cosa mas, pude que reinstalando el sistema corrija la desfragmentacioun, pero solo en la raíz, pero todos los documentos que están en otra particion siguen estando fragmentados, y el la practica son mucho mas importantes los datos que el sistema.
Además, que pasa con los que usan rolling release que nunca tienen que reinstalar? entonces la solución de nicky no funciona.

_________________
Desarrollo en Qt: Codigo::Qt() | Qt Developer Network
Mis proyectos: github | SourceForge.net

 Perfil WWW  

Desconectado
Forista Ancestral
Forista Ancestral
Avatar de Usuario

Registrado: Jue Abr 12, 2007 7:00 am
Mensajes: 9186
Ubicación: tras la pantalla (...)

Nota Publicado: Jue Jul 15, 2010 8:16 pm 
Arriba  
las estadisticas siempre seras estadisticas. pero aunque no sean reales, si que sirven para hacerse una idea de la realidad. Si yo leo en el foro, y veo que la gran mayoria usan *buntus, y muchos mas usan mandriva o suse o distros que sacan version nueva cada seis meses o un anio, puedo decir reflejando la realidad (aunque quiza no sea exacto) que un alto porcentaje de usuarios usa esas distros. que a ojo sea un 90% o sea un 70%, no es algo que sea relevante, pues ni siquiera es un estudio serio. pero da una idea.

y si cada vez que ubuntu saca una nueva version, hay 50 temas diciendo que han tenido problemas al actualizar y acaban reinstalando, puedo intuir que de los que usan ubuntu, un alto porcetaje reinstala cada seis meses. (lo mismo se aplica a casi todas las distros que liberan cada poco)

No son datos reales, ni mucho menos. Pero que de los usuarios de linux, MUCHOS reinstalan cada 6 meses, es algo obvio.

Citar:
Tu comentario inicial suena a aquello que suelen defender los usuarios de Windows cuando dicen cosas como que "Cuelgues en Windows hay, de verdad verdad, pero de vez en cuando. La última vez que se me colgó fue buffff..." jeje. Si hay cuelgues en Windows habrá que solucionarlo, punto. Si hay fragmentación en los sistemas de archivos que usa Linux también habrá que solucionarla, punto.


no he dicho que no haya que solucionarlo. solo, que el problema no es ni mucho menos para llevarse las manos a la cabeza. Que aunque exista, creo que hay problemas mucho mas importantes. es como si ahora me dices que en win si usas la version especifica de un programa que no usa casi naide, da un error y no pasa nada, y que en condiciones X, mucho mas habituales, se cuelga. pues digo yo que sera mas importante solucionar lo de los cuelgues que un error especifico y sin consecuencias.

Citar:
También es curioso que enlaces a un artículo que está enlazado en el artículo inicial que yo he puesto, justo en la primera línea, donde dice "ha vuelto a renacer"

y asimismo, he dado datos de una particion en la que NO hay archivos pequenios que diluyan esos datos reales en simples estadisticas. con lo que la cifra de dicho script, segun los articulos, sera cercana a la realidad. Y si, hay fragmentacion y bastante.

Citar:
Y quiero agregar una cosa mas, pude que reinstalando el sistema corrija la desfragmentacioun, pero solo en la raíz, pero todos los documentos que están en otra particion siguen estando fragmentados, y el la practica son mucho mas importantes los datos que el sistema.]


hmmm.... ya por curiosidad.... en ese caso, me puedes contestar a esta pregunta? :
niky45 escribió:
al fin y al cabo, lo que se busca no es velocidad de acceso sino capacidad (y si no, que alguien me explique por que leches vuelven los HD de 5400 RPM para sobremesas


Citar:
Además, que pasa con los que usan rolling release que nunca tienen que reinstalar?

:D que reinstalan porque se cargan el sistema??? :? (yo lo hacia, vale? :x :D )

resumiendo. no he dicho que no exista el problema, ni que no haya que buscar una solucion. Solo, que a la mayoria de usuarios es algo que no les afecta demasiado.

:)

_________________
#446716
>>"Linux: the operating system with a CLUE... Command Line User Environment".
(seen in a posting in comp.software.testing)

[ DNFD ] - [ F4A ] - [ dotfiles ]

 Perfil WWW  

Desconectado
Forista Medio
Forista Medio
Avatar de Usuario

Registrado: Sab Nov 08, 2008 8:00 am
Mensajes: 360

Nota Publicado: Vie Jul 16, 2010 1:19 am 
Arriba  
Lo que comentas de las estadísticas es algo gracioso. Hablas de 80%, 90%... como si un 10% de diferencia fuera algo irrelevante, y encima lo haces a ojo. No tiene sentido dar ese dato así.
Citar:
no he dicho que no haya que solucionarlo. solo, que el problema no es ni mucho menos para llevarse las manos a la cabeza.


No se trata de llevarse las manos a la cabeza, sino de destruir el mito.

Citar:
y asimismo, he dado datos de una particion en la que NO hay archivos pequenios que diluyan esos datos reales en simples estadisticas. con lo que la cifra de dicho script, segun los articulos, sera cercana a la realidad. Y si, hay fragmentacion y bastante.


Ya está todo dicho. Hay fragmentación, y mucha. Y como tú misma has captado, para "engañar" al script solo hace falta meter muchos archivos pequeños. Y de hecho es por eso que ese script suele dar un dato falseado de la realidad, porque en Linux tenemos un sin fin de archivos pequeños que no se fragmentan y el porcentaje que devuelve el script suele ser bajo. Pero con ese script uno no ve la fragmentación real que uno tiene en el disco duro.

Citar:
resumiendo. no he dicho que no exista el problema, ni que no haya que buscar una solucion. Solo, que a la mayoria de usuarios es algo que no les afecta demasiado.


El problema existe y afecta al 100% de los usuarios que usan Linux (eso sí es un dato objetivo y confirmable). Que a la gente le dé igual, pues ya es otra cosa. Y así, a ojo :D , diría que el 100% de los usuarios de Linux mejorarían el rendimiento de su PC si desfragmentaran su disco duro de vez en cuando.
Lo de que afecte demasiado o no ya es cuestión de gusto. La de años que llevan los linuxeros discutiendo sobre la compilación del kernel, total, para sacar de él un par de cosillas que no molestan.. Y qué más dará un Debian o un Ubuntu, vienen a ser lo mismo... Y para usar un ordenador, con Windows ya hago todo lo que hago en Linux...

Saludos.

_________________
"El que sólo busca la salida no entiende el laberinto, y, aunque la encuentre, saldrá sin haberlo entendido" J. Bergamín.

 Perfil  

Desconectado
Administrador
Administrador
Avatar de Usuario

Registrado: Jue Ene 01, 1970 2:00 am
Mensajes: 3362
Ubicación: León, Guanajuato; México.

Nota Publicado: Vie Jul 23, 2010 4:35 am 
Arriba  
Hola a todos:

En los años que llevo usando Linux lo que he visto que hablan alrededor de este tema es que la fragmentación es poca, y por lo tanto no afecta en gran medida, nada más que no faltan los usuarios que dicen que no hay, cuando si existe. Al parecer el autor de los artículos ha llegado a una conclusión en donde dice que si es necesario desfragamentar con frecuencia, sin embargo, necesitaría sumergirme en el tema para apoyar o refutar sus análisis.

Lo que si es que también dice que la fragmentación es muy opinable y se puede dar por la influencia de unos y otros factores, lo cual me parece muy sensato.

Pero bien, hice algunas pruebas con mis sistemas para conocer como ando al respecto y en mi caso me salio muy positivo el asunto.

Desde hace casi tres años tengo una partición home con ext3 que no he formateado y que utilizo (a diario) tanto de manera productiva como de pruebas, ya que al instalar diversas distribuciones generalmente la utilizo para mantener a salvo los archivos generados con mis usuarios. Hasta donde se nunca había sido desfragmentada y últimamente he hecho cambios grandes ya que la depure para ganar espacio y concentrar información en algunos lugares. He borrado varios gigas de información, he añadido otros y he movido mucho más. Es una partición con mucho movimiento.

Al ver el tema me dio la curiosidad de saber que tanto estaba fragmentada así que comencé a revisar la desfragmentación y me dio mas o menos 6%.

También cheque las otras particiones que tengo, todas con ext4, en donde tengo varios sistemas, ninguno de estas pasa de los 6 meses sin haber sido formateada y en su caso había casi 0% de desfragmentación.


Sobre el mito de que en Linux no hay fragmentación, la verdad, yo no he sabido mucho al respecto, como dije al principio hay usuarios que dicen que no existe, pero también hay usuarios que dicen que el kernel no tiene fallos (es perfecto). Lo que si he sabido es que no se toma mucho en cuenta por que la fragmentación es poca en la mayoría de los casos y por lo tanto no es un factor importante en el desempeño del sistema.

En todos mis años de usar Linux nunca he desfragmentado por mi mismo una partición y hasta el momento, no veo una razón para preocuparme por hacerlo.

En cuanto a los artículos del autor, parece muy convencido de lo que dice. Sería muy bueno que se acercara con los desarrolladores de las diversas distribuciones para que trataran el tema (y de a conocer lo que cuentan), por que hasta donde se, ninguna distribución añade una interfaz gráfica para desfragmentar el sistema y la añaden a sus herramientas de administración. Eso si, las herramientas de desfragmentación se añaden en casi todas las distribuciones, pero como auxiliares, coincidiendo con la teoría de que la fragmetación es poca en la mayoría de los casos, pero en algunos otros puede darse en mayor grado.

Un saludo.

Editado: Edite el mensaje original por que estoy haciendo nuevas pruebas ya que no he quedado convencido con los resultados iniciales.

_________________
No hay nada que agradecer. Hago, lo tengo que hacer.
Reglamento del foro | Temas más preguntados | Blog personal | Twitter: @pacorevilla

 Perfil WWW ICQ  

Desconectado
Administrador
Administrador
Avatar de Usuario

Registrado: Jue Ene 01, 1970 2:00 am
Mensajes: 3362
Ubicación: León, Guanajuato; México.

Nota Publicado: Vie Jul 23, 2010 7:18 am 
Arriba  
Bueno, después de algunas horas adentrándome en el tema, y haciendo algunas pruebas, llego a la conclusión que no puedo ofrecer datos fiables del nivel de fragmentación de mis sistemas, a pesar de que en un principio he creído que si. Supongo que solamente investigando más y revisando bien cada herramienta disponible podría llegar a datos más confiables.

Pero bien, volviendo al tema principal no veo que sea un mito el que digan que en Linux la fragmentación no existe. Un mito es una creencia popular sobre algo, pero que no es cierta. En este caso yo no veo que popularmente se crea que en Linux no exista la fragmentación ya que lo que predomina es que se diga que no es necesario desfragmentar (por la poca desfragmentación).

Cierto que hay usuarios que dicen que no existe, pero también hay usuarios que dicen que en Windows no hay cuelgues, pero no por eso ya es un mito.

A mi lo que me parece más interesante es conocer si es un mito o una realidad que la fragmentación en Linux es poca, y por lo tanto no afecta considerablemente el desempeño del sistema. Hasta ahora he visto que ofrecen datos para decir que hay fragamentación, pero ya en todo el sistema, en un funcionamiento normal, ¿cuanto es lo que afecta realmente al rendimiento?

Como usuario de muchos años del sistema no veo que haya un declive considerable en el rendimiento durante su uso, y eso que me ha pasado más de un año con un mismo sistema, y si he cambiado, es por actualizar de versión, no por dificultades en su rendimiento.

Ahora, esto último lo puedo tomar como una simple percepción mía, pero también se ha ignorado mucho el tema por los mismos des arrolladores.

A diferencia de Windows que es controlado por una sola empresa, Linux es desarrollado por una multitud así que si alguien quiere esconder que existe un problema (que la fragamentación afecte considerablemente el rendimiento), no faltará quien lo aborde. Existen cada año diversos eventos que apuntan a mejorar el sistema, y hasta donde se el tema de la fragmentación no ha sido algo prioritario o que suene como importante.

En el caso de la revisión del sistema, así como la corrección, existen herramientas como e2fsck que vendría a ser un equivalente al scandik de Windows, e incluso en muchas distribuciones se ejecuta automáticamente cada cierto tiempo durante la carga del sistema. Pero no incluyen por defecto un desfragmentador.

Vamos a suponer que debido al uso que se le daba al principio a Linux por eso no se considero un desfragmentador, pero ya tiene muchos que se ha adentrado en el escritorio y aún así no.

La verdad me genera bastantes dudas, y me gustaría muchos saber sobre pruebas reales al respecto. Sería muy bueno conocer estadísticas de fragmentación de los usuarios, tal como hace ubuntu con los paquetes.

Por el momento, insisto en que no veo una buena razón para desfragamentar, basado en lo dicho anteriormente. Pero no puedo negar que el tema me genera dudas (tanto a favor o en contra) y la verdad me parece muy interesante. Ojala que en un tiempo más se den a conocer datos más concluyentes por parte de los hacedores de las distribuciones o desarrolladores.

Un saludo.

_________________
No hay nada que agradecer. Hago, lo tengo que hacer.
Reglamento del foro | Temas más preguntados | Blog personal | Twitter: @pacorevilla

 Perfil WWW ICQ  
Mostrar mensajes previos:  Ordenar por  
 [ 15 mensajes ] 
Nuevo tema Responder al tema

Saltar a:  


 Temas relacionados   Autor   Respuestas   Vistas   Último mensaje 
LINUX Un Mito, Windows Una Realidad????

en Noticias y Actualidad

xtopher

4

1708

Jue Abr 12, 2007 4:12 am

megabyte Ver último mensaje

Duda con fragmentacion en Ubuntu

en Sistema

nazca

3

815

Mar Ago 05, 2008 5:50 pm

milux1 Ver último mensaje

El SIDA es un mito???

en El Café

Web-on

12

1284

Jue Mar 01, 2007 11:59 am

Rafaello Ver último mensaje

descargar la revista todo-linux linux para seres humanos

en Documentación

christian130

14

13563

Mar Dic 04, 2007 12:45 pm

entuxiasma2 Ver último mensaje

novato con linux, ayuda instalar paquetes con linux ubuntu.

en Software

xavier_76

3

655

Lun Jun 23, 2008 10:51 pm

niky45 Ver último mensaje



¿Quién está conectado?

Usuarios navegando por este Foro: No hay usuarios registrados visitando el Foro y 1 invitado

No puede abrir nuevos temas en este Foro
No puede responder a temas en este Foro
No puede editar sus mensajes en este Foro
No puede borrar sus mensajes en este Foro
No puede enviar adjuntos en este Foro

Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group :: Style based on FI Subice by phpBBservice.nl :: Todos los horarios son UTC + 1 hora [ DST ]
Traducción al español por Huan Manwë
phpBB SEO