(par exemple le noyau)échoue à cause d'un signal 11. Ce problème peut être causé par un dysfonctionnement d'ordre matériel (cas le plus fréquemment observé) ou logiciel.
La
version originale de ce document est à présent intégrée à la collection des
"Mini-Howto" de Linux.
La version publiée sur le Web était consultée 300 fois par semaine en juin
1996 (augmentation : facteur 3 en 3 mois).
La plus récente version de ce texte, librement utilisable s'il n'est pas modifié, sur trouve sur son site de référence <URL:http://www.linux-france.com/>
Tout commentaire et compte-rendu d'expérience intéresse l'auteur (
Rogier Wolff <[email protected]>) mais les suggestions d'ajouts techniquement
sans valeur seront rejetées.
Expédier à
[email protected] les commentaires concernant cette adaptation
française.
Note : le problème détaillé ici concerne aussi les autres systèmes un tant soit peu exigeants : Windows 3.1, FreeBSD, Windows NT, NextStep...
Cette adaptation française doit beaucoup à J. Chion.
Voici la question-clé traitée par ce document :
Lorsque je compile un noyau Linux la procédure avorte avec un message: gcc: Internal compiler error: program cc1 got fatal signal 11 Que se passe-t-il ?
Le problème est vraisemblablement causé par un dysfonctionnement du matériel. De nombreux composants de l'ordinateur peuvent être impliqués et diverses manières de résoudre le problème existent.
Sitôt après l'échec du make
, invoquez-le à nouveau.
Si la machine parvient à compiler quelques autres fichiers, nous pouvons penser que le matériel est défaillant.
Si, par contre, la compilation cesse tout de suite (message "nothing to be done for xxxx" avant nouvel échec au même endroit), il faudra déterminer si le contenu de la mémoire vive est toujours bien préservé. Pour cela :
dd if=/dev/DISQUE_DUR of=/dev/null bs=1024k count=MEGASDISQUE_DUR remplace ici le nom du fichier spécial associé au disque dur stockant les sources. Pour connaître son nom, rester dans le répertoire abritant les sources et introduire
df .
("df" suivi
d'un espace puis un point).free
).
Cette commande va obliger Linux à lire les informations placées au début du disque de façon à "gaver" le contenu du cache disque ("buffer-cache"). Il devra donc, par la suite, relire les fichiers source à compiler ainsi que les binaires de gcc.
Invoquer make
.
Si la compilation échoue toujours au même "endroit", le problème est probablement d'ordre logiciel. Étudier en ce cas la section consacrée aux autres causes possibles.
Si la compilation échoue à un autre stade, nous pouvons conclure que les transferts de données entre le disque et la mémoire vive ne sont pas assurés correctement.
Linux avorte grâce au "signal 11" tout programme tentant d'accéder à une adresse mémoire ne lui appartenant pas. Parmi les nombreuses causes possibles, nous ne pouvons retenir dans l'absolu que deux possibilités, dans le cas où cela concerne une version stable de gcc utilisée sur une machine très commune : problème matériel ou bien inadéquation de certaines composantes des utilitaires logiciels du système.
Lorsque ce problème survient sur une machine sans défaut matériel, il ne peut être causé que par une erreur de programmation ou de compilation (en l'occurrence du binaire de gcc). Mais lorsque le matériel est défaillant, et que des valeurs stockées en mémoire vive changent plus ou moins aléatoirement, un programme exigeant tel que gcc ne parviendra pas à mener à bien sa mission car il tentera tôt ou tard de déréférencer un pointeur au contenu ainsi modifié.
Un pointeur, sur une machine à processeur Intel, s'étend sur 32 bits et
permet donc d'accéder à 4 Go. Peu de machines Intel disposent d'autant de
mémoire vive dont la majeure partie serait allouée à gcc !
Une adresse de 32 bits aléatoire est donc très probablement illégale et
Linux tuera le programme qui tente avec elle, selon lui, de manipuler des
données ne lui appartenant pas.
Voici une liste des diverses causes de dysfonctionnement du matériel :
Inventaire des causes et solutions :
Témoignage ([email protected]) : nous avons éprouvé de grandes difficultés avec une machine dont il s'avéra que les quatre barrettes étaient défectueuses et modifiaient à peu près un bit par heure de fonctionnement. La machine "plantait" environ une fois par jour et les compilations de noyau échouaient environ une fois par heure. Cette machine a pu exécuter le test mémoire durant 2300 cycles complets sans erreur, puis détecta environ 10 erreurs et continua ensuite sans problème durant plusieurs centaines de cycles. La compilation de noyau s'avéra le test le plus efficace car même le cas le plus favorable ne permettait pas de compiler plus de 14 noyaux à la suite. Nous avons donc échangé ces barrettes.
Témoignages : nous avons très longtemps utilisé sans problème un jeu de composants sans support de ce type. Mais ils ne furent pas utilisables avec un convertisseur (Naresh Sharma ([email protected])).
Paul Gortmaker ([email protected]) indique que les convertisseurs doivent tous comporter au moins quatre condensateurs de régulation du courant.
dram
,
offre le moyen de configurer le jeu de composants ("chipset") au plus bas
niveau afin d'obtenir des effets semblables.
dd
(consulter à ce propos la section consacrée à l'
expiration du buffer cache) la compilation avortera
très vraisemblablement à un autre stade.
CPU à 120 : bus à 60 (x 2), CPU à 100 : bus à 66 (x 1,33). Un autre processeur P120, monté en lieu et place, fonctionne d'ailleurs normalement.
Intel indique que la température de la surface du processeur doit être
comprise entre :
Le fait que la configuration déficiente fonctionnait sans problème depuis un moment n'implique malheureusement pas que le matériel est hors de cause.
L'exemple classique concerne les composants de mémoire. Leurs fabricants ne disposent pas d'une ligne de production distincte pour chaque type de mémoire. Les circuits proviennent tous des mêmes machines et matières premières, seul le test final détermine si un composant donné sera par exemple vendu en tant que 60 ns ou bien 70 ns. Vos composants fonctionnaient peut-être à merveille depuis longtemps à la limite de leurs capacités mais un facteur quelconque (la température, par exemple, ralentit les mémoires) peut les rendre assez vite inadéquats.
Un climat estival ou bien une lourde charge de travail processeur place donc parfois le système dans des conditions où son fonctionnement correct n'est plus certain, voire plus possible (Philippe Troin ([email protected])).
Le test mémoire effectué par le BIOS lors du démarrage de la machine n'en
est le plus souvent pas un. Des conditions d'exploitation extrêmes peuvent
seules permettre de lever le doute. Tester grâce à memtest86
.
Non, mais la compilation du noyau exige beaucoup de ressources et constitue donc un excellent test ou révélateur.
Autres cas observés :
Linux exploite mieux le matériel que la plupart des autres systèmes, comme ses performances le laissent imaginer.
Certains autres systèmes, par exemple édités par Microsoft, se "plantent parfois" de façon incompréhensible. Peu d'utilisateurs s'en plaignent, semble-t-il, et cette société leur répond en ce cas d'une manière quelque peu étrange.
Le mode de conception et d'utilisation de ces systèmes d'exploitation produit un ensemble le plus souvent plus "prédictible" que Linux dans la mesure ou une application donnée sera le plus souvent chargée dans la même section de la mémoire vive. Les aléas dûs à un composant défectueux sont donc parfois portés au compte d'un programme donné et non du matériel.
Une chose demeure cependant certaine : un système Linux bien installé sur une machine saine doit pouvoir compiler cent fois de suite un noyau sans aucun problème.
Témoignage : Linux et gcc testent à merveille la machine. Hors de Linux le test "Winstone" produit le même genre d'effets (Jonathan Bright ([email protected]))
Ce n'est malheureusement pas le cas. Les signaux 6 et 4 peuvent aussi relever de ce genre de problème (lorsque la mémoire n'accomplit pas correctement son office n'importe quel type d'erreur peut survenir) mais le 11 est le plus commun.
Autres problèmes constatés :
Les premiers exemples relèvent d'arrêts provoqués par le noyau qui "suspecte" une erreur de programmation l'affectant. Les autres concernent les applications.
(S.G.de Marinis ([email protected]), Dirk Nachtmann ([email protected]))
tcsh
cd /usr/src/linux
make zImage
foreach i (0 1 2 3 4 5 6 7 8 9)
foreach j (0 1 2 3 4 5 6 7 8 9)
make clean;make zImage > log."$i"$j
end
end
Tous les contenus des fichiers de trace résultants doivent être identiques.
Cela exige environ 24 heures sur un P100 / 16 Mo RAM et environ 3 mois sur
un 386 / 4 Mo :-)Le moyen le plus efficace reste de remplacer tous les composants de mémoire. Ce n'est cependant pas toujours facile.
Même certains équipements électroniques de test des mémoires ne mettent pas toujours en évidence les problèmes dont nous traitons ici car ils peuvent par exemple dépendre du mode d'exploitation des composants par la carte mère.
SCO
-L
lib/ sont
exposées.
Nous ne traitons ici que de cas réels !
(N.d.T : la version
originale de ce document propose une liste des auteurs de
témoignages).