Lors de l'exécution de toute sorte de commande de longue durée dans le terminal, le programme meurt instantanément et le terminal sort le texte Killed
.
Des pointeurs? Peut-être existe-t-il un fichier journal contenant des données expliquant pourquoi les commandes sont tuées?
Mise à jour
Voici un extrait de ce dmesg
qui devrait, espérons-le, éclairer la cause du problème. Une autre remarque qui pourrait être utile est qu'il s'agit d'une instance Amazon EC2.
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.184209] Call Trace:
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.184218] [<c01e49ea>] dump_header+0x7a/0xb0
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.184221] [<c01e4a7c>] oom_kill_process+0x5c/0x160
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.184224] [<c01e4fe9>] ? select_bad_process+0xa9/0xe0
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.184227] [<c01e5071>] __out_of_memory+0x51/0xb0
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.184229] [<c01e5128>] out_of_memory+0x58/0xd0
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.184232] [<c01e7f16>] __alloc_pages_slowpath+0x416/0x4b0
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.184235] [<c01e811f>] __alloc_pages_nodemask+0x16f/0x1c0
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.184238] [<c01ea2ca>] __do_page_cache_readahead+0xea/0x210
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.184241] [<c01ea416>] ra_submit+0x26/0x30
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.184244] [<c01e3aef>] filemap_fault+0x3cf/0x400
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.184247] [<c02329ad>] ? core_sys_select+0x19d/0x240
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.184252] [<c01fb65c>] __do_fault+0x4c/0x5e0
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.184254] [<c01e4161>] ? generic_file_aio_write+0xa1/0xc0
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.184257] [<c01fd60b>] handle_mm_fault+0x19b/0x510
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.184262] [<c05f80d6>] do_page_fault+0x146/0x440
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.184265] [<c0232c62>] ? sys_select+0x42/0xc0
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.184268] [<c05f7f90>] ? do_page_fault+0x0/0x440
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.184270] [<c05f53c7>] error_code+0x73/0x78
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.184274] [<c05f007b>] ? setup_local_APIC+0xce/0x33e
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.272161] [<c05f0000>] ? setup_local_APIC+0x53/0x33e
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.272163] Mem-Info:
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.272164] DMA per-cpu:
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.272166] CPU 0: hi: 0, btch: 1 usd: 0
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.272168] Normal per-cpu:
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.272169] CPU 0: hi: 186, btch: 31 usd: 50
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.272171] HighMem per-cpu:
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.272172] CPU 0: hi: 186, btch: 31 usd: 30
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.272176] active_anon:204223 inactive_anon:204177 isolated_anon:0
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.272177] active_file:47 inactive_file:141 isolated_file:0
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.272178] unevictable:0 dirty:0 writeback:0 unstable:0
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.272179] free:10375 slab_reclaimable:1650 slab_unreclaimable:1856
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.272180] mapped:2127 shmem:3918 pagetables:1812 bounce:0May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.272186] DMA free:6744kB min:72kB low:88kB high:108kB active_anon:300kB inactive_anon:308kB active_file:0kB inactive_file:0kB unevictable:0kB isolated(anon):0kB isolated(file):0kB present:15812kB mlocked:0kB dirty:0kB writeback:0kB mapped:4kB shmem:0kB slab_reclaimable:8kB slab_unreclaimable:0kB kernel_stack:0kB pagetables:0kB unstable:0kB bounce:0kB writeback_tmp:0kB pages_scanned:0 all_unreclaimable? yes
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.272190] lowmem_reserve[]: 0 702 1670 1670May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.272197] Normal free:34256kB min:3352kB low:4188kB high:5028kB active_anon:317736kB inactive_anon:317308kB active_file:144kB inactive_file:16kB unevictable:0kB isolated(anon):0kB isolated(file):0kB present:719320kB mlocked:0kB dirty:4kB writeback:0kB mapped:32kB shmem:0kB slab_reclaimable:6592kB slab_unreclaimable:7424kB kernel_stack:2592kB pagetables:7248kB unstable:0kB bounce:0kB writeback_tmp:0kB pages_scanned:571 all_unreclaimable? yes
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.272201] lowmem_reserve[]: 0 0 7747 7747May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.272207] HighMem free:500kB min:512kB low:1668kB high:2824kB active_anon:498856kB inactive_anon:499092kB active_file:44kB inactive_file:548kB unevictable:0kB isolated(anon):0kB isolated(file):0kB present:991620kB mlocked:0kB dirty:0kB writeback:0kB mapped:8472kB shmem:15672kB slab_reclaimable:0kB slab_unreclaimable:0kB kernel_stack:0kB pagetables:0kB unstable:0kB bounce:0kB writeback_tmp:0kB pages_scanned:430 all_unreclaimable? yes
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.272211] lowmem_reserve[]: 0 0 0 0May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.272215] DMA: 10*4kB 22*8kB 38*16kB 33*32kB 16*64kB 10*128kB 4*256kB 1*512kB 1*1024kB 0*2048kB 0*4096kB = 6744kBMay 14 20:29:15 ip-10-112-33-63 kernel: [11144050.272223] Normal: 476*4kB 1396*8kB 676*16kB 206*32kB 23*64kB 2*128kB 0*256kB 0*512kB 0*1024kB 1*2048kB 0*4096kB = 34256kBMay 14 20:29:15 ip-10-112-33-63 kernel: [11144050.272231] HighMem: 1*4kB 2*8kB 28*16kB 1*32kB 0*64kB 0*128kB 0*256kB 0*512kB 0*1024kB 0*2048kB 0*4096kB = 500kB
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.272238] 4108 total pagecache pages
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.272240] 0 pages in swap cache
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.272242] Swap cache stats: add 0, delete 0, find 0/0
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.272243] Free swap = 0kB
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.272244] Total swap = 0kB
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.276842] 435199 pages RAM
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.276845] 249858 pages HighMem
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.276846] 8771 pages reserved
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.276847] 23955 pages shared
May 14 20:29:15 ip-10-112-33-63 kernel: [11144050.276849] 405696 pages non-shared
ubuntu
amazon-ec2
terminal
Dan Loewenherz
la source
la source
Réponses:
Vous devriez pouvoir découvrir ce qui a tué votre processus en regardant la sortie de la
dmesg
commande; ou dans les fichiers journaux/var/log/kern.log
,/var/log/messages
ou/var/log/syslog
.Il y a un certain nombre de choses qui peuvent entraîner l'arrêt brutal d'un processus:
ulimit -H -a
Les journaux ou dmesg devraient vous dire pourquoi le processus a été interrompu.
la source
Les journaux que vous avez publiés en tant que mise à jour indiquent que votre système manque de mémoire et que le tueur OOM est invoqué pour tuer les processus afin de maintenir la mémoire libre lorsque "tout le reste échoue". L'algorithme de sélection pour le tueur OOM pourrait viser favorablement vos processus "de longue durée". Voir la page liée pour une description de l'algorithme de sélection.
La solution évidente est plus de mémoire, mais vous risquez de manquer de mémoire en raison d'une fuite de mémoire quelque part et l'ajout de mémoire ne retarderait probablement le tueur OOM que si cela était le cas. Vérifiez votre table de processus pour les processus utilisant le plus de mémoire avec votre outil préféré (top, ps, etc.) et allez-y.
la source
Comme déjà expliqué par d'autres, vous manquez de mémoire, donc le tueur de mémoire est déclenché et tue certains processus.
Vous pouvez résoudre ce problème soit:
a) mettez à niveau votre machine ec2 vers une machine plus puissante, «petite instance» a 2,5 fois plus de mémoire (1,7 Go) que «micro instance» (0,64 Go), coûte plus cher
b) l' ajout d'une partition de swap - ajouter disque supplémentaire EBS,
mkswap /dev/sdx
,swapon /dev/sdx
, les coûts de stockage EBS et frais IOc) l' ajout de fichier d'échange -
dd if=/dev/zero of=/swap bs=1M count=500
,mkswap /swap
,swapon /swap
, les honoraires facturés IO et espace libre sur la racine EBSLe c) devrait être suffisant, mais gardez à l'esprit que la micro-instance n'est pas censée exécuter de longues tâches gourmandes en CPU en raison des limites de CPU (seules les courtes rafales sont autorisées).
la source
J'ai eu le même problème. Mes processus étaient en train d'être tués.
J'ai découvert que l'AMI Ubuntu que j'utilisais n'avait pas d'espace de swap configuré. Lorsque la mémoire est pleine et qu'il n'y a pas d'espace de swap disponible, le noyau commencera de manière imprévisible à tuer les processus pour se protéger. L'espace d'échange empêche cela. (Ce problème est particulièrement pertinent pour l'instance Micro en raison du petit 613 Mo de mémoire.)
Pour vérifier si vous disposez d'un espace de configuration de type d'échange:
swapon -s
Configurer l'espace de swap: http://www.linux.com/news/software/applications/8208-all-about-linux-swap-space
Autres ressources: http://wiki.sysconfig.org.uk/display/howto/Build+your+own+Core+CentOS+5.x+AMI+for+Amazon+EC2
la source
Le journal indique que vous manquez de mémoire swap / cache.
Pouvez-vous diviser le travail / processus que vous exécutez par lots? Vous pouvez peut-être essayer de l'exécuter de manière isolée après avoir arrêté les autres processus?
la source