<div dir="ltr"><div><div>Sorry for the confusion.<br><br>In case of issue 3, I felt host kernel crashed because of the soft lock issue mentioned in Issue 2.That's the reason I was saying "as a result of ..". Ideally speaking I haven't done anything other than creating the lxc-container at the time. Once I restarted the host machine after crash I havent observed any issues. <br>
<br>Then I have started the container using below command and tried to connect to its shell using lxc-console command but I ended up with below message. Ideally I should see a prompt but its just hangs down there. <Ctl+a q> works and nothing else.<br>
<br>[root@ipiblr ~]# lxc-start -n TEST -d<br>[root@ipiblr ~]# lxc-console -n TEST<br><br>Type <Ctrl+a q> to exit the console, <Ctrl+a Ctrl+a> to enter Ctrl+a itself<br></div><br></div>Regards,<br>Ajith<br><div>
<div><br></div></div></div><div class="gmail_extra"><br><br><div class="gmail_quote">On Sat, May 18, 2013 at 5:55 PM, Michael H. Warfield <span dir="ltr"><<a href="mailto:mhw@wittsend.com" target="_blank">mhw@wittsend.com</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hello,<br>
<div class="im"><br>
On Sat, 2013-05-18 at 12:35 +0530, Ajith Adapa wrote:<br>
> Hi,<br>
<br>
> I have installed all the rpms created by @thomas and followed @michael<br>
> steps to start a lxc container.<br>
<br>
> I have a doubt.<br>
<br>
> 1. When I give lxc-create command I came across huge download of various<br>
> files.<br>
> As per my understanding rootfs is created for new container (where can i<br>
> get the steps for it ? ).<br>
<br>
</div>Steps for what?  It's in /var/lib/lxc/{Container}/rootfs/<br>
<div class="im"><br>
> But I see below log. Is there any issue ?<br>
<br>
> Copy /var/cache/lxc/fedora/i686/17/rootfs to /var/lib/lxc/TEST/TEST/rootfs<br>
> ...<br>
> Copying rootfs to /var/lib/lxc/TEST/TEST/rootfs ...setting root passwd to<br>
> root<br>
> installing fedora-release package<br>
> warning: Failed to read auxiliary vector, /proc not mounted?<br>
> warning: Failed to read auxiliary vector, /proc not mounted?<br>
> warning: Failed to read auxiliary vector, /proc not mounted?<br>
> warning: Failed to read auxiliary vector, /proc not mounted?<br>
> warning: Failed to read auxiliary vector, /proc not mounted?<br>
> warning: Failed to read auxiliary vector, /proc not mounted?<br>
> warning: Failed to read auxiliary vector, /proc not mounted?<br>
> warning: Failed to read auxiliary vector, /proc not mounted?<br>
<br>
</div>The warnings are perfectly normal and harmless.  I ran into this with<br>
recent versions of yum and researched it.  It's because /proc is not<br>
mounted in the container itself when the container is being created.<br>
You can ignore them.<br>
<div class="im"><br>
> Package fedora-release-17-2.noarch already installed and latest version<br>
> Nothing to do<br>
<br>
</div>Again, normal.<br>
<div class="im"><br>
> container rootfs and config created<br>
> 'fedora' template installed<br>
> 'TEST' created<br>
<br>
</div>Looks like your container was created.  I don't see a problem.<br>
<div class="im"><br>
> 2.I see a SOFT LOCK issue with latest version kernel shown below.<br>
<br>
> # uname -a<br>
> Linux blr 3.8.8-100.fc17.i686 #1 SMP Wed Apr 17 17:26:59 UTC 2013 i686 i686<br>
> i386 GNU/Linux<br>
><br>
><br>
> [1098069.351017] SELinux: initialized (dev binfmt_misc, type binfmt_misc),<br>
> uses genfs_contexts<br>
> [1281973.370052] BUG: soft lockup - CPU#0 stuck for 23s! [kworker/0:1:2201]<br>
<br>
</div>I've seen that on my Dell 610's but they haven't caused any real<br>
failures.  Not quite sure what that is.<br>
<div><div class="h5"><br>
> [1281973.370052] Modules linked in: binfmt_misc lockd sunrpc snd_intel8x0<br>
> snd_ac97_codec ac97_bus snd_seq snd_seq_device snd_pcm i2c_piix4 i2c_core<br>
> microcode virtio_balloon snd_page_alloc snd_timer snd soundcore virtio_net<br>
> uinput virtio_blk<br>
> [1281973.370052] Pid: 2201, comm: kworker/0:1 Not tainted<br>
> 3.8.8-100.fc17.i686 #1 Bochs Bochs<br>
> [1281973.370052] EIP: 0060:[<c068b17a>] EFLAGS: 00000206 CPU: 0<br>
> [1281973.370052] EIP is at iowrite16+0x1a/0x40<br>
> [1281973.370052] EAX: 00000001 EBX: f69b3000 ECX: 0001c050 EDX: 0000c050<br>
> [1281973.370052] ESI: e9d9b600 EDI: 00000000 EBP: f5009b90 ESP: f5009b8c<br>
> [1281973.370052]  DS: 007b ES: 007b FS: 00d8 GS: 00e0 SS: 0068<br>
> [1281973.370052] CR0: 8005003b CR2: 09cae530 CR3: 345e0000 CR4: 000006d0<br>
> [1281973.370052] DR0: 00000000 DR1: 00000000 DR2: 00000000 DR3: 00000000<br>
> [1281973.370052] DR6: ffff0ff0 DR7: 00000400<br>
> [1281973.370052] Process kworker/0:1 (pid: 2201, ti=f5008000 task=f6830cb0<br>
> task.ti=f4bb2000)<br>
> [1281973.370052] Stack:<br>
> [1281973.370052]  c07107cd f5009b9c c070ffb9 f4a17a00 f5009bcc f7c36f2b<br>
> 00000000 e9d9b600<br>
> [1281973.370052]  00000020 00000000 e9d9b600 00000000 f69b2000 00000000<br>
> f4b5a740 00000036<br>
> [1281973.370052]  f5009c00 c088ea5e e9d9b600 00000000 f7c384c0 f6822600<br>
> f69b2000 00000000<br>
> [1281973.370052] Call Trace:<br>
> [1281973.370052]  [<c07107cd>] ? vp_notify+0x1d/0x20<br>
> [1281973.370052]  [<c070ffb9>] virtqueue_kick+0x19/0x20<br>
> [1281973.370052]  [<f7c36f2b>] start_xmit+0x14b/0x370 [virtio_net]<br>
> [1281973.370052]  [<c088ea5e>] dev_hard_start_xmit+0x24e/0x4c0<br>
> [1281973.370052]  [<c08a793f>] sch_direct_xmit+0xaf/0x180<br>
> [1281973.370052]  [<c088f01e>] dev_queue_xmit+0x12e/0x370<br>
> [1281973.370052]  [<c08bf670>] ? ip_fragment+0x870/0x870<br>
> [1281973.370052]  [<c08bf88e>] ip_finish_output+0x21e/0x3b0<br>
> [1281973.370052]  [<c08bf670>] ? ip_fragment+0x870/0x870<br>
> [1281973.370052]  [<c08c0354>] ip_output+0x84/0xd0<br>
> [1281973.370052]  [<c08bf670>] ? ip_fragment+0x870/0x870<br>
> [1281973.370052]  [<c08bfb00>] ip_local_out+0x20/0x30<br>
> [1281973.370052]  [<c08bfc3f>] ip_queue_xmit+0x12f/0x3b0<br>
> [1281973.370052]  [<c08d62fb>] tcp_transmit_skb+0x3cb/0x850<br>
> [1281973.370052]  [<c097a440>] ? apic_timer_interrupt+0x34/0x3c<br>
> [1281973.370052]  [<c08d8b50>] tcp_send_ack+0xd0/0x120<br>
> [1281973.370052]  [<c08cc096>] __tcp_ack_snd_check+0x56/0x90<br>
> [1281973.370052]  [<c08d3038>] tcp_rcv_established+0x1c8/0x890<br>
> [1281973.370052]  [<c08dc8f3>] tcp_v4_do_rcv+0x223/0x3e0<br>
> [1281973.370052]  [<c06233f4>] ? security_sock_rcv_skb+0x14/0x20<br>
> [1281973.370052]  [<c08de39c>] tcp_v4_rcv+0x53c/0x770<br>
> [1281973.370052]  [<c08bb110>] ? ip_rcv_finish+0x320/0x320<br>
> [1281973.370052]  [<c08bb1c2>] ip_local_deliver_finish+0xb2/0x260<br>
> [1281973.370052]  [<c08bb4ac>] ip_local_deliver+0x3c/0x80<br>
> [1281973.370052]  [<c08bb110>] ? ip_rcv_finish+0x320/0x320<br>
> [1281973.370052]  [<c08bae50>] ip_rcv_finish+0x60/0x320<br>
> [1281973.370052]  [<c043009c>] ? pvclock_clocksource_read+0x9c/0x130<br>
> [1281973.370052]  [<c08bb73c>] ip_rcv+0x24c/0x370<br>
> [1281973.370052]  [<c088d5db>] __netif_receive_skb+0x5bb/0x740<br>
> [1281973.370052]  [<c088d8ce>] netif_receive_skb+0x2e/0x90<br>
> [1281973.370052]  [<f7c36a49>] virtnet_poll+0x449/0x6a0 [virtio_net]<br>
> [1281973.370052]  [<c044d6aa>] ? run_timer_softirq+0x1a/0x210<br>
> [1281973.370052]  [<c088decd>] net_rx_action+0x11d/0x1f0<br>
> [1281973.370052]  [<c044695b>] __do_softirq+0xab/0x1c0<br>
> [1281973.370052]  [<c04468b0>] ? local_bh_enable_ip+0x90/0x90<br>
> [1281973.370052]  <IRQ><br>
> [1281973.370052]  [<c0446bdd>] ? irq_exit+0x9d/0xb0<br>
> [1281973.370052]  [<c04258ee>] ? smp_apic_timer_interrupt+0x5e/0x90<br>
> [1281973.370052]  [<c097a440>] ? apic_timer_interrupt+0x34/0x3c<br>
> [1281973.370052]  [<c044007b>] ? console_start+0xb/0x20<br>
> [1281973.370052]  [<c0979bbf>] ? _raw_spin_unlock_irqrestore+0xf/0x20<br>
> [1281973.370052]  [<c07918d6>] ? ata_scsi_queuecmd+0x96/0x250<br>
> [1281973.370052]  [<c076ad18>] ? scsi_dispatch_cmd+0xb8/0x260<br>
> [1281973.370052]  [<c066007b>] ? queue_store_random+0x4b/0x70<br>
> [1281973.370052]  [<c07711b3>] ? scsi_request_fn+0x2c3/0x4b0<br>
> [1281973.370052]  [<c042f2b7>] ? kvm_clock_read+0x17/0x20<br>
> [1281973.370052]  [<c0409448>] ? sched_clock+0x8/0x10<br>
> [1281973.370052]  [<c065cace>] ? __blk_run_queue+0x2e/0x40<br>
> [1281973.370052]  [<c066214a>] ? blk_execute_rq_nowait+0x6a/0xd0<br>
> [1281973.370052]  [<c066221d>] ? blk_execute_rq+0x6d/0xe0<br>
> [1281973.370052]  [<c06620b0>] ? __raw_spin_unlock_irq+0x10/0x10<br>
> [1281973.370052]  [<c0446ba7>] ? irq_exit+0x67/0xb0<br>
> [1281973.370052]  [<c04258ee>] ? smp_apic_timer_interrupt+0x5e/0x90<br>
> [1281973.370052]  [<c097a440>] ? apic_timer_interrupt+0x34/0x3c<br>
> [1281973.370052]  [<c076ffa0>] ? scsi_execute+0xb0/0x140<br>
> [1281973.370052]  [<c0771429>] ? scsi_execute_req+0x89/0x100<br>
> [1281973.370052]  [<c077f3d5>] ? sr_check_events+0xb5/0x2e0<br>
> [1281973.370052]  [<c07a64cd>] ? cdrom_check_events+0x1d/0x40<br>
> [1281973.370052]  [<c077f856>] ? sr_block_check_events+0x16/0x20<br>
> [1281973.370052]  [<c06663c5>] ? disk_check_events+0x45/0xf0<br>
> [1281973.370052]  [<c0666485>] ? disk_events_workfn+0x15/0x20<br>
> [1281973.370052]  [<c045788e>] ? process_one_work+0x12e/0x3d0<br>
> [1281973.370052]  [<c097a440>] ? apic_timer_interrupt+0x34/0x3c<br>
> [1281973.370052]  [<c0459939>] ? worker_thread+0x119/0x3b0<br>
> [1281973.370052]  [<c0459820>] ? flush_delayed_work+0x50/0x50<br>
> [1281973.370052]  [<c045e2a4>] ? kthread+0x94/0xa0<br>
> [1281973.370052]  [<c0980ef7>] ? ret_from_kernel_thread+0x1b/0x28<br>
> [1281973.370052]  [<c045e210>] ? kthread_create_on_node+0xc0/0xc0<br>
> [1281973.370052] Code: 5d c3 8d b4 26 00 00 00 00 89 02 c3 90 8d 74 26 00<br>
> 81 fa ff ff 03 00 89 d1 77 2e 81 fa 00 00 01 00 76 0e 81 e2 ff ff 00 00 66<br>
> ef <c3> 90 8d 74 26 00 55 ba 2c 5a b2 c0 89 e5 89 c8 e8 01 ff ff ff<br>
> [1281991.139165] ata2: lost interrupt (Status 0x58)<br>
> [1281991.148055] ata2: drained 12 bytes to clear DRQ<br>
> [1281991.165039] ata2.00: exception Emask 0x0 SAct 0x0 SErr 0x0 action 0x6<br>
> frozen<br>
> [1281991.172924] sr 1:0:0:0: CDB:<br>
> [1281991.172932] Get event status notification: 4a 01 00 00 10 00 00 00 08<br>
> 00<br>
> [1281991.497342] ata2.00: cmd a0/00:00:00:08:00/00:00:00:00:00/a0 tag 0 pio<br>
> 16392 in<br>
> [1281991.497342]          res 40/00:02:00:04:00/00:00:00:00:00/a0 Emask 0x4<br>
> (timeout)<br>
> [1281991.523767] ata2.00: status: { DRDY }<br>
> [1281991.616161] ata2: soft resetting link<br>
> [1281998.232648] ata2.01: qc timeout (cmd 0xec)<br>
> [1281998.238559] ata2.01: failed to IDENTIFY (I/O error, err_mask=0x4)<br>
> [1281998.247432] ata2: soft resetting link<br>
> [1281998.575468] ata2.01: NODEV after polling detection<br>
> [1281998.698009] ata2.00: configured for MWDMA2<br>
> [1281998.714460] ata2: EH complete<br>
<br>
</div></div>Not sure what the deal is with that ATA error.  That's a hard drive lost<br>
interrupt problem.  Looks to be on your CD Rom drive?  Looks like it<br>
recovered.<br>
<div class="im"><br>
> 3. Last but not least after sometime my host kernel crashed as a result<br>
> need to restart the VPC.<br>
<br>
</div>I don't understand what you are saying here.  You're saying your kernel<br>
crashed but I don't understand the "as a result of..."  What did you do,<br>
why did you do it, and what happened?<br>
<br>
> Regards,<br>
> Ajith<br>
<br>
Regards,<br>
Mike<br>
<div class="HOEnZb"><div class="h5"><br>
> On Thu, May 16, 2013 at 8:09 PM, Ajith Adapa <<a href="mailto:ajith.adapa@gmail.com">ajith.adapa@gmail.com</a>> wrote:<br>
><br>
> > Thanks @thomas and @michael.<br>
> ><br>
> > I will try the RPMs and steps provided to start a container.<br>
> ><br>
> > Regards,<br>
> > Ajith<br>
> ><br>
> ><br>
> > On Wed, May 15, 2013 at 2:01 PM, Thomas Moschny <<a href="mailto:thomas.moschny@gmail.com">thomas.moschny@gmail.com</a>>wrote:<br>
> ><br>
> >> 2013/5/14 Michael H. Warfield <<a href="mailto:mhw@wittsend.com">mhw@wittsend.com</a>>:<br>
> >> > What I would recommend as steps on Fedora 17...<br>
> >> ><br>
> >> > Download lxc-0.9.0 here:<br>
> >> ><br>
> >> > <a href="http://lxc.sourceforge.net/download/lxc/lxc-0.9.0.tar.gz" target="_blank">http://lxc.sourceforge.net/download/lxc/lxc-0.9.0.tar.gz</a><br>
> >> ><br>
> >> > You should have rpm-build and friends installed via yum on your system.<br>
> >> > Build the lxc rpms by running rpmbuild (as any user) as follows:<br>
> >><br>
> >> You could also try using the pre-built packages I put here:<br>
> >> <a href="http://thm.fedorapeople.org/lxc/" target="_blank">http://thm.fedorapeople.org/lxc/</a> .<br>
> >><br>
> >> Regards,<br>
> >> Thomas<br>
> >><br>
> >><br>
> >> ------------------------------------------------------------------------------<br>
> >> AlienVault Unified Security Management (USM) platform delivers complete<br>
> >> security visibility with the essential security capabilities. Easily and<br>
> >> efficiently configure, manage, and operate all of your security controls<br>
> >> from a single console and one unified framework. Download a free trial.<br>
> >> <a href="http://p.sf.net/sfu/alienvault_d2d" target="_blank">http://p.sf.net/sfu/alienvault_d2d</a><br>
> >> _______________________________________________<br>
> >> Lxc-users mailing list<br>
> >> <a href="mailto:Lxc-users@lists.sourceforge.net">Lxc-users@lists.sourceforge.net</a><br>
> >> <a href="https://lists.sourceforge.net/lists/listinfo/lxc-users" target="_blank">https://lists.sourceforge.net/lists/listinfo/lxc-users</a><br>
> >><br>
> ><br>
> ><br>
><br>
> ------------------------------------------------------------------------------<br>
> AlienVault Unified Security Management (USM) platform delivers complete<br>
> security visibility with the essential security capabilities. Easily and<br>
> efficiently configure, manage, and operate all of your security controls<br>
> from a single console and one unified framework. Download a free trial.<br>
> <a href="http://p.sf.net/sfu/alienvault_d2d" target="_blank">http://p.sf.net/sfu/alienvault_d2d</a><br>
> _______________________________________________ Lxc-users mailing list <a href="mailto:Lxc-users@lists.sourceforge.net">Lxc-users@lists.sourceforge.net</a> <a href="https://lists.sourceforge.net/lists/listinfo/lxc-users" target="_blank">https://lists.sourceforge.net/lists/listinfo/lxc-users</a><br>

<br>
</div></div><div class="HOEnZb"><div class="h5">--<br>
Michael H. Warfield (AI4NB) | (770) 985-6132 |  mhw@WittsEnd.com<br>
   /\/\|=mhw=|\/\/          | (678) 463-0932 |  <a href="http://www.wittsend.com/mhw/" target="_blank">http://www.wittsend.com/mhw/</a><br>
   NIC whois: MHW9          | An optimist believes we live in the best of all<br>
 PGP Key: 0x674627FF        | possible worlds.  A pessimist is sure of it!<br>
</div></div></blockquote></div><br></div>