On Fri, Sep 24, 2010 at 6:27 PM, Roger Marquis <span dir="ltr">&lt;<a href="mailto:marquis@roble.com" target="_blank">marquis@roble.com</a>&gt;</span> wrote:<br><div class="gmail_quote"><blockquote class="gmail_quote" style="margin: 0pt 0pt 0pt 0.8ex; border-left: 1px solid rgb(204, 204, 204); padding-left: 1ex;">




<div><blockquote class="gmail_quote" style="margin: 0pt 0pt 0pt 0.8ex; border-left: 1px solid rgb(204, 204, 204); padding-left: 1ex;">
Suppose you have only a single partition / and want to mount it<br>
read-only...how are you going to accommodate this ?  Hm?  I&#39;d imagine you<br>
have a terrific time since all inodes reference back to /.  This will<br>
include all sub-mount below /...<br>
</blockquote>
<br></div>
Not sure I understand the application but I would guess that less than<br>
0.01% of PC-BSD installations would ever want to mount root read-only.<br>
We should be looking at the other 99.99% for defaults.</blockquote><div><br>The application can be for security, net-boot/headless, testing builds, quick migration, quick deployment, and others.  Multiple partitions offer flexibility in multi-user environment that single partition can not.  BSD was built from the ground up for multi-user environment.  Just because PCBSD is used primarily by a single user does not mean partition scheme should be changed to reflect that.  Even in a home environment, one can envision the PCBSD machine be used by multiple people at once and should file-system/harddrive error occur, a single partition will cripple everyone and everything.  In a multiple partition scheme, the affected filesystem/harddrive can be brought offline for fixing without affecting the whole system.  This happens all the time and mostly transparent to the users on clusters and distributed systems.  Case in point, if the Internet was mounted as single filesystem, we&#39;d be in big trouble.<br>




<br><br>
</div><blockquote class="gmail_quote" style="margin: 0pt 0pt 0pt 0.8ex; border-left: 1px solid rgb(204, 204, 204); padding-left: 1ex;"><div><blockquote class="gmail_quote" style="margin: 0pt 0pt 0pt 0.8ex; border-left: 1px solid rgb(204, 204, 204); padding-left: 1ex;">





The purpose of multiple partition/mount is for flexibility.<br>
</blockquote>
<br></div>
If it is then how do you explain the statistically significant<br>
correlation between intra-disk partitions and diskfull trouble tickets?<br>
Partitions may work well for inter-disk partitions (inter != intra) but<br>
if they made systems administration easier you&#39;d think we would see them<br>
implemented on raid-based NAS and SAN fileservers.  We don&#39;t because they<br>
aren&#39;t.<div><br>
</div></blockquote><div><br>All NAS and SAN fileservers use partitions.  That is a fact.  In fact, all distributed filesystems use partitions.  Of course these are usually logical partitions and not physical partitions...Of course, there is no rule that said you can&#39;t have a single / on NAS, but have fun explaining to your boss why everything is f*cked when a few disks failed.<br>




<br>As for your &quot;statistically significant correlation between intra-disk partition and diskfull trouble tickets&quot;, that simply said poor planning is statistically relevant.  Partition accordingly to the requirement of space usage.  Use appropriate filesystem (PCBSD installs ufs+journal by default).  If you know your application is space hungry, then use logical partition on a volume manager so you can grow on the fly.  Use the right tool for the right job.  Partitioning is only a tool.  Apply it stupidly and you will get stupid results. <br>
</div><blockquote class="gmail_quote" style="margin: 0pt 0pt 0pt 0.8ex; border-left: 1px solid rgb(204, 204, 204); padding-left: 1ex;"><font color="#888888">
<br>
Roger<br>
</font></blockquote></div><br><div style="display: inline;"></div>