<div dir="ltr"><div class="gmail_extra"><div class="gmail_quote">On Tue, Mar 29, 2016 at 9:06 PM, Graeme Geldenhuys <span dir="ltr"><<a href="mailto:mailinglists@geldenhuys.co.uk" target="_blank">mailinglists@geldenhuys.co.uk</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">So I definitely see the benefit in using (U)Int<xx> style data types.<br>
They are a lot more obvious [to the programmer] regarding data ranges<br>
and byte size.<br></blockquote><div><br></div><div>Does, it also make the code less high-level? <br></div><div>Didn't high level use the platform independent notation such as "int" or "word" to be portable across different platforms back in 60s 70s? </div><div>At that time word size might vary dramatically from system to system   ( <a href="https://en.wikipedia.org/wiki/Word_(computer_architecture)">https://en.wikipedia.org/wiki/Word_(computer_architecture)</a> ) </div><div>Thus a code written like this:</div><div>  a: Int32;</div><div>would not be portable, since it requires a target platform to support 32-bit word (or at least the compiler had to be smart enough). </div><div><br></div><div>The modern generation of developers doesn't really have to deal with that too much, due to dominance of 32-bit (as well as virtual machines, such as java and/or .net). </div><div>But jump to 64-bit still caused a bit of confusion (in C/C++ and object pascal). with type names and sizes. <br></div><div> </div><div>thanks,</div><div>Dmitry</div></div></div></div>