<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN">
<html>
<head>
  <meta content="text/html;charset=ISO-8859-1" http-equiv="Content-Type">
</head>
<body bgcolor="#ffffff" text="#000000">
<br>
<blockquote cite="mid:20080926142619.0BAC733C03@turtle.stack.nl"
 type="cite">
  <blockquote type="cite">
    <pre wrap="">I don't think,  full UTF-16 really would be desirable desirable over UC-2.

Imagine you have a string of some million characters (e.g. a Book). All 
functions that need to find the n-th character (like x[n], copy, ...) 
would take forever, as they need to scan the complete string (if not 
widestring is a rather complex tree-like format).
    </pre>
  </blockquote>
  <pre wrap=""><!---->
That is a solution to isolate such code and treat it different from the
rest, not to mutilate the unicode standard.
  </pre>
</blockquote>
I just checked Turbo Delphi (which does have WideString operations, but
e.g. TMemo works just on normal strings, so WideStrings are concerted
to plain old ANSI strings when used with TMemo.Lines) on that behalf: <br>
<br>
sizeof WideChar in fact is 2 (16 Bits). <br>
<br>
Dumping a WideString shows that in fact the storage area of WideString
an array of 16 bit WideChars. <br>
<br>
So WideString just uses UC2 (and not Unicode). <br>
<br>
-Michael<br>
</body>
</html>