<div dir="ltr"><div dir="ltr">On Mon, 26 May 2025 at 13:20, Jason Bowen <<a href="mailto:jbowen@infinitecactus.com">jbowen@infinitecactus.com</a>> wrote:</div><div class="gmail_quote gmail_quote_container"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
 
  
 
 <div>
  <span dir="ltr" style="margin-top:0px;margin-bottom:0px">May 26, 2025 11:57:18 Henry Bent <<a href="mailto:henry.r.bent@gmail.com" target="_blank">henry.r.bent@gmail.com</a>>:</span>
  <br>
  <br><span dir="ltr" style="margin-top:0px;margin-bottom:0px">> It's like Wikipedia.</span>
  <br>
  <br><span dir="ltr" style="margin-top:0px;margin-bottom:0px">No, Wikipedia has (at least historically) human editors who supposedly have some knowledge of reality and history.</span>
  <br>
  <br><span dir="ltr" style="margin-top:0px;margin-bottom:0px">An LLM response is going to be a series of tokens predicted based on probabilities from its training data. The output may correspond to a ground truth in the real world, but only because it was trained on data which contained that ground truth.</span>
  <br>
  <br><span dir="ltr" style="margin-top:0px;margin-bottom:0px">Assuming the sources it cites are real works, it seems fine as a search engine, but the text that it outputs should absolutely not be thought of as something arrived at by similar means as text produced by supposedly knowledgeable and well-intentioned humans.</span></div></blockquote><div><br></div><div>An LLM can weigh sources, but it has to be taught to do that.  A human can weigh sources, but it has to be taught to do that.</div><div><br></div><div>-Henry <br></div></div></div>