<div dir="ltr"><div dir="ltr">>    We do not currently have any code for using 64 bit integer sizes on the GPUs. <div><br>Thank you, just wanted confirmation.</div><div><br></div><div>>    Given the current memory available on GPUs is 64 bit integer support needed? I think even a single vector of length 2^31 will use up most of the GPU's memory? Are the practical, not synthetic, situations that require 64 bit integer support on GPUs immediately?  For example, is the vector length of the entire parallel vector across all GPUs limited to 32 bits? </div><div><br>With modern GPU sizes, for example A100's with 80GB of memory, a vector of length 2^31 is not that much memory -- one could conceivably run a CG solve with local vectors > 2^31.</div><div><br></div><div>Thanks Junchao, I might look into that. However, I currently am not trying to solve such a large problem -- these questions just came from wondering why the cuSPARSE kernel PETSc was calling was running faster than mine.</div><div><br></div><div>Rohan</div><div><br></div></div></div>