OUT OF MEMORY AO LER ARQUIVO GRANDE
Boa Tarde, estou tentando ler um arquivo que tem aproximadamente 3milhoes de registros.
porem esta dando out of memory,
Alguem pode me dar uma força? abaixo os 2 métodos que tentei.
using (StreamReader r = new StreamReader(_filePath))
{
while ((line = r.ReadLine()) != null)
_lines.Add(line);
}
or I used
foreach (var l in File.ReadLines(_filePath))
{
_lines.Add(l);
}
porem esta dando out of memory,
Alguem pode me dar uma força? abaixo os 2 métodos que tentei.
using (StreamReader r = new StreamReader(_filePath))
{
while ((line = r.ReadLine()) != null)
_lines.Add(line);
}
or I used
foreach (var l in File.ReadLines(_filePath))
{
_lines.Add(l);
}
http://stackoverflow.com/questions/13415916/read-big-txt-file-out-of-memory-exception
Beleza Mestre,
Já visualizei este tópico, mas as soluções apresentadas não deram certo.
Já visualizei este tópico, mas as soluções apresentadas não deram certo.
Mas você precisa de tudo isso em memória de uma vez só? Não pode ir lendo e já processando os dados?
Pode mostrar um pedacinho dos dados? Talvez tenha um aproach diferente. Estou desconfiado que é possÃvel fazer com OleDb
com certeza 3 milhoes de linhas em memoria vai dar [Ô]out of memory[Ô].
como dito acima nao pode tratar isso enquanto ja vai lendo.
mesmo assim, ja tive um problema assim, usei o mssql como buffer para ajudar a carregar e guardar os dados que precisava para processar.
como dito acima nao pode tratar isso enquanto ja vai lendo.
mesmo assim, ja tive um problema assim, usei o mssql como buffer para ajudar a carregar e guardar os dados que precisava para processar.
Bom dia pessoal,
Realmente, por pedaços ira funcionar. é que gostaria de modificar o menos possÃvel a rotina existente.
Obrigado pelo retorno.
Realmente, por pedaços ira funcionar. é que gostaria de modificar o menos possÃvel a rotina existente.
Obrigado pelo retorno.
Tópico encerrado , respostas não são mais permitidas