Изменения

R:Оптимизация/Импорт данных

535 байтов добавлено, 14:45, 28 мая 2014
м
Загрузка 2814-import-data.wiki
<!-- R:Оптимизация/Импорт данных -->
 
 
 
{{CC-BY-4.0|author=автором Артём Клевцов}}
 
{{Pkg-req-notice}}
 
При обработке данных большого объёма имеет смысл импортировать только ту часть данных, которая непосредственно участвует в обработке. Это целесообразно как с точки зрения расхода оперативной памяти, так и скорости выполнения операций поиска, сортировки и фильтрации данных.
Создадим таблицу данных содержащую <math>10^{6}</math> строк и 6 столбцов:
{{r-code|code=<nowiki>> set.seed(123) # начальная точка для генератора случайных чисел для воспроизводимости результатов> N n.rows <- 10^6L 4L # задаём количество наблюдений> DF data.df <- data.frame(a = sample(1:10^3L, Nn.rows, replace = TRUE),+ b = sample(1:10^3L, Nn.rows, replace = TRUE),+ c = sample(LETTERS[1:10], Nn.rows, replace = TRUE),+ e = rnorm(Nn.rows),+ d = rnorm(Nn.rows, 100, 15),+ f = runif(Nn.rows, 0, 10^3L))
</nowiki>}}
Рассмотрим таблицу более подробно. Начало таблицы:
{{r-code|code=<nowiki>> head(DFdata.df)#> a b c e d f#> 1 288 604 B 311 J -1.4534 1073538 88.38 54507 187.73#> 2 789 242 C 325 D -10.4479 5794 82.32 94997 167.26#> 3 409 65 J 871 E -0.4182 1138610 108.11 48970 640.97#> 4 884 700 J -329 B 0.9194 989727 107.54 82477 962.64#> 5 941 594 D 126 I 0.7360 1226191 103.02 48312 663.5#> 6 46 843 I -0357 C 1.8354 3854 8492.24 32275 306.74</nowiki>}}
Структура данных:
{{r-code|code=<nowiki>> str(DFdata.df)#> 'data.frame': 1000000 10000 obs. of 6 variables:#> $ a: int 288 789 409 884 941 46 529 893 552 457 ...#> $ b: int 604 242 65 700 594 843 746 303 416 862 311 325 871 329 126 357 931 876 821 22 ...#> $ c: Factor w/ 10 levels "A","B","C","D",..: 2 3 10 10 4 5 2 9 10 10 7 4 3 3 6 6 5 ...#> $ e: num 1.453 -1.448 354 -0.418 579 -0.919 861 0.736 973 0.619 ...#> $ d: num 10788.4 821 83 108.3 1137 107.8 103.1 98.5 122 ...#> $ f: num 546 949 490 825 484 187 168 641 962 664 ...</nowiki>}}
Типы переменных:
{{r-code|code=<nowiki>> sapply(DFdata.df, class)#> a b c e d f #> "integer" "integer" "factor" "numeric" "numeric" "numeric"</nowiki>}}
Размер объекта в оперативной памяти:
{{r-code|code=<nowiki>> print(object.size(DFdata.df), units = "auto")34#> 353.3 Mb7 Kb</nowiki>}}
Сохраним таблицу в csv-файл следующими командами:
{{r-code|code=<nowiki>> tmp.csv <- tempfile(fileext=".csv") # генерируем имя и путь для временного файла> write.csv(DFdata.df, tmp.csv, row.names = FALSE)</nowiki>}}
Размер полученного файла составил:
{{r-code|code=<nowiki>> file.info(tmp.csv)$size # размер файла в байтах#> [1] 63724802637264> file.info(tmp.csv)$size / 1024^2 # размер файла в мегабайтах#> [1] 600.776077</nowiki>}}
Теперь мы можем сравнить производительность функции <code>read.table()</code> с параметрами по умолчанию и парамтерами, рекомендованными для увеличения производительности данной функции. Для этого нам понадобится пакет {{r-package|microbenchmark}}.
{{r-code|code=<nowiki>> microbenchmark(defaults = read.csv(tmp.csv, header = TRUE),+ ompimize = read.csv(tmp.csv, header = TRUE, nrows = Nn.rows, comment.char = "", + colClasses = c("integer", "integer", "factor", "numeric", "numeric", "numeric")))#> Unit: secondsmilliseconds#> expr min lq median uq max neval#> defaults 526.560 734 26.279 73 727.736 800 27.035 1235 30.830 35 100#> ompimize 218.835 246 18.869 55 218.886 263 18.913 373 19.014 09 100</nowiki>}}
Отметим, что чтение файла осуществлялось непосредственно из оперативной памяти, т.к. файл находился в файловой системе [<code>tmpfs</code>](http://ru.wikipedia.org/wiki/Tmpfs <code>tmpfs</code>]).
Значения для аргумента <code>colClasses</code> мы получили ранее с помощью команды <code>sapply(DFdata.df, class)</code>.
Обратим внимание на то, что результат работы сравниваемых вариантов функции <code>read.table()</code> абсолютно идентичен.
{{r-code|code=<nowiki>> identical(read.csv(tmp.csv, header = TRUE),+ read.csv(tmp.csv, header = TRUE, nrows = Nn.rows, comment.char = "",+ colClasses = c("integer", "integer", "factor", "numeric", "numeric", "numeric")))#> [1] TRUE</nowiki>}}
Таким образом, по результатам сравнения, можем заключить, что указание специфических аргументов функции <code>read.table()</code> позволяет существенно ускорить процесс импорта данных в формате CSV.
Проведя [[R:Профилирование кода|профилирование]] выполнения функции <code>read.table()</code>, мы получили следующие результаты:
{{r-code|code=<nowiki>> tmp.log <- tempfile(pattern = "prof-", fileext = ".log")> source("http://git.psylab.info/r-scripts/raw/master/proftable.R")> Rprof(tmp.log, interval = 0.01)> DF data.df <- read.csv(tmp.csv, header = TRUE)> Rprof(NULL)> proftable(tmp.log) #> Calls:#> RealTime PctTime Call #> 870.61 04 80 scan 7#> 0.10 01 20 type.convert > .External2 5.29 #> #> Files:None /tmp/RtmpAvhCfO/file23b65745e7ba.R#> #> Parent Call: knit > process_file > withCallingHandlers > process_group > process_group.block > call_block > block_exec > in_dir > evaluate > evaluate_call > handle > withCallingHandlers > withVisible > eval > eval > read.csv > read.table #> #> Total Time: 70.75 05 seconds#> #> Percent of run time represented: 100%</nowiki>}}
В данном выводе хорошо видно, что большую часть времени затрачено на чтение файла с помощью функции <code>scan()</code>. Мы задались вопросом: а возможно ли получить результат, идентичный функции <code>read.table()</code>, пользуясь только функцией <code>scan()</code> и приведёт ли это к увеличению производительности. После некоторых экспериментов нам подобрать команду, приводящую к нужному результату:
{}}{r-code|codeeval =<nowiki>FALSE}data.frame(scan(tmp.csv, what = list(a = integer(0), b = integer(0), c = character(0), d = numeric(0), e = numeric(0), f = numeric(0)), nmax = Nn.rows, sep = ",", quote = "\"", multi.line = FALSE, skip = 1L, quiet = TRUE))</nowiki>}}
Поясним некоторые моменты:
* <code>skip = 1L</code>: пропускаем первую строку, т.к. она содержит названия столбцов и при её обработка функция <code>scan()</code> выдаст ошибку;
* <code>what = list(a = integer(0), b = integer(0), c = character(0), d = numeric(0), e = numeric(0), f = numeric(0))</code>; аналог аргумента <code>colClasses</code> для <code>read.table()</code>;
* <code>nmax = Nn.rows</code>: аналог <code>nrows</code> для <code>read.table()</code>.
Ниже приведены результаты сравнения работы функций <code>read.table()</code> и <code>scan()</code>:
{{r-code|code=<nowiki>> microbenchmark(defaults = read.csv(tmp.csv, header = TRUE),+ ompimize = read.csv(tmp.csv, header = TRUE, nrows = Nn.rows, comment.char = "",+ colClasses = c("integer", "integer", "factor", "numeric", "numeric", "numeric")),+ scan = data.frame(scan(tmp.csv, nmax = Nn.rows, sep = ",", quote = "\"", multi.line = FALSE, skip = 1L, quiet = TRUE,+ what = list(a = integer(0), b = integer(0), c = character(0), d = numeric(0), e = numeric(0), f = numeric(0)))))#> Unit: secondsmilliseconds#> expr min lq median uq uq max neval#> defaults 426.681 786 27.005 25 827.050 1046 27.571 1263 30.413 91 100#> ompimize 218.833 278 18.842 96 219.865 208 19.895 317 22.458 10 100#> scan 218.900 290 19.939 16 219.967 326 19.046 334 25.515 63 100</nowiki>}}
Как видим, функций <code>scan()</code> работает быстрее <code>read.table()</code> с параметрами по умолчанию и может сравниться по скорости работы с <code>read.table()</code> с оптимизированными аргументами.
Сравним результаты работы функций <code>read.table()</code> и <code>fread()</code>:
{{r-code|code=<nowiki>> library(data.table)> microbenchmark(defaults = read.csv(tmp.csv, header = TRUE),+ ompimize = read.csv(tmp.csv, header = TRUE, nrows = Nn.rows, comment.char = "", + colClasses = c("integer", "integer", "factor", "numeric", "numeric", "numeric")),+ fread = fread(tmp.csv))#> Unit: milliseconds#> expr min lq median uq max neval#> defaults 640226.1 6815922 27.3 7242605 27.4 7346 11501 77 28.166 30.482 100#> ompimize 283018.8 2839.6 2843771 18.5 2866 964 3151 19.06 19.194 19.898 100#> fread 5205.3 854 5215.1 952 6.02 5216.3 123 522 849 6.479 100</nowiki>}}
Таким образом, функция <code>fread()</code> является более быстрым и более удобным (за счёт автоматического определения входных параметров) инструментом по сравнению со штатной функцией <code>read.table()</code> (даже при использовании оптимальных параметров).
Приведём ещё один интересный факт. Попытка оптимизировать аргументы для функции <code>fread()</code> по аналогии с <code>read.table()</code> не привела к каким либо значимым изменениям, что свидетельствует о высокой оптимизации алгоритмов, задействованных в функции <code>fread()</code>.
{{r-code|code=<nowiki>> microbenchmark(defaults = fread(tmp.csv),+ ompimize = fread(tmp.csv, sep = ",", header = TRUE, nrows = Nn.rows,+ colClasses = c("integer", "integer", "factor", "numeric", "numeric", "numeric")))#> Unit: milliseconds#> expr min lq median uq max neval#> defaults 520.9 5215.798 5 .896 5225.4 527992 6.1 562064 6.7 245 100#> ompimize 5205.9 521800 5.3 877 5215.9 525937 6.040 7 538.3 221 100</nowiki>}}
== Формат RData/Rds RDS ==
Форматы RData/Rds являются внутренними форматами в R. Данные форматы характеризуются тем, что имеют двоичный вид и предполагают сжатие данных. Хотя CSV являются наиболее универсальным форматом, для работы с данными в R предпочтительнее использовать внутренние форматы R.
Сравним скорость записи данных в формат CSV в двоичный формат RData:
{{r-code|code=<nowiki>> tmp.csv <- tempfile(fileext = "csv")> ttmptmp.Rds RDS <- tempfile(fileext = "RdsRDS")> microbenchmark(text = write.csv(DFdata.df, tmp.csv, row.names = FALSE),+ binary = saveRDS(DFdata.df, tmp.RdsRDS))#> Unit: secondsmilliseconds#> expr min lq median uq max neval#> text 444.651 440 44.702 72 444.727 479 44.756 493 45.837 96 100#> binary 221.461 214 21.496 33 221.501 243 21.506 256 21.548 99 100</nowiki>}}
Удостоверимся в идентичности исходных и импортированных данных:
{{r-code|code=<nowiki>Вставьте сюда текстidentical(read.csv(tmp.csv, который не нужно форматироватьheader = TRUE), readRDS(tmp.RDS))#> [1] TRUE</nowiki>}}
Размеры полученных файлов в мегабайтах:
{{r-code|code=<nowiki>> file.info(tmp.Rdscsv)$size / 1024^2#> [1] 240.56077> file.info(tmp.csvRDS)$size / 1024^2#> [1] 600.772552</nowiki>}}
Теперь сравним скорость чтения данных с помощью функций <code>read.table()</code>, <code>fread()</code> и <code>loadreadRDS()</code>:
{{r-code|code=<nowiki>> microbenchmark(defaults = read.csv(tmp.csv, header = TRUE),+ ompimize = read.csv(tmp.csv, header = TRUE, nrows = Nn.rows, comment.char = "",+ colClasses = c("integer", "integer", "factor", "numeric", "numeric", "numeric")),+ fread = fread(tmp.csv),+ readRDS = readRDS(tmp.RdsRDS))#> Unit: milliseconds#> expr min lq median uq max neval#> defaults 408927.3 4624074 27.9 6280482 27.1 6853663 27.5 8857939 29.3 320 100#> ompimize 282718.4 2842783 19.8 3007014 19.3 3217089 19.6 3496222 20.3 867 100#> fread 5215.1 834 5225.8 965 5256.3 026 5336.5 116 9437.1 519 100#> readRDS 1731.5 920 1731.6 966 1741.8 983 1792.7 014 4583.9 400 100</nowiki>}}
Отметим, что запись и чтение производилась в файловую систему [<code>tmpfs</code>](http://ru.wikipedia.org/wiki/Tmpfs tmpfs]), размещённую непосредственно в оперативной памяти.
Таким образом, среди преимуществ форматов RData/Rds RDS можно выделить;:
* Скорость записи превышает скорость записи в текстовый формат;