R:Оптимизация/Импорт данных

Материал Psylab.info - энциклопедии психодиагностики
Перейти к: навигация, поиск




При обработке данных большого объёма имеет смысл импортировать только ту часть данных, которая непосредственно участвует в обработке. Это целесообразно как с точки зрения расхода оперативной памяти, так и скорости выполнения операций поиска, сортировки и фильтрации данных.

Формат CSV

Функция read.table

Для импорта файлов CSV в R предусмотрена функция read.table() и функци-обёртка (wrapper) read.csv(). С точки зрения скорости работы, параметры функции read.table(), заданные по умолчанию, не являются оптимальными. Приведём несколько рекомендаций по использованию функции read.table():

  • указать тип переменных, содержащихся в таблице с помощью аргумента colClasses;
  • указать количество импортируемых строк с помощью аргумента nrows;
  • отключить поиск комментариев с помощью аргумента comment.char = "".

Создадим таблицу данных содержащую [math]10^{6}[/math] строк и 6 столбцов:

КодR

<syntaxhighlight lang="r">set.seed(123) # начальная точка генератора случайных чисел для воспроизводимости результатов n.rows <- 10^4L # задаём количество наблюдений data.df <- data.frame(a = sample(1:10^3L, n.rows, replace = TRUE), b = sample(1:10^3L, n.rows, replace = TRUE), c = sample(LETTERS[1:10], n.rows, replace = TRUE), e = rnorm(n.rows), d = rnorm(n.rows, 100, 15), f = runif(n.rows, 0, 10^3L)) </syntaxhighlight>

Рассмотрим таблицу более подробно. Начало таблицы:

КодR

<syntaxhighlight lang="r">head(data.df) #> a b c e d f #> 1 288 311 J -1.3538 88.07 187.3 #> 2 789 325 D -0.5794 82.97 167.6 #> 3 409 871 E -0.8610 108.70 640.7 #> 4 884 329 B 0.9727 107.77 962.4 #> 5 941 126 I 0.6191 103.12 663.5 #> 6 46 357 C 1.3854 92.75 306.4 </syntaxhighlight>

Структура данных:

КодR

<syntaxhighlight lang="r">str(data.df) #> 'data.frame': 10000 obs. of 6 variables: #> $ a: int 288 789 409 884 941 46 529 893 552 457 ... #> $ b: int 311 325 871 329 126 357 931 876 821 22 ... #> $ c: Factor w/ 10 levels "A","B","C","D",..: 10 4 5 2 9 3 3 6 6 5 ... #> $ e: num -1.354 -0.579 -0.861 0.973 0.619 ... #> $ d: num 88.1 83 108.7 107.8 103.1 ... #> $ f: num 187 168 641 962 664 ... </syntaxhighlight>

Типы переменных:

КодR

<syntaxhighlight lang="r">sapply(data.df, class) #> a b c e d f #> "integer" "integer" "factor" "numeric" "numeric" "numeric" </syntaxhighlight>

Размер объекта в оперативной памяти:

КодR

<syntaxhighlight lang="r">print(object.size(data.df), units = "auto") #> 353.7 Kb </syntaxhighlight>

Сохраним таблицу в csv-файл следующими командами:

КодR

<syntaxhighlight lang="r">tmp.csv <- tempfile(fileext=".csv") # генерируем имя и путь для временного файла write.csv(data.df, tmp.csv, row.names = FALSE) </syntaxhighlight>

Размер полученного файла составил:

КодR

<syntaxhighlight lang="r">file.info(tmp.csv)$size # размер файла в байтах #> [1] 637264 file.info(tmp.csv)$size / 1024^2 # размер файла в мегабайтах #> [1] 0.6077 </syntaxhighlight>

Теперь мы можем сравнить производительность функции read.table() с параметрами по умолчанию и парамтерами, рекомендованными для увеличения производительности данной функции. Для этого нам понадобится пакет microbenchmark.

КодR

<syntaxhighlight lang="r">microbenchmark(defaults = read.csv(tmp.csv, header = TRUE), ompimize = read.csv(tmp.csv, header = TRUE, nrows = n.rows, comment.char = "", colClasses = c("integer", "integer", "factor", "numeric", "numeric", "numeric"))) #> Unit: milliseconds #> expr min lq median uq max neval #> defaults 26.34 26.73 27.00 27.35 30.35 100 #> ompimize 18.46 18.55 18.63 18.73 19.09 100 </syntaxhighlight>

Отметим, что чтение файла осуществлялось непосредственно из оперативной памяти, т.к. файл находился в файловой системе [tmpfs](http://ru.wikipedia.org/wiki/Tmpfs).

Значения для аргумента colClasses мы получили ранее с помощью команды sapply(data.df, class).

Обратим внимание на то, что результат работы сравниваемых вариантов функции read.table() абсолютно идентичен.

КодR

<syntaxhighlight lang="r">identical(read.csv(tmp.csv, header = TRUE), read.csv(tmp.csv, header = TRUE, nrows = n.rows, comment.char = "", colClasses = c("integer", "integer", "factor", "numeric", "numeric", "numeric"))) #> [1] TRUE </syntaxhighlight>

Таким образом, по результатам сравнения, можем заключить, что указание специфических аргументов функции read.table() позволяет существенно ускорить процесс импорта данных в формате CSV.

Функция scan

Проведя профилирование выполнения функции read.table(), мы получили следующие результаты:

КодR

<syntaxhighlight lang="r">tmp.log <- tempfile(pattern = "prof-", fileext = ".log") source("http://git.psylab.info/r-scripts/raw/master/proftable.R") Rprof(tmp.log, interval = 0.01) data.df <- read.csv(tmp.csv, header = TRUE) Rprof(NULL) proftable(tmp.log) #> Calls: #> RealTime PctTime Call #> 0.04 80 scan #> 0.01 20 type.convert > .External2 #> #> Files: None #> #> Parent Call: knit > process_file > withCallingHandlers > process_group > process_group.block > call_block > block_exec > in_dir > evaluate > evaluate_call > handle > withCallingHandlers > withVisible > eval > eval > read.csv > read.table #> #> Total Time: 0.05 seconds #> #> Percent of run time represented: 100% </syntaxhighlight>

В данном выводе хорошо видно, что большую часть времени затрачено на чтение файла с помощью функции scan(). Мы задались вопросом: а возможно ли получить результат, идентичный функции read.table(), пользуясь только функцией scan() и приведёт ли это к увеличению производительности. После некоторых экспериментов нам подобрать команду, приводящую к нужному результату:

}}{r eval = FALSE} data.frame(scan(tmp.csv, what = list(a = integer(0), b = integer(0), c = character(0), d = numeric(0), e = numeric(0), f = numeric(0)),

               nmax = n.rows, sep = ",", quote = "\"", multi.line = FALSE, skip = 1L, quiet = TRUE))

}}

Поясним некоторые моменты:

  • skip = 1L: пропускаем первую строку, т.к. она содержит названия столбцов и при её обработка функция scan() выдаст ошибку;
  • what = list(a = integer(0), b = integer(0), c = character(0), d = numeric(0), e = numeric(0), f = numeric(0)); аналог аргумента colClasses для read.table();
  • nmax = n.rows: аналог nrows для read.table().

Ниже приведены результаты сравнения работы функций read.table() и scan():

КодR

<syntaxhighlight lang="r">microbenchmark(defaults = read.csv(tmp.csv, header = TRUE), ompimize = read.csv(tmp.csv, header = TRUE, nrows = n.rows, comment.char = "", colClasses = c("integer", "integer", "factor", "numeric", "numeric", "numeric")), scan = data.frame(scan(tmp.csv, nmax = n.rows, sep = ",", quote = "\"", multi.line = FALSE, skip = 1L, quiet = TRUE, what = list(a = integer(0), b = integer(0), c = character(0), d = numeric(0), e = numeric(0), f = numeric(0))))) #> Unit: milliseconds #> expr min lq median uq max neval #> defaults 26.86 27.25 27.46 27.63 30.91 100 #> ompimize 18.78 18.96 19.08 19.17 22.10 100 #> scan 18.90 19.16 19.26 19.34 25.63 100 </syntaxhighlight>

Как видим, функций scan() работает быстрее read.table() с параметрами по умолчанию и может сравниться по скорости работы с read.table() с оптимизированными аргументами.

Функция fread

Пакет data.table, помимо прочего, включает в себя функцию для чтения csv-файлов - fread(). Стоит отметить, что полученная в результате импорта переменная будет иметь класс data.table, что предполагает определённую специфику работы с ней[1].

Сравним результаты работы функций read.table() и fread():

КодR

<syntaxhighlight lang="r">microbenchmark(defaults = read.csv(tmp.csv, header = TRUE), ompimize = read.csv(tmp.csv, header = TRUE, nrows = n.rows, comment.char = "", colClasses = c("integer", "integer", "factor", "numeric", "numeric", "numeric")), fread = fread(tmp.csv)) #> Unit: milliseconds #> expr min lq median uq max neval #> defaults 26.922 27.605 27.77 28.166 30.482 100 #> ompimize 18.771 18.964 19.06 19.194 19.898 100 #> fread 5.854 5.952 6.02 6.123 6.479 100 </syntaxhighlight>

Таким образом, функция fread() является более быстрым и более удобным (за счёт автоматического определения входных параметров) инструментом по сравнению со штатной функцией read.table() (даже при использовании оптимальных параметров).

Приведём ещё один интересный факт. Попытка оптимизировать аргументы для функции fread() по аналогии с read.table() не привела к каким либо значимым изменениям, что свидетельствует о высокой оптимизации алгоритмов, задействованных в функции fread().

КодR

<syntaxhighlight lang="r">microbenchmark(defaults = fread(tmp.csv), ompimize = fread(tmp.csv, sep = ",", header = TRUE, nrows = n.rows, colClasses = c("integer", "integer", "factor", "numeric", "numeric", "numeric"))) #> Unit: milliseconds #> expr min lq median uq max neval #> defaults 5.798 5.896 5.992 6.064 6.245 100 #> ompimize 5.800 5.877 5.937 6.040 7.221 100 </syntaxhighlight>

Формат RData/RDS

Форматы RData/Rds являются внутренними форматами в R. Данные форматы характеризуются тем, что имеют двоичный вид и предполагают сжатие данных. Хотя CSV являются наиболее универсальным форматом, для работы с данными в R предпочтительнее использовать внутренние форматы R.

Сравним скорость записи данных в формат CSV в двоичный формат RData:

КодR

<syntaxhighlight lang="r">tmp.csv <- tempfile(fileext = "csv") tmp.RDS <- tempfile(fileext = "RDS") microbenchmark(text = write.csv(data.df, tmp.csv, row.names = FALSE), binary = saveRDS(data.df, tmp.RDS)) #> Unit: milliseconds #> expr min lq median uq max neval #> text 44.40 44.72 44.79 44.93 45.96 100 #> binary 21.14 21.33 21.43 21.56 21.99 100 </syntaxhighlight>

Удостоверимся в идентичности исходных и импортированных данных:

КодR

<syntaxhighlight lang="r">identical(read.csv(tmp.csv, header = TRUE), readRDS(tmp.RDS)) #> [1] TRUE </syntaxhighlight>

Размеры полученных файлов в мегабайтах:

КодR

<syntaxhighlight lang="r">file.info(tmp.csv)$size / 1024^2 #> [1] 0.6077 file.info(tmp.RDS)$size / 1024^2 #> [1] 0.2552 </syntaxhighlight>

Теперь сравним скорость чтения данных с помощью функций read.table(), fread() и readRDS():

КодR

<syntaxhighlight lang="r">microbenchmark(defaults = read.csv(tmp.csv, header = TRUE), ompimize = read.csv(tmp.csv, header = TRUE, nrows = n.rows, comment.char = "", colClasses = c("integer", "integer", "factor", "numeric", "numeric", "numeric")), fread = fread(tmp.csv), readRDS = readRDS(tmp.RDS)) #> Unit: milliseconds #> expr min lq median uq max neval #> defaults 27.074 27.482 27.663 27.939 29.320 100 #> ompimize 18.783 19.014 19.089 19.222 20.867 100 #> fread 5.834 5.965 6.026 6.116 7.519 100 #> readRDS 1.920 1.966 1.983 2.014 3.400 100 </syntaxhighlight>

Отметим, что запись и чтение производилась в файловую систему [tmpfs](http://ru.wikipedia.org/wiki/Tmpfs), размещённую непосредственно в оперативной памяти.

Таким образом, среди преимуществ форматов RData/RDS можно выделить:

  • Скорость записи превышает скорость записи в текстовый формат;
  • Скорость чтения значительно превышает скорость чтения текстового формата;
  • Размер полученного файла значительного меньше текстового формата[2];
  • Возможность сохранять любые объекты: функции, векторы, таблицы данных, матрицы, списки.

Среди минусов можно отметить:

  • Возможность использования данного формата исключительно в среде R.

Примечания

  1. Синтаксис работы с классом data.table отличен от синтаксиса работы с матрицами и таблицами данных в R.
  2. Начиная с версии 2.10 функция read.table() может также читать сжатые gz, xz, bzip файлы. Но даже при максимальной степени сжатия размер сжатого csv-файла едва приближается к размеру RData-файла. При этом скорость чтения сжатого csv-файла приблизительно такая же как при чтении несжатого csv-файла.