R:Оптимизация/Импорт данных
|
Материал «R:Оптимизация/Импорт данных», созданный автором Артём Клевцов, публикуется на условиях лицензии Creative Commons «Attribution» («Атрибуция») 4.0 Всемирная. | |
|
Перед использованием функций из пакетов их необходимо предварительно установить и загрузить: КодR <syntaxhighlight lang="r">> install.packages(pkgs = "pkgname") > library(package = "pkgname")</syntaxhighlight> |
При обработке данных большого объёма имеет смысл импортировать только ту часть данных, которая непосредственно участвует в обработке. Это целесообразно как с точки зрения расхода оперативной памяти, так и скорости выполнения операций поиска, сортировки и фильтрации данных.
Содержание
Формат CSV
Функция read.table
Для импорта файлов CSV в R предусмотрена функция read.table()
и функци-обёртка (wrapper) read.csv()
. С точки зрения скорости работы, параметры функции read.table()
, заданные по умолчанию, не являются оптимальными. Приведём несколько рекомендаций по использованию функции read.table()
:
- указать тип переменных, содержащихся в таблице с помощью аргумента
colClasses
; - указать количество импортируемых строк с помощью аргумента
nrows
; - отключить поиск комментариев с помощью аргумента
comment.char = ""
.
Создадим таблицу данных содержащую [math]10^{6}[/math] строк и 6 столбцов:
<syntaxhighlight lang="r">set.seed(123) # начальная точка генератора случайных чисел для воспроизводимости результатов n.rows <- 10^4L # задаём количество наблюдений data.df <- data.frame(a = sample(1:10^3L, n.rows, replace = TRUE), b = sample(1:10^3L, n.rows, replace = TRUE), c = sample(LETTERS[1:10], n.rows, replace = TRUE), e = rnorm(n.rows), d = rnorm(n.rows, 100, 15), f = runif(n.rows, 0, 10^3L)) </syntaxhighlight>
Рассмотрим таблицу более подробно. Начало таблицы:
<syntaxhighlight lang="r">head(data.df) #> a b c e d f #> 1 288 311 J -1.3538 88.07 187.3 #> 2 789 325 D -0.5794 82.97 167.6 #> 3 409 871 E -0.8610 108.70 640.7 #> 4 884 329 B 0.9727 107.77 962.4 #> 5 941 126 I 0.6191 103.12 663.5 #> 6 46 357 C 1.3854 92.75 306.4 </syntaxhighlight>
Структура данных:
<syntaxhighlight lang="r">str(data.df) #> 'data.frame': 10000 obs. of 6 variables: #> $ a: int 288 789 409 884 941 46 529 893 552 457 ... #> $ b: int 311 325 871 329 126 357 931 876 821 22 ... #> $ c: Factor w/ 10 levels "A","B","C","D",..: 10 4 5 2 9 3 3 6 6 5 ... #> $ e: num -1.354 -0.579 -0.861 0.973 0.619 ... #> $ d: num 88.1 83 108.7 107.8 103.1 ... #> $ f: num 187 168 641 962 664 ... </syntaxhighlight>
Типы переменных:
<syntaxhighlight lang="r">sapply(data.df, class) #> a b c e d f #> "integer" "integer" "factor" "numeric" "numeric" "numeric" </syntaxhighlight>
Размер объекта в оперативной памяти:
<syntaxhighlight lang="r">print(object.size(data.df), units = "auto") #> 353.7 Kb </syntaxhighlight>
Сохраним таблицу в csv-файл следующими командами:
<syntaxhighlight lang="r">tmp.csv <- tempfile(fileext=".csv") # генерируем имя и путь для временного файла write.csv(data.df, tmp.csv, row.names = FALSE) </syntaxhighlight>
Размер полученного файла составил:
<syntaxhighlight lang="r">file.info(tmp.csv)$size # размер файла в байтах #> [1] 637264 file.info(tmp.csv)$size / 1024^2 # размер файла в мегабайтах #> [1] 0.6077 </syntaxhighlight>
Теперь мы можем сравнить производительность функции read.table()
с параметрами по умолчанию и парамтерами, рекомендованными для увеличения производительности данной функции. Для этого нам понадобится пакет microbenchmark
.
<syntaxhighlight lang="r">microbenchmark(defaults = read.csv(tmp.csv, header = TRUE), ompimize = read.csv(tmp.csv, header = TRUE, nrows = n.rows, comment.char = "", colClasses = c("integer", "integer", "factor", "numeric", "numeric", "numeric"))) #> Unit: milliseconds #> expr min lq median uq max neval #> defaults 26.34 26.73 27.00 27.35 30.35 100 #> ompimize 18.46 18.55 18.63 18.73 19.09 100 </syntaxhighlight>
Отметим, что чтение файла осуществлялось непосредственно из оперативной памяти, т.к. файл находился в файловой системе [tmpfs
](http://ru.wikipedia.org/wiki/Tmpfs).
Значения для аргумента colClasses
мы получили ранее с помощью команды sapply(data.df, class)
.
Обратим внимание на то, что результат работы сравниваемых вариантов функции read.table()
абсолютно идентичен.
<syntaxhighlight lang="r">identical(read.csv(tmp.csv, header = TRUE), read.csv(tmp.csv, header = TRUE, nrows = n.rows, comment.char = "", colClasses = c("integer", "integer", "factor", "numeric", "numeric", "numeric"))) #> [1] TRUE </syntaxhighlight>
Таким образом, по результатам сравнения, можем заключить, что указание специфических аргументов функции read.table()
позволяет существенно ускорить процесс импорта данных в формате CSV.
Функция scan
Проведя профилирование выполнения функции read.table()
, мы получили следующие результаты:
<syntaxhighlight lang="r">tmp.log <- tempfile(pattern = "prof-", fileext = ".log") source("http://git.psylab.info/r-scripts/raw/master/proftable.R") Rprof(tmp.log, interval = 0.01) data.df <- read.csv(tmp.csv, header = TRUE) Rprof(NULL) proftable(tmp.log) #> Calls: #> RealTime PctTime Call #> 0.04 80 scan #> 0.01 20 type.convert > .External2 #> #> Files: None #> #> Parent Call: knit > process_file > withCallingHandlers > process_group > process_group.block > call_block > block_exec > in_dir > evaluate > evaluate_call > handle > withCallingHandlers > withVisible > eval > eval > read.csv > read.table #> #> Total Time: 0.05 seconds #> #> Percent of run time represented: 100% </syntaxhighlight>
В данном выводе хорошо видно, что большую часть времени затрачено на чтение файла с помощью функции scan()
. Мы задались вопросом: а возможно ли получить результат, идентичный функции read.table()
, пользуясь только функцией scan()
и приведёт ли это к увеличению производительности. После некоторых экспериментов нам подобрать команду, приводящую к нужному результату:
}}{r eval = FALSE} data.frame(scan(tmp.csv, what = list(a = integer(0), b = integer(0), c = character(0), d = numeric(0), e = numeric(0), f = numeric(0)),
nmax = n.rows, sep = ",", quote = "\"", multi.line = FALSE, skip = 1L, quiet = TRUE))
}}
Поясним некоторые моменты:
-
skip = 1L
: пропускаем первую строку, т.к. она содержит названия столбцов и при её обработка функцияscan()
выдаст ошибку; -
what = list(a = integer(0), b = integer(0), c = character(0), d = numeric(0), e = numeric(0), f = numeric(0))
; аналог аргументаcolClasses
дляread.table()
; -
nmax = n.rows
: аналогnrows
дляread.table()
.
Ниже приведены результаты сравнения работы функций read.table()
и scan()
:
<syntaxhighlight lang="r">microbenchmark(defaults = read.csv(tmp.csv, header = TRUE), ompimize = read.csv(tmp.csv, header = TRUE, nrows = n.rows, comment.char = "", colClasses = c("integer", "integer", "factor", "numeric", "numeric", "numeric")), scan = data.frame(scan(tmp.csv, nmax = n.rows, sep = ",", quote = "\"", multi.line = FALSE, skip = 1L, quiet = TRUE, what = list(a = integer(0), b = integer(0), c = character(0), d = numeric(0), e = numeric(0), f = numeric(0))))) #> Unit: milliseconds #> expr min lq median uq max neval #> defaults 26.86 27.25 27.46 27.63 30.91 100 #> ompimize 18.78 18.96 19.08 19.17 22.10 100 #> scan 18.90 19.16 19.26 19.34 25.63 100 </syntaxhighlight>
Как видим, функций scan()
работает быстрее read.table()
с параметрами по умолчанию и может сравниться по скорости работы с read.table()
с оптимизированными аргументами.
Функция fread
Пакет data.table
, помимо прочего, включает в себя функцию для чтения csv-файлов - fread()
. Стоит отметить, что полученная в результате импорта переменная будет иметь класс data.table
, что предполагает определённую специфику работы с ней[1].
Сравним результаты работы функций read.table()
и fread()
:
<syntaxhighlight lang="r">microbenchmark(defaults = read.csv(tmp.csv, header = TRUE), ompimize = read.csv(tmp.csv, header = TRUE, nrows = n.rows, comment.char = "", colClasses = c("integer", "integer", "factor", "numeric", "numeric", "numeric")), fread = fread(tmp.csv)) #> Unit: milliseconds #> expr min lq median uq max neval #> defaults 26.922 27.605 27.77 28.166 30.482 100 #> ompimize 18.771 18.964 19.06 19.194 19.898 100 #> fread 5.854 5.952 6.02 6.123 6.479 100 </syntaxhighlight>
Таким образом, функция fread()
является более быстрым и более удобным (за счёт автоматического определения входных параметров) инструментом по сравнению со штатной функцией read.table()
(даже при использовании оптимальных параметров).
Приведём ещё один интересный факт. Попытка оптимизировать аргументы для функции fread()
по аналогии с read.table()
не привела к каким либо значимым изменениям, что свидетельствует о высокой оптимизации алгоритмов, задействованных в функции fread()
.
<syntaxhighlight lang="r">microbenchmark(defaults = fread(tmp.csv), ompimize = fread(tmp.csv, sep = ",", header = TRUE, nrows = n.rows, colClasses = c("integer", "integer", "factor", "numeric", "numeric", "numeric"))) #> Unit: milliseconds #> expr min lq median uq max neval #> defaults 5.798 5.896 5.992 6.064 6.245 100 #> ompimize 5.800 5.877 5.937 6.040 7.221 100 </syntaxhighlight>
Формат RData/RDS
Форматы RData/Rds являются внутренними форматами в R. Данные форматы характеризуются тем, что имеют двоичный вид и предполагают сжатие данных. Хотя CSV являются наиболее универсальным форматом, для работы с данными в R предпочтительнее использовать внутренние форматы R.
Сравним скорость записи данных в формат CSV в двоичный формат RData:
<syntaxhighlight lang="r">tmp.csv <- tempfile(fileext = "csv") tmp.RDS <- tempfile(fileext = "RDS") microbenchmark(text = write.csv(data.df, tmp.csv, row.names = FALSE), binary = saveRDS(data.df, tmp.RDS)) #> Unit: milliseconds #> expr min lq median uq max neval #> text 44.40 44.72 44.79 44.93 45.96 100 #> binary 21.14 21.33 21.43 21.56 21.99 100 </syntaxhighlight>
Удостоверимся в идентичности исходных и импортированных данных:
<syntaxhighlight lang="r">identical(read.csv(tmp.csv, header = TRUE), readRDS(tmp.RDS)) #> [1] TRUE </syntaxhighlight>
Размеры полученных файлов в мегабайтах:
<syntaxhighlight lang="r">file.info(tmp.csv)$size / 1024^2 #> [1] 0.6077 file.info(tmp.RDS)$size / 1024^2 #> [1] 0.2552 </syntaxhighlight>
Теперь сравним скорость чтения данных с помощью функций read.table()
, fread()
и readRDS()
:
<syntaxhighlight lang="r">microbenchmark(defaults = read.csv(tmp.csv, header = TRUE), ompimize = read.csv(tmp.csv, header = TRUE, nrows = n.rows, comment.char = "", colClasses = c("integer", "integer", "factor", "numeric", "numeric", "numeric")), fread = fread(tmp.csv), readRDS = readRDS(tmp.RDS)) #> Unit: milliseconds #> expr min lq median uq max neval #> defaults 27.074 27.482 27.663 27.939 29.320 100 #> ompimize 18.783 19.014 19.089 19.222 20.867 100 #> fread 5.834 5.965 6.026 6.116 7.519 100 #> readRDS 1.920 1.966 1.983 2.014 3.400 100 </syntaxhighlight>
Отметим, что запись и чтение производилась в файловую систему [tmpfs
](http://ru.wikipedia.org/wiki/Tmpfs), размещённую непосредственно в оперативной памяти.
Таким образом, среди преимуществ форматов RData/RDS можно выделить:
- Скорость записи превышает скорость записи в текстовый формат;
- Скорость чтения значительно превышает скорость чтения текстового формата;
- Размер полученного файла значительного меньше текстового формата[2];
- Возможность сохранять любые объекты: функции, векторы, таблицы данных, матрицы, списки.
Среди минусов можно отметить:
- Возможность использования данного формата исключительно в среде R.
Примечания
- ↑ Синтаксис работы с классом
data.table
отличен от синтаксиса работы с матрицами и таблицами данных в R. - ↑ Начиная с версии 2.10 функция
read.table()
может также читать сжатые gz, xz, bzip файлы. Но даже при максимальной степени сжатия размер сжатого csv-файла едва приближается к размеру RData-файла. При этом скорость чтения сжатого csv-файла приблизительно такая же как при чтении несжатого csv-файла.