2016-08-16 1 views
1

Я слышал противоречивые заявления о том, сколько записей/данных размер, таблица может обрабатывать. На прошлой неделе два человека сказали мне, что у них тире, которые составляют 100 м и 600 м. Они делают дополнительные обновления.Таблицы данных Лимиты

Если у меня есть тире с ххх миллионов записей. Клиенты получают только данные, находящиеся в сводном представлении.

Итак, если у меня есть источник с 200 миллионами записей. В тире отображается общая сумма за неделю на продукт. Скажем, это 400 ячеек (под миллионом записей). Клиент получает только 400 точек данных. Если я добавлю фильтры к данным субпродукта или пользовательского уровня, означало бы, что все эти данные импортируются из-за фильтров? Если это так, как это влияет на скорость?

+0

Вам необходимо предоставить дополнительную информацию о том, как вы обращаетесь к данным. Вы подключены к базе данных, читаете ее из файла или используете экстракт Tableau? Экстракт имеет возможность агрегирования данных, поэтому у вас не будет всех данных из источника, но вы должны сказать ему, чтобы это сделать явно. Если вы этого не сделали, то Tableau запрашивает все данные. – Nicarus

+0

См. Http://stackoverflow.com/a/31171086/441979 –

ответ

1

В конечном счете, Tableau может обрабатывать столько данных, сколько может обрабатывать ваш источник данных. Если вы настроены так, что Tableau напрямую подключается к источнику данных, то пользователю передаются только результатов запроса. У меня есть миллиардные источники данных в BigQuery, которые возвращают достаточно быстрые агрегированные числа в Tableau.

Если ваш источник данных не быстро, то это не даст хороших результатов в таблице.

Если вы используете выдержки, где, в действительности, Tableau извлекает все данные локально, все будет быстрее, но у вас будут ограничения на локальный диск и память на размер набора данных. И каждый пользователь нуждается в выписке. Если вы не используете сервер Tableau, в этом случае извлечение может быть на сервере.

Dashboards, построенные на больших источниках данных, иногда становятся медленными, когда есть много фильтров, потому что для заполнения каждого фильтра требуется запрос источника данных (который может запускаться каждый раз, когда вы используете фильтр). Существуют стратегии ускорения панелей мониторинга с этой проблемой, используя частичные выдержки, которые генерируют все значения, используемые для фильтрации (иногда вы можете использовать параметры для аналогичного увеличения скорости). Или даже просто грамотно проектируя фильтры. Но скорость обычно является ограничивающим фактором, а не размер исходной таблицы.

Единственное реальное ограничение на то, сколько Tableau может обрабатывать, - это количество точек. И это зависит от ОЗУ. По моему опыту, 4-гигабайтная машина захлестнет на диаграмме пару миллионов точек (например, карта, в которой будет отображаться каждый почтовый индекс в Великобритании). Но на машине с 16 ГБ оперативной памяти я никогда не находил предел, отличный от того, как быстро набираются очки.