2016-01-15 1 views
6

tl; dr Я решил проблему обновления до Cassandra 3.2. This bug, по-видимому, вызывал проблему.Ошибка чтения Кассандры


Я бегу два-узла кластер Кассандры с версиями [cqlsh 5.0.1 | Cassandra 3.0.1 | CQL spec 3.3.1 | Native protocol v4].

Существует одна таблица, в которой я не могу читать, у меня есть следующее сообщение об ошибке:

cqlsh:kepler> select type from md_data limit 1; 
Traceback (most recent call last): 
    File "/local/chernals/dsc-cassandra-3.0.1/bin/cqlsh.py", line 1258, in perform_simple_statement 
    result = future.result() 
    File "/local/chernals/dsc-cassandra-3.0.1/bin/../lib/cassandra-driver-internal-only-3.0.0-6af642d.zip/cassandra-driver-3.0.0-6af642d/cassandra/cluster.py", line 3122, in result 
    raise self._final_exception 
ReadFailure: code=1300 [Replica(s) failed to execute read] message="Operation failed - received 0 responses and 1 failures" info={'failures': 1, 'received_responses': 0, 'required_responses': 1, 'consistency': 'ONE'} 

я могу прочитать другие таблицы без каких-либо проблем.

Схема этой таблицы:

CREATE TABLE kepler.md_data (
    name text, 
    tag text, 
    id timeuuid, 
    parameter frozen<parameter>, 
    blob_value blob, 
    real_value float, 
    telegram map<text, text> static, 
    text_value text, 
    type text, 
    PRIMARY KEY ((name, tag, id), parameter) 
) WITH CLUSTERING ORDER BY (parameter ASC) 
    AND bloom_filter_fp_chance = 0.01 
    AND caching = {'keys': 'ALL', 'rows_per_partition': 'NONE'} 
    AND comment = '' 
    AND compaction = {'class': 'org.apache.cassandra.db.compaction.SizeTieredCompactionStrategy', 'max_threshold': '32', 'min_threshold': '4'} 
    AND compression = {'chunk_length_in_kb': '64', 'class': 'org.apache.cassandra.io.compress.LZ4Compressor'} 
    AND crc_check_chance = 1.0 
    AND dclocal_read_repair_chance = 0.1 
    AND default_time_to_live = 0 
    AND gc_grace_seconds = 864000 
    AND max_index_interval = 2048 
    AND memtable_flush_period_in_ms = 0 
    AND min_index_interval = 128 
    AND read_repair_chance = 0.0 
    AND speculative_retry = '99PERCENTILE'; 
CREATE INDEX parameter_idx ON kepler.md_data (parameter); 

Будут ли какие-то проблемы с такой схемой и различные версии Cassandra/cqlsh я бегу?

Обратите внимание, что, когда таблица пуста, я могу «прочитать» ее (она пуста, но оператор select успешно завершен).

Edit:

Супер странная проблема, как я с трудом воспроизводя все это время. Я перешел на тестовую установку только с одним узлом. Кажется, что оно связано с количеством строк, присутствующих в таблице.

cqlsh:kepler> select type from md_data; 
Traceback (most recent call last): 
    File "/local/chernals/dsc-cassandra-3.0.1/bin/cqlsh.py", line 1258, in perform_simple_statement 
    result = future.result() 
    File "/local/chernals/dsc-cassandra-3.0.1/bin/../lib/cassandra-driver-internal-only-3.0.0-6af642d.zip/cassandra-driver-3.0.0-6af642d/cassandra/cluster.py", line 3122, in result 
    raise self._final_exception 
ReadFailure: code=1300 [Replica(s) failed to execute read] message="Operation failed - received 0 responses and 1 failures" info={'failures': 1, 'received_responses': 0, 'required_responses': 1, 'consistency': 'ONE'} 

cqlsh:kepler> TRUNCATE TABLE md_data; 
cqlsh:kepler> select type from md_data; 

name | tag | id | parameter | blob_value | real_value | telegram | text_value | type 
------+-----+----+-----------+------------+------------+----------+------------+------ 

(0 rows) 
cqlsh:kepler> 

Edit: Сообщение об ошибке от Кассандры -f

WARN 11:07:00 Uncaught exception on thread Thread[SharedPool-Worker-3,5,main]: {} 
java.lang.AssertionError: null 
    at org.apache.cassandra.db.columniterator.AbstractSSTableIterator$IndexState.updateBlock(AbstractSSTableIterator.java:463) ~[apache-cassandra-3.0.1.jar:3.0.1] 
    at org.apache.cassandra.db.columniterator.SSTableIterator$ForwardIndexedReader.computeNext(SSTableIterator.java:268) ~[apache-cassandra-3.0.1.jar:3.0.1] 
    at org.apache.cassandra.db.columniterator.SSTableIterator$ForwardReader.hasNextInternal(SSTableIterator.java:158) ~[apache-cassandra-3.0.1.jar:3.0.1] 
    at org.apache.cassandra.db.columniterator.AbstractSSTableIterator$Reader.hasNext(AbstractSSTableIterator.java:352) ~[apache-cassandra-3.0.1.jar:3.0.1] 
    at org.apache.cassandra.db.columniterator.AbstractSSTableIterator.hasNext(AbstractSSTableIterator.java:219) ~[apache-cassandra-3.0.1.jar:3.0.1] 
    at org.apache.cassandra.db.columniterator.SSTableIterator.hasNext(SSTableIterator.java:32) ~[apache-cassandra-3.0.1.jar:3.0.1] 
    at org.apache.cassandra.db.transform.BaseRows.hasNext(BaseRows.java:108) ~[apache-cassandra-3.0.1.jar:3.0.1] 
    at org.apache.cassandra.db.rows.UnfilteredRowIteratorSerializer.serialize(UnfilteredRowIteratorSerializer.java:131) ~[apache-cassandra-3.0.1.jar:3.0.1] 
    at org.apache.cassandra.db.rows.UnfilteredRowIteratorSerializer.serialize(UnfilteredRowIteratorSerializer.java:87) ~[apache-cassandra-3.0.1.jar:3.0.1] 
    at org.apache.cassandra.db.rows.UnfilteredRowIteratorSerializer.serialize(UnfilteredRowIteratorSerializer.java:77) ~[apache-cassandra-3.0.1.jar:3.0.1] 
    at org.apache.cassandra.db.partitions.UnfilteredPartitionIterators$Serializer.serialize(UnfilteredPartitionIterators.java:298) ~[apache-cassandra-3.0.1.jar:3.0.1] 
    at org.apache.cassandra.db.ReadResponse$LocalDataResponse.build(ReadResponse.java:136) ~[apache-cassandra-3.0.1.jar:3.0.1] 
    at org.apache.cassandra.db.ReadResponse$LocalDataResponse.<init>(ReadResponse.java:128) ~[apache-cassandra-3.0.1.jar:3.0.1] 
    at org.apache.cassandra.db.ReadResponse$LocalDataResponse.<init>(ReadResponse.java:123) ~[apache-cassandra-3.0.1.jar:3.0.1] 
    at org.apache.cassandra.db.ReadResponse.createDataResponse(ReadResponse.java:65) ~[apache-cassandra-3.0.1.jar:3.0.1] 
    at org.apache.cassandra.db.ReadCommand.createResponse(ReadCommand.java:289) ~[apache-cassandra-3.0.1.jar:3.0.1] 
    at org.apache.cassandra.service.StorageProxy$LocalReadRunnable.runMayThrow(StorageProxy.java:1721) ~[apache-cassandra-3.0.1.jar:3.0.1] 
    at org.apache.cassandra.service.StorageProxy$DroppableRunnable.run(StorageProxy.java:2375) ~[apache-cassandra-3.0.1.jar:3.0.1] 
    at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:511) ~[na:1.8.0_66] 
    at org.apache.cassandra.concurrent.AbstractTracingAwareExecutorService$FutureTask.run(AbstractTracingAwareExecutorService.java:164) ~[apache-cassandra-3.0.1.jar:3.0.1] 
    at org.apache.cassandra.concurrent.AbstractTracingAwareExecutorService$TraceSessionFutureTask.run(AbstractTracingAwareExecutorService.java:136) [apache-cassandra-3.0.1.jar:3.0.1] 
    at org.apache.cassandra.concurrent.SEPWorker.run(SEPWorker.java:105) [apache-cassandra-3.0.1.jar:3.0.1] 
    at java.lang.Thread.run(Thread.java:745) [na:1.8.0_66] 
+0

1. Вы просмотрели файлы журнала Cassandra (/var/log/cassandra/system.log), чтобы найти возможную ошибку при выполнении запроса SELECT на непустой таблице? 2. Используете ли вы версию cqlsh, поставляемую с сервером Cassandra или другой версией? – doanduyhai

+0

Да, 'tail -f logs/system.log' ничего не показывает при выполнении запроса с ошибкой. Я использую версию 'cqlsh', поставляемую с Cassandra 3. Такая же проблема возникает и с последним драйвером python. Похоже, что есть некоторый «порог» при заполнении моих данных тестовыми данными: он работает до некоторой точки, а затем он терпит неудачу. Может быть, некоторые капли путают Кассандру? Когда эта таблица «не работает», остальные все еще в порядке. –

+0

Я думаю, что это этот парень: https://issues.apache.org/jira/browse/CASSANDRA-10903 –

ответ

2

Я решил проблему модернизирует Кассандре 3.2. This bug, по-видимому, вызывал проблему.

+1

Вы действительно попытались вставить некоторые данные в таблицу? У меня другая ошибка при попытке воспроизвести это в 3.0 и 3.2, см. [CASSANDRA-11021] (https://issues.apache.org/jira/browse/CASSANDRA-11021) –

+0

У меня действительно есть проблема. .. :( –