- abort(String, Throwable) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- abort(MasterProcedureEnv) - 类 中的方法org.apache.hadoop.hbase.master.procedure.AddColumnFamilyProcedure
-
- abort(MasterProcedureEnv) - 类 中的方法org.apache.hadoop.hbase.master.procedure.CreateNamespaceProcedure
-
- abort(MasterProcedureEnv) - 类 中的方法org.apache.hadoop.hbase.master.procedure.CreateTableProcedure
-
- abort(MasterProcedureEnv) - 类 中的方法org.apache.hadoop.hbase.master.procedure.DeleteColumnFamilyProcedure
-
- abort(MasterProcedureEnv) - 类 中的方法org.apache.hadoop.hbase.master.procedure.DeleteNamespaceProcedure
-
- abort(MasterProcedureEnv) - 类 中的方法org.apache.hadoop.hbase.master.procedure.DeleteTableProcedure
-
- abort(MasterProcedureEnv) - 类 中的方法org.apache.hadoop.hbase.master.procedure.DisableTableProcedure
-
- abort(MasterProcedureEnv) - 类 中的方法org.apache.hadoop.hbase.master.procedure.EnableTableProcedure
-
- abort(MasterProcedureEnv) - 类 中的方法org.apache.hadoop.hbase.master.procedure.ModifyColumnFamilyProcedure
-
- abort(MasterProcedureEnv) - 类 中的方法org.apache.hadoop.hbase.master.procedure.ModifyNamespaceProcedure
-
- abort(MasterProcedureEnv) - 类 中的方法org.apache.hadoop.hbase.master.procedure.ModifyTableProcedure
-
- abort(MasterProcedureEnv) - 类 中的方法org.apache.hadoop.hbase.master.procedure.ServerCrashProcedure
-
- abort(MasterProcedureEnv) - 类 中的方法org.apache.hadoop.hbase.master.procedure.TruncateTableProcedure
-
- abort(String) - 接口 中的方法org.apache.hadoop.hbase.monitoring.MonitoredTask
-
- abort(String) - 类 中的方法org.apache.hadoop.hbase.procedure.ZKProcedureCoordinatorRpcs
-
Receive a notification and propagate it to the local coordinator
- abort(String) - 类 中的方法org.apache.hadoop.hbase.procedure.ZKProcedureMemberRpcs
-
Pass along the found abort notification to the listener
- abort(String, Throwable) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
Cause the server to exit without closing the regions it is serving, the log
it is using and without notifying the master.
- abort(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- abort(String, Throwable) - 类 中的方法org.apache.hadoop.hbase.replication.HBaseReplicationEndpoint
-
- abort(String, Throwable) - 类 中的方法org.apache.hadoop.hbase.replication.master.ReplicationLogCleaner.WarnOnlyAbortable
-
- ABORT_ON_ERROR_KEY - 类 中的静态变量org.apache.hadoop.hbase.coprocessor.CoprocessorHost
-
- ABORT_ZNODE_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.procedure.ZKProcedureUtil
-
- abortable - 类 中的变量org.apache.hadoop.hbase.coprocessor.CoprocessorHost
-
- abortCacheFlush(byte[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
- abortCacheFlush(byte[]) - 接口 中的方法org.apache.hadoop.hbase.wal.WAL
-
Abort a cache flush.
- abortProcedure(long, boolean) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- abortProcedure(RpcController, MasterProtos.AbortProcedureRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- abortProcedure(long, boolean) - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
Abort a procedure.
- abortProcedure(String, ForeignException) - 类 中的方法org.apache.hadoop.hbase.procedure.ProcedureCoordinator
-
Abort the procedure with the given name
- abortProcess() - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureEnv.MasterProcedureStoreListener
-
- abortServer(CoprocessorEnvironment, Throwable) - 类 中的方法org.apache.hadoop.hbase.coprocessor.CoprocessorHost
-
- abortServer(String, Throwable) - 类 中的方法org.apache.hadoop.hbase.coprocessor.CoprocessorHost
-
- abortTask(TaskAttemptContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableOutputCommitter
-
- abortWriter(T) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.AbstractMultiOutputCompactor
-
- abortWriter(T) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.Compactor
-
- abortWriter(StoreFile.Writer) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.DefaultCompactor
-
- abortWriters() - 类 中的方法org.apache.hadoop.hbase.regionserver.AbstractMultiFileWriter
-
Close all writers without throwing any exceptions.
- abortZnode - 类 中的变量org.apache.hadoop.hbase.procedure.ZKProcedureUtil
-
- AbstractFileStatusFilter - org.apache.hadoop.hbase.util中的类
-
Typical base class for file status filter.
- AbstractFileStatusFilter() - 类 的构造器org.apache.hadoop.hbase.util.AbstractFileStatusFilter
-
- AbstractHFileReader - org.apache.hadoop.hbase.io.hfile中的类
-
Common functionality needed by all versions of
HFile readers.
- AbstractHFileReader(Path, FixedFileTrailer, long, CacheConfig, HFileSystem, Configuration) - 类 的构造器org.apache.hadoop.hbase.io.hfile.AbstractHFileReader
-
- AbstractHFileReader.BlockIndexNotLoadedException - org.apache.hadoop.hbase.io.hfile中的异常错误
-
- AbstractHFileReader.BlockIndexNotLoadedException() - 异常错误 的构造器org.apache.hadoop.hbase.io.hfile.AbstractHFileReader.BlockIndexNotLoadedException
-
- AbstractHFileReader.NotSeekedException - org.apache.hadoop.hbase.io.hfile中的异常错误
-
An exception thrown when an operation requiring a scanner to be seeked
is invoked on a scanner that is not seeked.
- AbstractHFileReader.NotSeekedException() - 异常错误 的构造器org.apache.hadoop.hbase.io.hfile.AbstractHFileReader.NotSeekedException
-
- AbstractHFileReader.Scanner - org.apache.hadoop.hbase.io.hfile中的类
-
- AbstractHFileReader.Scanner(HFile.Reader, boolean, boolean, boolean) - 类 的构造器org.apache.hadoop.hbase.io.hfile.AbstractHFileReader.Scanner
-
- AbstractHFileWriter - org.apache.hadoop.hbase.io.hfile中的类
-
Common functionality needed by all versions of
HFile writers.
- AbstractHFileWriter(CacheConfig, FSDataOutputStream, Path, KeyValue.KVComparator, HFileContext) - 类 的构造器org.apache.hadoop.hbase.io.hfile.AbstractHFileWriter
-
- AbstractMultiFileWriter - org.apache.hadoop.hbase.regionserver中的类
-
Base class for cell sink that separates the provided cells into multiple files.
- AbstractMultiFileWriter() - 类 的构造器org.apache.hadoop.hbase.regionserver.AbstractMultiFileWriter
-
- AbstractMultiFileWriter.WriterFactory - org.apache.hadoop.hbase.regionserver中的接口
-
- AbstractMultiOutputCompactor<T extends AbstractMultiFileWriter> - org.apache.hadoop.hbase.regionserver.compactions中的类
-
Base class for implementing a Compactor which will generate multiple output files after
compaction.
- AbstractMultiOutputCompactor(Configuration, Store) - 类 的构造器org.apache.hadoop.hbase.regionserver.compactions.AbstractMultiOutputCompactor
-
- accept(Class<?>) - 类 中的方法org.apache.hadoop.hbase.mapreduce.KeyValueSerialization
-
- accept(Class<?>) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MutationSerialization
-
- accept(Class<?>) - 类 中的方法org.apache.hadoop.hbase.mapreduce.ResultSerialization
-
- accept(Path, Boolean) - 类 中的方法org.apache.hadoop.hbase.util.AbstractFileStatusFilter
-
Filters out a path.
- accept(FileStatus) - 类 中的方法org.apache.hadoop.hbase.util.AbstractFileStatusFilter
-
- accept(Path) - 类 中的方法org.apache.hadoop.hbase.util.AbstractFileStatusFilter
-
- accept(FileStatus) - 接口 中的方法org.apache.hadoop.hbase.util.FileStatusFilter
-
Tests whether or not the specified filestatus should be
included in a filestatus list.
- accept(Path, Boolean) - 类 中的方法org.apache.hadoop.hbase.util.FSUtils.BlackListDirFilter
-
- accept(Path, Boolean) - 类 中的方法org.apache.hadoop.hbase.util.FSUtils.FamilyDirFilter
-
- accept(Path, Boolean) - 类 中的方法org.apache.hadoop.hbase.util.FSUtils.HFileFilter
-
- accept(Path) - 类 中的方法org.apache.hadoop.hbase.util.FSUtils.HFileLinkFilter
-
- accept(Path, Boolean) - 类 中的方法org.apache.hadoop.hbase.util.FSUtils.ReferenceFileFilter
-
- accept(Path, Boolean) - 类 中的方法org.apache.hadoop.hbase.util.FSUtils.RegionDirFilter
-
- access(long) - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruCachedBlock
-
Block has been accessed.
- AccessChecker - org.apache.hadoop.hbase.security.access中的类
-
- AccessChecker(Configuration, ZooKeeperWatcher) - 类 的构造器org.apache.hadoop.hbase.security.access.AccessChecker
-
Constructor with existing configuration
- AccessController - org.apache.hadoop.hbase.security.access中的类
-
Provides basic authorization checks for data access and administrative
operations.
- AccessController() - 类 的构造器org.apache.hadoop.hbase.security.access.AccessController
-
- AccessControlLists - org.apache.hadoop.hbase.security.access中的类
-
Maintains lists of permission grants to users and groups to allow for
authorization checks by
AccessController.
- AccessControlLists() - 类 的构造器org.apache.hadoop.hbase.security.access.AccessControlLists
-
- ACL_GLOBAL_NAME - 类 中的静态变量org.apache.hadoop.hbase.security.access.AccessControlLists
-
- ACL_KEY_DELIMITER - 类 中的静态变量org.apache.hadoop.hbase.security.access.AccessControlLists
-
Delimiter to separate user, column family, and qualifier in
_acl_ table info: column keys
- ACL_LIST_FAMILY - 类 中的静态变量org.apache.hadoop.hbase.security.access.AccessControlLists
-
- ACL_LIST_FAMILY_STR - 类 中的静态变量org.apache.hadoop.hbase.security.access.AccessControlLists
-
Column family used to store ACL grants
- ACL_TABLE_NAME - 类 中的静态变量org.apache.hadoop.hbase.security.access.AccessControlLists
-
Internal storage table for access control lists
- ACL_TAG_TYPE - 类 中的静态变量org.apache.hadoop.hbase.security.access.AccessControlLists
-
KV tag to store per cell access control lists
- acquire() - 接口 中的方法org.apache.hadoop.hbase.InterProcessLock
-
Acquire the lock, waiting indefinitely until the lock is released or
the thread is interrupted.
- acquire() - 接口 中的方法org.apache.hadoop.hbase.master.TableLockManager.TableLock
-
Acquire the lock, with the configured lock timeout.
- acquire() - 类 中的方法org.apache.hadoop.hbase.zookeeper.lock.ZKInterProcessLockBase
-
Acquire the lock, waiting indefinitely until the lock is released or
the thread is interrupted.
- acquireBarrier() - 类 中的方法org.apache.hadoop.hbase.procedure.flush.FlushTableSubprocedure
-
Flush the online regions on this rs for the target table.
- acquireBarrier() - 类 中的方法org.apache.hadoop.hbase.procedure.Subprocedure
-
The implementation of this method should gather and hold required resources (locks, disk
space, etc) to satisfy the Procedures barrier condition.
- acquireBarrier() - 类 中的方法org.apache.hadoop.hbase.procedure.Subprocedure.SubprocedureImpl
-
- acquireBarrier() - 类 中的方法org.apache.hadoop.hbase.regionserver.snapshot.FlushSnapshotSubprocedure
-
- ACQUIRED_BARRIER_ZNODE_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.procedure.ZKProcedureUtil
-
- acquireDelegationToken(FileSystem) - 类 中的方法org.apache.hadoop.hbase.security.token.FsDelegationToken
-
Acquire the delegation token for the specified filesytem.
- acquiredLock - 类 中的变量org.apache.hadoop.hbase.zookeeper.lock.ZKInterProcessLockBase
-
- acquiredZnode - 类 中的变量org.apache.hadoop.hbase.procedure.ZKProcedureUtil
-
- acquireLock(MasterProcedureEnv) - 类 中的方法org.apache.hadoop.hbase.master.procedure.AddColumnFamilyProcedure
-
- acquireLock(MasterProcedureEnv) - 类 中的方法org.apache.hadoop.hbase.master.procedure.CreateNamespaceProcedure
-
- acquireLock(MasterProcedureEnv) - 类 中的方法org.apache.hadoop.hbase.master.procedure.CreateTableProcedure
-
- acquireLock(MasterProcedureEnv) - 类 中的方法org.apache.hadoop.hbase.master.procedure.DeleteColumnFamilyProcedure
-
- acquireLock(MasterProcedureEnv) - 类 中的方法org.apache.hadoop.hbase.master.procedure.DeleteNamespaceProcedure
-
- acquireLock(MasterProcedureEnv) - 类 中的方法org.apache.hadoop.hbase.master.procedure.DeleteTableProcedure
-
- acquireLock(MasterProcedureEnv) - 类 中的方法org.apache.hadoop.hbase.master.procedure.DisableTableProcedure
-
- acquireLock(MasterProcedureEnv) - 类 中的方法org.apache.hadoop.hbase.master.procedure.EnableTableProcedure
-
- acquireLock(MasterProcedureEnv) - 类 中的方法org.apache.hadoop.hbase.master.procedure.ModifyColumnFamilyProcedure
-
- acquireLock(MasterProcedureEnv) - 类 中的方法org.apache.hadoop.hbase.master.procedure.ModifyNamespaceProcedure
-
- acquireLock(MasterProcedureEnv) - 类 中的方法org.apache.hadoop.hbase.master.procedure.ModifyTableProcedure
-
- acquireLock(MasterProcedureEnv) - 类 中的方法org.apache.hadoop.hbase.master.procedure.ServerCrashProcedure
-
- acquireLock(MasterProcedureEnv) - 类 中的方法org.apache.hadoop.hbase.master.procedure.TruncateTableProcedure
-
- acquireRegionLock(String) - 类 中的方法org.apache.hadoop.hbase.master.AssignmentManager
-
To avoid racing with AM, external entities may need to lock a region,
for example, when SSH checks what regions to skip re-assigning.
- ActiveMasterManager - org.apache.hadoop.hbase.master中的类
-
Handles everything on master-side related to master election.
- activeOperations - 类 中的变量org.apache.hadoop.hbase.regionserver.throttle.PressureAwareThroughputController
-
- actualErrorRate() - 类 中的方法org.apache.hadoop.hbase.util.ByteBloomFilter
-
Computes the error rate for this Bloom filter, taking into account the
actual number of hash functions and keys inserted.
- actualErrorRate(long, long, int) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBloomFilter
-
Computes the actual error rate for the given number of elements, number
of bits, and number of hash functions.
- AdaptiveLifoCoDelCallQueue - org.apache.hadoop.hbase.ipc中的类
-
Adaptive LIFO blocking queue utilizing CoDel algorithm to prevent queue overloading.
- AdaptiveLifoCoDelCallQueue(int, int, int, double, AtomicLong, AtomicLong) - 类 的构造器org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- add(HTableDescriptor, Class<? extends Constraint>...) - 类 中的静态方法org.apache.hadoop.hbase.constraint.Constraints
-
Add configuration-less constraints to the table.
- add(HTableDescriptor, Pair<Class<? extends Constraint>, Configuration>...) - 类 中的静态方法org.apache.hadoop.hbase.constraint.Constraints
-
Add constraints and their associated configurations to the table.
- add(HTableDescriptor, Class<? extends Constraint>, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.constraint.Constraints
-
Add a
Constraint to the table with the given configuration
Each constraint, when added to the table, will have a specific priority,
dictating the order in which the
Constraint will be run.
- add(HDFSBlocksDistribution) - 类 中的方法org.apache.hadoop.hbase.HDFSBlocksDistribution
-
This will add the distribution from input to this object
- add(Map.Entry<BlockCacheKey, BucketCache.BucketEntry>) - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.CachedEntryQueue
-
Attempt to add the specified entry to this queue.
- add(LruCachedBlock) - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruCachedBlockQueue
-
Attempt to add the specified cached block to this queue.
- add(CallRunner) - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- add(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.DeadServer
-
Adds the server to the dead server list if it's not there already.
- add(String) - 类 中的方法org.apache.hadoop.hbase.monitoring.MemoryBoundedLogMessageBuffer
-
Append the given message to this buffer, automatically evicting
older messages until the desired memory limit is achieved.
- add(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSkipListSet
-
- add(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.DefaultMemStore
-
Write an update
- add(Iterable<Cell>) - 类 中的方法org.apache.hadoop.hbase.regionserver.DefaultMemStore
-
- add(Cell) - 接口 中的方法org.apache.hadoop.hbase.regionserver.DeleteTracker
-
Add the specified cell to the list of deletes to check against for this row operation.
- add(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- add(Iterable<Cell>) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- add(Cell) - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStore
-
Write an update
- add(Iterable<Cell>) - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStore
-
Write the updates
- add(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanDeleteTracker
-
Add the specified KeyValue to the list of deletes to check against for this row operation.
- add(Cell) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
Adds a value to the memstore
- add(Iterable<Cell>) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
Adds the specified value to the memstore
- add(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WALEdit
-
- add(Cell) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityScanDeleteTracker
-
- add(HTableDescriptor) - 接口 中的方法org.apache.hadoop.hbase.TableDescriptors
-
Add or update descriptor
- add(byte[], int, int) - 接口 中的方法org.apache.hadoop.hbase.util.BloomFilterWriter
-
Add the specified binary to the bloom filter.
- add(byte[]) - 类 中的方法org.apache.hadoop.hbase.util.ByteBloomFilter
-
- add(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.util.ByteBloomFilter
-
- add(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.util.CompoundBloomFilterWriter
-
Adds a Bloom filter key.
- add(HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.util.FSTableDescriptors
-
Adds (or updates) the table descriptor to the FileSystem
and updates the local cache with it.
- add(String) - 类 中的方法org.apache.hadoop.hbase.util.LossyCounting
-
- add(R) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitCalculator
-
Adds an edge to the split calculator
- add(E) - 类 中的方法org.apache.hadoop.hbase.util.SortedCopyOnWriteSet
-
- add(E) - 类 中的方法org.apache.hadoop.hbase.util.SortedList
-
- add(int, E) - 类 中的方法org.apache.hadoop.hbase.util.SortedList
-
- addAll(Collection<? extends CallRunner>) - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- addAll(Collection<? extends Cell>) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSkipListSet
-
- addAll(Collection<? extends E>) - 类 中的方法org.apache.hadoop.hbase.util.SortedCopyOnWriteSet
-
- addAll(Collection<? extends E>) - 类 中的方法org.apache.hadoop.hbase.util.SortedList
-
- addAll(int, Collection<? extends E>) - 类 中的方法org.apache.hadoop.hbase.util.SortedList
-
- addAllocation(long) - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketAllocator.Bucket
-
- addAndGetGlobalMemstoreSize(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Increase the size of mem store in this region and the size of global mem
store
- addAndGetGlobalMemstoreSize(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerAccounting
-
- addAndGetRegionReplayEditsSize(byte[], long) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerAccounting
-
Add memStoreSize to replayEditsPerRegion.
- addBack(Procedure) - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureScheduler
-
- addCallSize(long) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer
-
- addCallSize(long) - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcServerInterface
-
Add/subtract from the current size of all outstanding calls.
- addChangedReaderObserver(ChangedReadersObserver) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- addChangedReaderObserver(ChangedReadersObserver) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- addChildExp(ExpressionNode) - 类 中的方法org.apache.hadoop.hbase.security.visibility.expression.NonLeafExpressionNode
-
- addChildExps(List<ExpressionNode>) - 类 中的方法org.apache.hadoop.hbase.security.visibility.expression.NonLeafExpressionNode
-
- addClientPort(int) - 类 中的方法org.apache.hadoop.hbase.zookeeper.MiniZooKeeperCluster
-
Add a client port to the list.
- addClusterId(UUID) - 类 中的方法org.apache.hadoop.hbase.wal.WALKey
-
Marks that the cluster with the given clusterId has consumed the change
- addColumn(TableName, HColumnDescriptor, long, long) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- addColumn(RpcController, MasterProtos.AddColumnRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- addColumn(TableName, HColumnDescriptor, long, long) - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
Add a new column to an existing table
- AddColumnFamilyProcedure - org.apache.hadoop.hbase.master.procedure中的类
-
The procedure to add a column family to an existing table.
- AddColumnFamilyProcedure() - 类 的构造器org.apache.hadoop.hbase.master.procedure.AddColumnFamilyProcedure
-
- AddColumnFamilyProcedure(MasterProcedureEnv, TableName, HColumnDescriptor) - 类 的构造器org.apache.hadoop.hbase.master.procedure.AddColumnFamilyProcedure
-
- addColumns(Scan, byte[][]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
Adds an array of columns specified using old format, family:qualifier.
- addCompactionResults(Collection<StoreFile>, Collection<StoreFile>) - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFileManager
-
Adds only the new compaction results into the structure.
- addCompactionResults(Collection<StoreFile>, Collection<StoreFile>) - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- addContext(Context, boolean) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
- addContext(String, String, boolean) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
Add a context
- addCurrentScanners(List<? extends KeyValueScanner>) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreScanner
-
- addDefaultApps(ContextHandlerCollection, String, Configuration) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
Add default apps.
- addDefaultServlets(ContextHandlerCollection) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
Add default servlets.
- addDeleteFamilyBloomFilter(BloomFilterWriter) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Writer
-
Store delete family Bloom filter in the file, which is only supported in
HFile V2.
- addDeleteFamilyBloomFilter(BloomFilterWriter) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileWriterV2
-
- addDependencyJars(JobConf) - 类 中的静态方法org.apache.hadoop.hbase.mapred.TableMapReduceUtil
-
- addDependencyJars(Job) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Add the HBase dependency jars as well as jars for any of the configured
job classes to the job configuration, so that JobClient will ship them
to the cluster and add them to the DistributedCache.
- addDependencyJars(Configuration, Class<?>...) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
- addDependencyJarsForClasses(Configuration, Class<?>...) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Add the jars containing the given classes to the job's configuration
such that JobClient will ship them to the cluster and add them to
the DistributedCache.
- addEndpoint(URI) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.Builder
-
Add an endpoint that the HTTP server should listen to.
- addEntry(byte[], long, int) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlockIndex.BlockIndexWriter
-
Add one index entry to the current leaf-level block.
- addFileInfoToException(IOException) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.SequenceFileLogReader
-
- addFilter(String, String, Map<String, String>) - 接口 中的方法org.apache.hadoop.hbase.http.FilterContainer
-
Add a filter to the container.
- addFilter(String, String, Map<String, String>) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
- addFilterAndArguments(Configuration, Class<? extends Filter>, List<String>) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.Import
-
Add a Filter to be instantiated on import
- addFilterPathMapping(String, Context) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
Add the path spec to the filter path mapping.
- addFront(Procedure) - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureScheduler
-
- addGeneralBloomFilter(BloomFilterWriter) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Writer
-
Store general Bloom filter in the file.
- addGeneralBloomFilter(BloomFilterWriter) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileWriterV2
-
- addGetResult(Result) - 类 中的方法org.apache.hadoop.hbase.quotas.DefaultOperationQuota
-
- addGetResult(Result) - 接口 中的方法org.apache.hadoop.hbase.quotas.OperationQuota
-
Add a get result.
- addGlobalFilter(String, String, Map<String, String>) - 接口 中的方法org.apache.hadoop.hbase.http.FilterContainer
-
Add a global filter to the container - This global filter will be
applied to all available web contexts.
- addGlobalFilter(String, String, Map<String, String>) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
- addHBaseDependencyJars(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Add HBase and its dependencies (only) to the job configuration.
- addHFileRefs(TableName, byte[], List<Pair<Path, Path>>) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSource
-
- addHFileRefs(TableName, byte[], List<Pair<Path, Path>>) - 接口 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSourceInterface
-
Add hfile names to the queue to be replicated.
- addHFileRefs(TableName, byte[], List<Pair<Path, Path>>) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSourceManager
-
- addHostsAndBlockWeight(String[], long) - 类 中的方法org.apache.hadoop.hbase.HDFSBlocksDistribution
-
add some weight to a list of hosts, update the value of unique block weight
- addInlineBlockWriter(InlineBlockWriter) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Writer
-
Adds an inline block writer such as a multi-level block index writer or
a compound Bloom filter writer.
- addInlineBlockWriter(InlineBlockWriter) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileWriterV2
-
- addInternalServlet(String, String, Class<? extends HttpServlet>) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
Add an internal servlet in the server.
- addInternalServlet(String, String, Class<? extends HttpServlet>, boolean) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
Add an internal servlet in the server, specifying whether or not to
protect with Kerberos authentication.
- addJerseyResourcePackage(String, String) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
Add a Jersey resource package.
- addKey(AuthenticationKey) - 类 中的方法org.apache.hadoop.hbase.security.token.AuthenticationTokenSecretManager
-
- addKeyToZK(AuthenticationKey) - 类 中的方法org.apache.hadoop.hbase.security.token.ZKSecretWatcher
-
- addLabels(List<byte[]>) - 类 中的方法org.apache.hadoop.hbase.security.visibility.DefaultVisibilityLabelServiceImpl
-
- addLabels(RpcController, VisibilityLabelsProtos.VisibilityLabelsRequest, RpcCallback<VisibilityLabelsProtos.VisibilityLabelsResponse>) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityController
-
VisibilityEndpoint service related methods
- addLabels(List<byte[]>) - 接口 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityLabelService
-
Adds the set of labels into the system.
- addLease(Leases.Lease) - 类 中的方法org.apache.hadoop.hbase.regionserver.Leases
-
Inserts lease.
- addListener(ForeignExceptionListener) - 类 中的方法org.apache.hadoop.hbase.errorhandling.ForeignExceptionDispatcher
-
Listen for failures to a given process.
- addLocation(Put, ServerName, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionMergeTransactionImpl
-
- addLocation(Put, ServerName, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.SplitTransactionImpl
-
- addLocationsOrderInterceptor(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.fs.HFileSystem
-
- addMaster() - 类 中的方法org.apache.hadoop.hbase.LocalHBaseCluster
-
- addMaster(Configuration, int) - 类 中的方法org.apache.hadoop.hbase.LocalHBaseCluster
-
- addMaster(Configuration, int, User) - 类 中的方法org.apache.hadoop.hbase.LocalHBaseCluster
-
- addMetaWALSplit(long, long) - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterFileSystem
-
Record a single instance of a split
- addMutation(Mutation) - 类 中的方法org.apache.hadoop.hbase.quotas.DefaultOperationQuota
-
- addMutation(Mutation) - 接口 中的方法org.apache.hadoop.hbase.quotas.OperationQuota
-
Add a mutation result.
- addMvccToOperationContext(long, long, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.ServerNonceManager
-
Store the write point in OperationContext when the operation succeed.
- addNamespace(NamespaceDescriptor) - 类 中的方法org.apache.hadoop.hbase.namespace.NamespaceAuditor
-
- addNamespaceQuota(Connection, String, QuotaProtos.Quotas) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaUtil
-
- addOperationsFromCP(int, Mutation[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.MiniBatchOperationInProgress
-
Add more Mutations corresponding to the Mutation at the given index to be committed atomically
in the same batch.
- addOptions() - 类 中的方法org.apache.hadoop.hbase.snapshot.CreateSnapshot
-
- addPlan(String, RegionPlan) - 类 中的方法org.apache.hadoop.hbase.master.AssignmentManager
-
Add a regionPlan for the specified region.
- addPlans(Map<String, RegionPlan>) - 类 中的方法org.apache.hadoop.hbase.master.AssignmentManager
-
Add a map of region plans.
- addPushSize(int) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationThrottler
-
Add current size to the current cycle's total push size
- addPutToKv(Put, Cell) - 类 中的方法org.apache.hadoop.hbase.mapreduce.Import.Importer
-
- addRegion(HRegion) - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotManifest
-
Creates a 'manifest' for the specified region, by reading directly from the HRegion object.
- addRegion(HRegion, SnapshotManifest.RegionVisitor) - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotManifest
-
- addRegion(Path, HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotManifest
-
Creates a 'manifest' for the specified region, by reading directly from the disk.
- addRegion(Path, HRegionInfo, SnapshotManifest.RegionVisitor) - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotManifest
-
- addRegionInfo(HBaseFsck.HbckInfo) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck.TableInfo
-
- addRegionServer() - 类 中的方法org.apache.hadoop.hbase.LocalHBaseCluster
-
- addRegionServer(Configuration, int) - 类 中的方法org.apache.hadoop.hbase.LocalHBaseCluster
-
- addRegionServer(Configuration, int, User) - 类 中的方法org.apache.hadoop.hbase.LocalHBaseCluster
-
- addRegionsToMeta(List<HRegionInfo>, int) - 类 中的方法org.apache.hadoop.hbase.master.handler.CreateTableHandler
-
Add the specified set of regions to the hbase:meta table.
- addRegionsToMeta(MasterProcedureEnv, HTableDescriptor, List<HRegionInfo>) - 类 中的静态方法org.apache.hadoop.hbase.master.procedure.CreateTableProcedure
-
Add the specified set of regions to the hbase:meta table.
- addRegionsToMeta(List<HRegionInfo>, int) - 类 中的方法org.apache.hadoop.hbase.master.snapshot.CloneSnapshotHandler
-
- addRegionToMETA(HRegion, HRegion) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HRegion
-
Inserts a new region's meta information into the passed
meta region.
- addRegionToSnapshot(HBaseProtos.SnapshotDescription, ForeignExceptionSnare) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Complete taking the snapshot on the region.
- addReplicas(HTableDescriptor, List<HRegionInfo>) - 类 中的方法org.apache.hadoop.hbase.master.handler.CreateTableHandler
-
Create any replicas for the regions (the default replicas that was
already created is passed to the method)
- address - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer
-
- addScanResult(List<Result>) - 类 中的方法org.apache.hadoop.hbase.quotas.DefaultOperationQuota
-
- addScanResult(List<Result>) - 接口 中的方法org.apache.hadoop.hbase.quotas.OperationQuota
-
Add a scan result.
- addServer(HRegionInfo, ServerName) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck.HbckInfo
-
- addServer(ServerName) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck.TableInfo
-
- addServerToDrainList(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
- addServlet(String, String, Class<? extends HttpServlet>) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
Add a servlet in the server.
- addServlet(String, String, Class<? extends HttpServlet>) - 类 中的方法org.apache.hadoop.hbase.http.InfoServer
-
- addShutdownHook(Thread, int) - 类 中的方法org.apache.hadoop.hbase.util.ShutdownHookManager
-
- addSnapshot(long) - 类 中的方法org.apache.hadoop.hbase.master.MetricsSnapshot
-
Record a single instance of a snapshot
- addSnapshotClone(long) - 类 中的方法org.apache.hadoop.hbase.master.MetricsSnapshot
-
Record a single instance of a snapshot cloned table
- addSnapshotRestore(long) - 类 中的方法org.apache.hadoop.hbase.master.MetricsSnapshot
-
Record a single instance of a snapshot
- addSource(String) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSourceManager
-
Add sources for the given peer cluster on this region server.
- addSplit(long, long) - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterFileSystem
-
Record a single instance of a split
- addSystemLabel(Region, Map<String, Integer>, Map<String, List<Integer>>) - 类 中的方法org.apache.hadoop.hbase.security.visibility.DefaultVisibilityLabelServiceImpl
-
- addTable(String) - 类 中的方法org.apache.hadoop.hbase.backup.example.HFileArchiveTableMonitor
-
Add the named table to be those being archived.
- addTableDescriptor(HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotManifest
-
Add the table descriptor to the snapshot manifest
- addTableQuota(Connection, TableName, QuotaProtos.Quotas) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaUtil
-
- addTableToMeta(MasterProcedureEnv, HTableDescriptor, List<HRegionInfo>) - 类 中的静态方法org.apache.hadoop.hbase.master.procedure.CreateTableProcedure
-
- addToHDFSBlocksDistribution(HDFSBlocksDistribution, BlockLocation[]) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Update blocksDistribution with blockLocations
- addToMovedRegions(String, ServerName, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- addToOnlineRegions(Region) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- addToOnlineRegions(Region) - 接口 中的方法org.apache.hadoop.hbase.regionserver.OnlineRegions
-
Add to online regions.
- addUserQuota(Connection, String, QuotaProtos.Quotas) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaUtil
-
- addUserQuota(Connection, String, TableName, QuotaProtos.Quotas) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaUtil
-
- addUserQuota(Connection, String, String, QuotaProtos.Quotas) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaUtil
-
- addWAL(WAL) - 类 中的方法org.apache.hadoop.hbase.regionserver.LogRoller
-
- addWeight(long) - 类 中的方法org.apache.hadoop.hbase.HDFSBlocksDistribution.HostAndWeight
-
add weight
- admin - 类 中的变量org.apache.hadoop.hbase.tool.CanaryTool.Monitor
-
- AdminAuthorizedServlet - org.apache.hadoop.hbase.http中的类
-
General servlet which is admin-authorized.
- AdminAuthorizedServlet() - 类 的构造器org.apache.hadoop.hbase.http.AdminAuthorizedServlet
-
- ADMINS_ACL - 类 中的静态变量org.apache.hadoop.hbase.http.HttpServer
-
- advanceTo(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.MultiVersionConcurrencyControl
-
Step the MVCC forward on to a new read/write basis.
- affixShutdownHook(Thread, int) - 类 中的静态方法org.apache.hadoop.hbase.util.ShutdownHookManager
-
- afterCreatingZigZagLatch() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
Used to manufacture race condition reliably.
- afterExecute() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionRequest
-
Called after compaction is executed by CompactSplitThread; for use by coproc subclasses.
- afterProcess(EventHandler) - 接口 中的方法org.apache.hadoop.hbase.executor.EventHandler.EventHandlerListener
-
Called after any event is processed
- AgeSnapshot - org.apache.hadoop.hbase.io.hfile中的类
-
Snapshot of block cache age in cache.
- AggregateImplementation<T,S,P extends com.google.protobuf.Message,Q extends com.google.protobuf.Message,R extends com.google.protobuf.Message> - org.apache.hadoop.hbase.coprocessor中的类
-
A concrete AggregateProtocol implementation.
- AggregateImplementation() - 类 的构造器org.apache.hadoop.hbase.coprocessor.AggregateImplementation
-
- allocate() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketAllocator.Bucket
-
Allocate a block in this bucket, return the offset representing the
position in physical space
- allocateBlock(int) - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketAllocator
-
Allocate a block with specified size.
- allocateBytes(int) - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemStoreLAB
-
Allocate a slice of the given length.
- allocateBytes(int) - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStoreLAB
-
Allocate a slice of the given length.
- allocBloom() - 接口 中的方法org.apache.hadoop.hbase.util.BloomFilterWriter
-
Allocate memory for the bloom filter data.
- allocBloom() - 类 中的方法org.apache.hadoop.hbase.util.ByteBloomFilter
-
- allocBloom() - 类 中的方法org.apache.hadoop.hbase.util.CompoundBloomFilterWriter
-
- allow(String, String, User, Permission.Action, String) - 类 中的静态方法org.apache.hadoop.hbase.security.access.AuthResult
-
- allow(String, String, User, Permission.Action, TableName, byte[], byte[]) - 类 中的静态方法org.apache.hadoop.hbase.security.access.AuthResult
-
- allow(String, String, User, Permission.Action, TableName, Map<byte[], ? extends Collection<?>>) - 类 中的静态方法org.apache.hadoop.hbase.security.access.AuthResult
-
- allowedFailures - 类 中的变量org.apache.hadoop.hbase.tool.CanaryTool.Monitor
-
- annotatedQos - 类 中的变量org.apache.hadoop.hbase.regionserver.AnnotationReadingPriorityFunction
-
- AnnotationReadingPriorityFunction - org.apache.hadoop.hbase.regionserver中的类
-
Reads special method annotations and table names to figure a priority for use by QoS facility in
ipc; e.g: rpcs to hbase:meta get priority.
- AnnotationReadingPriorityFunction(RSRpcServices) - 类 的构造器org.apache.hadoop.hbase.regionserver.AnnotationReadingPriorityFunction
-
- AnnotationReadingPriorityFunction(RSRpcServices, Class<? extends RSRpcServices>) - 类 的构造器org.apache.hadoop.hbase.regionserver.AnnotationReadingPriorityFunction
-
Constructs the priority function given the RPC server implementation and the annotations on the
methods in the provided clz.
- APP_DIR - 类 中的静态变量org.apache.hadoop.hbase.http.HttpServer
-
- appDir - 类 中的变量org.apache.hadoop.hbase.http.HttpServer
-
- append(Append) - 类 中的方法org.apache.hadoop.hbase.client.HTableWrapper
-
- append(LoggingEvent) - 类 中的方法org.apache.hadoop.hbase.http.HttpRequestLogAppender
-
- append(byte[], byte[], boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFile.FileInfo
-
Append the given key/value pair to the file info, optionally checking the
key prefix.
- append(Cell) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Writer
-
- append(Cell) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileWriterV2
-
Add key/value to file.
- append(Cell) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileWriterV3
-
Add key/value to file.
- append(Cell) - 接口 中的方法org.apache.hadoop.hbase.regionserver.compactions.Compactor.CellSink
-
- append(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.DateTieredMultiFileWriter
-
- append(Append) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- append(Append, long, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- append(Append, long, long) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Perform one or more append operations on a row.
- append(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile.Writer
-
- append(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeMultiFileWriter.BoundaryMultiWriter
-
- append(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeMultiFileWriter.SizeMultiWriter
-
- append(HTableDescriptor, HRegionInfo, WALKey, WALEdit, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
- append(WAL.Entry) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogWriter
-
- append(HTableDescriptor, HRegionInfo, WALKey, WALEdit, boolean) - 接口 中的方法org.apache.hadoop.hbase.wal.WAL
-
Append a set of edits to the WAL.
- append(WAL.Entry) - 接口 中的方法org.apache.hadoop.hbase.wal.WALProvider.Writer
-
- append(WALSplitter.RegionEntryBuffer) - 类 中的方法org.apache.hadoop.hbase.wal.WALSplitter.OutputSink
-
- appendEntry(WAL.Entry) - 类 中的方法org.apache.hadoop.hbase.wal.WALSplitter.EntryBuffers
-
Append a log entry into the corresponding region buffer.
- appendFileInfo(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.io.hfile.AbstractHFileWriter
-
Add to the file info.
- appendFileInfo(byte[], byte[]) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Writer
-
Add an element to the file info map.
- appendFileInfo(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile.Writer
-
- appendMetaBlock(String, Writable) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Writer
-
- appendMetaBlock(String, Writable) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileWriterV2
-
Add a meta block to the end of the file.
- appendMetadata(long, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile.Writer
-
Writes meta data.
- appendMetadata(long, boolean, Collection<StoreFile>) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile.Writer
-
Writes meta data.
- appendThreadInfo(StringBuilder, ThreadInfo, String) - 类 中的静态方法org.apache.hadoop.hbase.monitoring.ThreadMonitoring
-
Print all of the thread's information and stack traces.
- appendTrackedTimestampsToMetadata() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile.Writer
-
Add TimestampRange and earliest put timestamp to Metadata
- applyBatch(long) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.MetricsSink
-
Convience method to change metrics when a batch of operations are applied.
- applyBatch(long, long) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.MetricsSink
-
Convience method to change metrics when a batch of operations are applied.
- applyCompactionPolicy(ArrayList<StoreFile>, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.ExploringCompactionPolicy
-
- applyCompactionPolicy(List<StoreFile>, boolean, boolean, int, int) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.ExploringCompactionPolicy
-
- applyCompactionPolicy(ArrayList<StoreFile>, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.RatioBasedCompactionPolicy
-
-- Default minor compaction selection algorithm:
choose CompactSelection from candidates --
First exclude bulk-load files if indicated in configuration.
- archiveFamily(FileSystem, Configuration, HRegionInfo, Path, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.backup.HFileArchiver
-
Remove from the specified region the store files of the specified column family,
either by archiving them or outright deletion
- archiveMetaLog(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.MasterFileSystem
-
For meta region open and closed normally on a server, it may leave some meta
WAL in the server's wal dir.
- archiveRegion(Configuration, FileSystem, HRegionInfo) - 类 中的静态方法org.apache.hadoop.hbase.backup.HFileArchiver
-
Cleans up all the files for a HRegion by archiving the HFiles to the
archive directory
- archiveRegion(FileSystem, Path, Path, Path) - 类 中的静态方法org.apache.hadoop.hbase.backup.HFileArchiver
-
Remove an entire region from the table directory via archiving the region's hfiles.
- archiveStoreFile(Configuration, FileSystem, HRegionInfo, Path, byte[], Path) - 类 中的静态方法org.apache.hadoop.hbase.backup.HFileArchiver
-
Archive the store file
- archiveStoreFiles(Configuration, FileSystem, HRegionInfo, Path, byte[], Collection<StoreFile>) - 类 中的静态方法org.apache.hadoop.hbase.backup.HFileArchiver
-
Remove the store files, either by archiving them or outright deletion
- areDeadServersInProgress() - 类 中的方法org.apache.hadoop.hbase.master.DeadServer
-
Checks if there are currently any dead servers being processed by the
master.
- areDeadServersInProgress() - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
Checks if any dead servers are currently in progress.
- areSomeRegionReplicasColocated(BaseLoadBalancer.Cluster) - 类 中的方法org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer
-
Subclasses should implement this to return true if the cluster has nodes that hosts
multiple replicas for the same region, or, if there are multiple racks and the same
rack hosts replicas of the same region
- areSomeRegionReplicasColocated(BaseLoadBalancer.Cluster) - 类 中的方法org.apache.hadoop.hbase.master.balancer.StochasticLoadBalancer
-
- areWritesEnabled() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- areWritesEnabled() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- areWritesEnabled() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- assertBulkLoadHFileOk(Path) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- assertBulkLoadHFileOk(Path) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
This throws a WrongRegionException if the HFile does not fit in this region, or an
InvalidHFileException if the HFile is not valid.
- assertSeeked() - 类 中的方法org.apache.hadoop.hbase.io.hfile.AbstractHFileReader.Scanner
-
- assign(HRegionInfo, boolean) - 类 中的方法org.apache.hadoop.hbase.master.AssignmentManager
-
Assigns the specified region.
- assign(HRegionInfo, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.master.AssignmentManager
-
Use care with forceNewPlan.
- assign(RegionState, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.master.AssignmentManager
-
Caller must hold lock on the passed state object.
- assign(Map<HRegionInfo, ServerName>) - 类 中的方法org.apache.hadoop.hbase.master.AssignmentManager
-
Assigns specified regions retaining assignments, if any.
- assign(List<HRegionInfo>) - 类 中的方法org.apache.hadoop.hbase.master.AssignmentManager
-
Assigns specified regions round robin, if any.
- ASSIGN_RANDOM_PORTS - 类 中的静态变量org.apache.hadoop.hbase.LocalHBaseCluster
-
- AssignCallable - org.apache.hadoop.hbase.master中的类
-
A callable object that invokes the corresponding action that needs to be
taken for assignment of a region in transition.
- AssignCallable(AssignmentManager, HRegionInfo, boolean) - 类 的构造器org.apache.hadoop.hbase.master.AssignCallable
-
- assignMasterRegions(Collection<HRegionInfo>, List<ServerName>) - 类 中的方法org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer
-
Assign the regions that should be on master regionserver.
- AssignmentListener - org.apache.hadoop.hbase.master中的接口
-
Get notification of assignment events.
- AssignmentManager - org.apache.hadoop.hbase.master中的类
-
Manages and performs region assignment.
- AssignmentManager(MasterServices, ServerManager, LoadBalancer, ExecutorService, MetricsMaster, TableLockManager) - 类 的构造器org.apache.hadoop.hbase.master.AssignmentManager
-
Constructs a new assignment manager.
- assignmentManager - 类 中的变量org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl
-
- AssignmentManager.ServerHostRegion - org.apache.hadoop.hbase.master中的枚举
-
- AssignmentManagerStatusTmpl - org.apache.hadoop.hbase.tmpl.master中的类
-
- AssignmentManagerStatusTmpl(TemplateManager) - 类 的构造器org.apache.hadoop.hbase.tmpl.master.AssignmentManagerStatusTmpl
-
- AssignmentManagerStatusTmpl(String) - 类 的构造器org.apache.hadoop.hbase.tmpl.master.AssignmentManagerStatusTmpl
-
- AssignmentManagerStatusTmpl() - 类 的构造器org.apache.hadoop.hbase.tmpl.master.AssignmentManagerStatusTmpl
-
- AssignmentManagerStatusTmpl.ImplData - org.apache.hadoop.hbase.tmpl.master中的类
-
- AssignmentManagerStatusTmpl.ImplData() - 类 的构造器org.apache.hadoop.hbase.tmpl.master.AssignmentManagerStatusTmpl.ImplData
-
- AssignmentManagerStatusTmpl.Intf - org.apache.hadoop.hbase.tmpl.master中的接口
-
- AssignmentManagerStatusTmplImpl - org.apache.hadoop.hbase.tmpl.master中的类
-
- AssignmentManagerStatusTmplImpl(TemplateManager, AssignmentManagerStatusTmpl.ImplData) - 类 的构造器org.apache.hadoop.hbase.tmpl.master.AssignmentManagerStatusTmplImpl
-
- AssignmentVerificationReport - org.apache.hadoop.hbase.master中的类
-
- AssignmentVerificationReport() - 类 的构造器org.apache.hadoop.hbase.master.AssignmentVerificationReport
-
- assignMeta(HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.master.AssignmentManager
-
Assigns the hbase:meta region or a replica.
- assignRegion(RpcController, MasterProtos.AssignRegionRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- assignRegions(MasterProcedureEnv, TableName, List<HRegionInfo>) - 类 中的静态方法org.apache.hadoop.hbase.master.procedure.CreateTableProcedure
-
- assignRegions(AssignmentManager, List<HRegionInfo>) - 类 中的静态方法org.apache.hadoop.hbase.util.ModifyRegionUtils
-
Triggers a bulk assignment of the specified regions
- atLeast(WALKey.Version) - 枚举 中的方法org.apache.hadoop.hbase.wal.WALKey.Version
-
- attemptingUser - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer.Connection
-
- attemptToOwnTask(boolean, ZooKeeperWatcher, ServerName, String, ZooKeeperProtos.SplitLogTask.RecoveryMode, int) - 类 中的静态方法org.apache.hadoop.hbase.coordination.ZkSplitLogWorkerCoordination
-
Try to own the task by transitioning the zk node data from UNASSIGNED to OWNED.
- ATTRIBUTE_SEPERATOR_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.ImportTsv
-
- ATTRIBUTES_COLUMN_SPEC - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser
-
- AuthenticationKey - org.apache.hadoop.hbase.security.token中的类
-
- AuthenticationKey() - 类 的构造器org.apache.hadoop.hbase.security.token.AuthenticationKey
-
- AuthenticationKey(int, long, SecretKey) - 类 的构造器org.apache.hadoop.hbase.security.token.AuthenticationKey
-
- AuthenticationTokenSecretManager - org.apache.hadoop.hbase.security.token中的类
-
Manages an internal list of secret keys used to sign new authentication
tokens as they are generated, and to valid existing tokens used for
authentication.
- AuthenticationTokenSecretManager(Configuration, ZooKeeperWatcher, String, long, long) - 类 的构造器org.apache.hadoop.hbase.security.token.AuthenticationTokenSecretManager
-
Create a new secret manager instance for generating keys.
- authManager - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer
-
- authorize(UserGroupInformation, RPCProtos.ConnectionHeader, InetAddress) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer
-
Authorize the incoming client connection.
- authorize(User, Permission.Action) - 类 中的方法org.apache.hadoop.hbase.security.access.TableAuthManager
-
Authorize a global permission based on ACLs for the given user and the
user's groups.
- authorize(User, TableName, Cell, Permission.Action) - 类 中的方法org.apache.hadoop.hbase.security.access.TableAuthManager
-
Authorize a user for a given KV.
- authorize(User, String, Permission.Action) - 类 中的方法org.apache.hadoop.hbase.security.access.TableAuthManager
-
- authorize(User, TableName, byte[], byte[], Permission.Action) - 类 中的方法org.apache.hadoop.hbase.security.access.TableAuthManager
-
- authorize(User, TableName, byte[], Permission.Action) - 类 中的方法org.apache.hadoop.hbase.security.access.TableAuthManager
-
- authorizeGroup(String, Permission.Action) - 类 中的方法org.apache.hadoop.hbase.security.access.TableAuthManager
-
Checks global authorization for a given action for a group, based on the stored
permissions.
- authorizeGroup(String, TableName, byte[], byte[], Permission.Action) - 类 中的方法org.apache.hadoop.hbase.security.access.TableAuthManager
-
Checks authorization to a given table, column family and column for a group, based
on the stored permissions.
- authorizeUser(User, TableName, byte[], Permission.Action) - 类 中的方法org.apache.hadoop.hbase.security.access.TableAuthManager
-
Checks authorization to a given table and column family for a user, based on the
stored user permissions.
- authorizeUser(User, TableName, byte[], byte[], Permission.Action) - 类 中的方法org.apache.hadoop.hbase.security.access.TableAuthManager
-
- AuthResult - org.apache.hadoop.hbase.security.access中的类
-
Represents the result of an authorization check for logging and error
reporting.
- AuthResult(boolean, String, String, User, Permission.Action, TableName, byte[], byte[]) - 类 的构造器org.apache.hadoop.hbase.security.access.AuthResult
-
- AuthResult(boolean, String, String, User, Permission.Action, TableName, Map<byte[], ? extends Collection<?>>) - 类 的构造器org.apache.hadoop.hbase.security.access.AuthResult
-
- AuthResult(boolean, String, String, User, Permission.Action, String) - 类 的构造器org.apache.hadoop.hbase.security.access.AuthResult
-
- AuthResult.Params - org.apache.hadoop.hbase.security.access中的类
-
- AuthResult.Params() - 类 的构造器org.apache.hadoop.hbase.security.access.AuthResult.Params
-
- authTokenSecretMgr - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer
-
- AverageIntervalRateLimiter - org.apache.hadoop.hbase.quotas中的类
-
This limiter will refill resources at every TimeUnit/resources interval.
- AverageIntervalRateLimiter() - 类 的构造器org.apache.hadoop.hbase.quotas.AverageIntervalRateLimiter
-
- avgKeyLen - 类 中的变量org.apache.hadoop.hbase.io.hfile.AbstractHFileReader
-
Average key length read from file info
- avgValueLen - 类 中的变量org.apache.hadoop.hbase.io.hfile.AbstractHFileReader
-
Average value length read from file info
- await() - 类 中的方法org.apache.hadoop.hbase.master.procedure.ProcedurePrepareLatch
-
- await() - 类 中的方法org.apache.hadoop.hbase.master.procedure.ProcedurePrepareLatch.CompatibilityLatch
-
- await() - 类 中的方法org.apache.hadoop.hbase.regionserver.MultiVersionConcurrencyControl
-
Wait until the read point catches up to the write point; i.e. wait on all outstanding mvccs
to complete.
- CACHE_BLOCKS_ON_WRITE_KEY - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.CacheConfig
-
Configuration key to cache data blocks on write.
- CACHE_BLOOM_BLOCKS_ON_WRITE_KEY - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.CacheConfig
-
Configuration key to cache compound bloom filter blocks on write.
- CACHE_DATA_BLOCKS_COMPRESSED_KEY - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.CacheConfig
-
Configuration key to cache data blocks in compressed and/or encrypted format.
- CACHE_FIXED_OVERHEAD - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
- CACHE_INDEX_BLOCKS_ON_WRITE_KEY - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.CacheConfig
-
Configuration key to cache leaf and intermediate-level index blocks on
write.
- Cacheable - org.apache.hadoop.hbase.io.hfile中的接口
-
Cacheable is an interface that allows for an object to be cached.
- CacheableDeserializer<T extends Cacheable> - org.apache.hadoop.hbase.io.hfile中的接口
-
Interface for a deserializer.
- CacheableDeserializerIdManager - org.apache.hadoop.hbase.io.hfile中的类
-
- CacheableDeserializerIdManager() - 类 的构造器org.apache.hadoop.hbase.io.hfile.CacheableDeserializerIdManager
-
- cacheBlock(BlockCacheKey, Cacheable, boolean, boolean) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.BlockCache
-
Add block to cache.
- cacheBlock(BlockCacheKey, Cacheable) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.BlockCache
-
Add block to cache (defaults to not in-memory).
- cacheBlock(BlockCacheKey, Cacheable) - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketCache
-
Cache the block with the specified name and buffer.
- cacheBlock(BlockCacheKey, Cacheable, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketCache
-
Cache the block with the specified name and buffer.
- cacheBlock(BlockCacheKey, Cacheable, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache
-
- cacheBlock(BlockCacheKey, Cacheable) - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache
-
- cacheBlock(BlockCacheKey, Cacheable, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.InclusiveCombinedBlockCache
-
- cacheBlock(BlockCacheKey, Cacheable, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
Cache the block with the specified name and buffer.
- cacheBlock(BlockCacheKey, Cacheable) - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
Cache the block with the specified name and buffer.
- cacheBlocks - 类 中的变量org.apache.hadoop.hbase.io.hfile.AbstractHFileReader.Scanner
-
- cacheBlocks - 类 中的变量org.apache.hadoop.hbase.regionserver.StoreScanner
-
- cacheBlockWithWait(BlockCacheKey, Cacheable, boolean, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketCache
-
Cache the block to ramCache
- cacheConf - 类 中的变量org.apache.hadoop.hbase.io.hfile.AbstractHFileReader
-
Block cache configuration.
- cacheConf - 类 中的变量org.apache.hadoop.hbase.io.hfile.AbstractHFileWriter
-
Cache configuration for caching data on write.
- cacheConf - 类 中的变量org.apache.hadoop.hbase.io.hfile.HFile.WriterFactory
-
- CacheConfig - org.apache.hadoop.hbase.io.hfile中的类
-
Stores all of the cache objects and configuration for a single HFile.
- CacheConfig(Configuration, HColumnDescriptor) - 类 的构造器org.apache.hadoop.hbase.io.hfile.CacheConfig
-
Create a cache configuration using the specified configuration object and
family descriptor.
- CacheConfig(Configuration) - 类 的构造器org.apache.hadoop.hbase.io.hfile.CacheConfig
-
Create a cache configuration using the specified configuration object and
defaults for family level settings.
- CacheConfig(CacheConfig) - 类 的构造器org.apache.hadoop.hbase.io.hfile.CacheConfig
-
Constructs a cache configuration copied from the specified configuration.
- cacheConfig - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
- CachedBlock - org.apache.hadoop.hbase.io.hfile中的接口
-
- CachedEntryQueue - org.apache.hadoop.hbase.io.hfile.bucket中的类
-
A memory-bound queue that will grow until an element brings total size larger
than maxSize.
- CachedEntryQueue(long, long) - 类 的构造器org.apache.hadoop.hbase.io.hfile.bucket.CachedEntryQueue
-
- cacheFlusher - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
- CacheFullException - org.apache.hadoop.hbase.io.hfile.bucket中的异常错误
-
- cacheSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.CachedEntryQueue
-
Total size of all elements in this queue.
- CacheStats - org.apache.hadoop.hbase.io.hfile中的类
-
Class that implements cache metrics.
- CacheStats(String) - 类 的构造器org.apache.hadoop.hbase.io.hfile.CacheStats
-
- CacheStats(String, int) - 类 的构造器org.apache.hadoop.hbase.io.hfile.CacheStats
-
- calcCoverage() - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitCalculator
-
Generates a coverage multimap from split key to Regions that start with the
split key.
- calculateAutoBalancedSplits(List<InputSplit>, long) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
Calculates the number of MapReduce input splits for the map tasks.
- calculateChecksum(String) - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.FileIOEngine
-
- calculateChecksum(String) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.bucket.PersistentIOEngine
-
Using an encryption algorithm to calculate a checksum, the default encryption algorithm is MD5
- calculateMutationSize(Mutation) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaUtil
-
- calculateOverhead(long, long, int) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
- calculateRebalancedSplits(List<InputSplit>, JobContext, long) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
已过时。
- calculateResultSize(Result) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaUtil
-
- calculateResultSize(List<Result>) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaUtil
-
- call(BlockingService, Descriptors.MethodDescriptor, Message, CellScanner, long, MonitoredRPCHandler) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer
-
- call(BlockingService, Descriptors.MethodDescriptor, Message, CellScanner, long, MonitoredRPCHandler, long, int) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer
-
This is a server side method, which is invoked over RPC.
- call(BlockingService, Descriptors.MethodDescriptor, Message, CellScanner, long, MonitoredRPCHandler) - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcServerInterface
-
已过时。
As of release 1.3, this will be removed in HBase 3.0
- call(BlockingService, Descriptors.MethodDescriptor, Message, CellScanner, long, MonitoredRPCHandler, long, int) - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcServerInterface
-
- call() - 类 中的方法org.apache.hadoop.hbase.master.AssignCallable
-
- call() - 类 中的方法org.apache.hadoop.hbase.master.UnAssignCallable
-
- call() - 类 中的方法org.apache.hadoop.hbase.procedure.Procedure
-
This call is the main execution thread of the barriered procedure.
- call() - 类 中的方法org.apache.hadoop.hbase.procedure.Subprocedure
-
- call() - 类 中的方法org.apache.hadoop.hbase.regionserver.snapshot.FlushSnapshotSubprocedure.RegionSnapshotTask
-
- call() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.HBaseInterClusterReplicationEndpoint.Replicator
-
- CALL_QUEUE_CODEL_DEFAULT_INTERVAL - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcExecutor
-
- CALL_QUEUE_CODEL_DEFAULT_LIFO_THRESHOLD - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcExecutor
-
- CALL_QUEUE_CODEL_DEFAULT_TARGET_DELAY - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcExecutor
-
- CALL_QUEUE_CODEL_INTERVAL - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcExecutor
-
- CALL_QUEUE_CODEL_LIFO_THRESHOLD - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcExecutor
-
- CALL_QUEUE_CODEL_TARGET_DELAY - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcExecutor
-
- CALL_QUEUE_HANDLER_FACTOR_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcExecutor
-
- CALL_QUEUE_READ_SHARE_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.ipc.RWQueueRpcExecutor
-
- CALL_QUEUE_SCAN_SHARE_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.ipc.RWQueueRpcExecutor
-
- CALL_QUEUE_TYPE_CODEL_CONF_VALUE - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcExecutor
-
The default, 'fifo', has the least friction but is dumb.
- CALL_QUEUE_TYPE_CONF_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcExecutor
-
- CALL_QUEUE_TYPE_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcExecutor
-
- CALL_QUEUE_TYPE_DEADLINE_CONF_VALUE - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcExecutor
-
- CALL_QUEUE_TYPE_FIFO_CONF_VALUE - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcExecutor
-
- callQueueSize - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer
-
This is a running count of the size of all outstanding calls by size.
- CallRunner - org.apache.hadoop.hbase.ipc中的类
-
The request processing logic, which is usually executed in thread pools provided by an
RpcScheduler.
- Canary - org.apache.hadoop.hbase.tool中的接口
-
- Canary.Factory - org.apache.hadoop.hbase.tool中的类
-
- Canary.Factory() - 类 的构造器org.apache.hadoop.hbase.tool.Canary.Factory
-
- CanaryTool - org.apache.hadoop.hbase.tool中的类
-
HBase Canary Tool for "canary monitoring" of a running HBase cluster.
- CanaryTool() - 类 的构造器org.apache.hadoop.hbase.tool.CanaryTool
-
- CanaryTool(ExecutorService) - 类 的构造器org.apache.hadoop.hbase.tool.CanaryTool
-
- CanaryTool.Monitor - org.apache.hadoop.hbase.tool中的类
-
A Monitor super-class can be extended by users
- CanaryTool.Monitor(Connection, String[], boolean, CanaryTool.Sink, ExecutorService, boolean, long) - 类 的构造器org.apache.hadoop.hbase.tool.CanaryTool.Monitor
-
- CanaryTool.RegionServerStdOutSink - org.apache.hadoop.hbase.tool中的类
-
By RegionServer, for 'regionserver' mode.
- CanaryTool.RegionServerStdOutSink() - 类 的构造器org.apache.hadoop.hbase.tool.CanaryTool.RegionServerStdOutSink
-
- CanaryTool.RegionStdOutSink - org.apache.hadoop.hbase.tool中的类
-
By Region, for 'region' mode.
- CanaryTool.RegionStdOutSink() - 类 的构造器org.apache.hadoop.hbase.tool.CanaryTool.RegionStdOutSink
-
- CanaryTool.RegionTaskResult - org.apache.hadoop.hbase.tool中的类
-
Canary region mode-specific data structure which stores information about each region
to be scanned
- CanaryTool.RegionTaskResult(HRegionInfo, TableName, ServerName) - 类 的构造器org.apache.hadoop.hbase.tool.CanaryTool.RegionTaskResult
-
- CanaryTool.Sink - org.apache.hadoop.hbase.tool中的接口
-
Sink interface used by the canary to output information
- CanaryTool.StdOutSink - org.apache.hadoop.hbase.tool中的类
-
Simple implementation of canary sink that allows plotting to a file or standard output.
- CanaryTool.StdOutSink() - 类 的构造器org.apache.hadoop.hbase.tool.CanaryTool.StdOutSink
-
- CanaryTool.ZookeeperStdOutSink - org.apache.hadoop.hbase.tool中的类
-
Output for 'zookeeper' mode.
- CanaryTool.ZookeeperStdOutSink() - 类 的构造器org.apache.hadoop.hbase.tool.CanaryTool.ZookeeperStdOutSink
-
- cancel(Path) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.PrefetchExecutor
-
- cancel(boolean) - 类 中的方法org.apache.hadoop.hbase.master.cleaner.LogCleaner
-
- cancel(String) - 类 中的方法org.apache.hadoop.hbase.master.snapshot.CloneSnapshotHandler
-
- cancel(String) - 类 中的方法org.apache.hadoop.hbase.master.snapshot.RestoreSnapshotHandler
-
- cancel(String) - 类 中的方法org.apache.hadoop.hbase.master.snapshot.TakeSnapshotHandler
-
- cancel(String) - 接口 中的方法org.apache.hadoop.hbase.master.SnapshotSentinel
-
Actively cancel a running snapshot.
- cancel(String, Throwable) - 类 中的方法org.apache.hadoop.hbase.procedure.Subprocedure
-
Method to cancel the Subprocedure by injecting an exception from and external source.
- cancel() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionProgress
-
Cancels the compaction progress, setting things to 0.
- CancelableProgressable - org.apache.hadoop.hbase.util中的接口
-
Similar interface as Progressable but returns
a boolean to support canceling the operation.
- cancelLease(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.Leases
-
Client explicitly cancels a lease.
- cancelRequestedCompaction(CompactionContext) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- cancelRequestedCompaction(CompactionContext) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- canCreateBaseZNode() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- canCreateBaseZNode() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- canExecute() - 类 中的方法org.apache.hadoop.hbase.quotas.RateLimiter
-
Is there at least one resource available to allow execution?
- canExecute(long) - 类 中的方法org.apache.hadoop.hbase.quotas.RateLimiter
-
Are there enough available resources to allow execution?
- canReplicateToSameCluster() - 类 中的方法org.apache.hadoop.hbase.replication.BaseReplicationEndpoint
-
- canReplicateToSameCluster() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.RegionReplicaReplicationEndpoint
-
- canReplicateToSameCluster() - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint
-
Whether or not, the replication endpoint can replicate to it's source cluster with the same
UUID
- canReplicateToSameCluster() - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityReplicationEndpoint
-
- canSplit() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- canSplit() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- canUpdateTableDescriptor() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- canUpdateTableDescriptor() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- CatalogJanitor - org.apache.hadoop.hbase.master中的类
-
A janitor for the catalog tables.
- catalogJanitorEnabled - 类 中的变量org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl
-
- ceiling(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSkipListSet
-
- CELL_TTL_COLUMN_SPEC - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser
-
- CELL_VISIBILITY_COLUMN_SPEC - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser
-
- CellCounter - org.apache.hadoop.hbase.mapreduce中的类
-
A job with a a map and reduce phase to count cells in a table.
- CellCounter() - 类 的构造器org.apache.hadoop.hbase.mapreduce.CellCounter
-
- CellCreator - org.apache.hadoop.hbase.mapreduce中的类
-
Facade to create Cells for HFileOutputFormat.
- CellCreator(Configuration) - 类 的构造器org.apache.hadoop.hbase.mapreduce.CellCreator
-
- cellDecoder - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- cellEncoder - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.ProtobufLogWriter
-
- cellScanner - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer.Call
-
- CellSkipListSet - org.apache.hadoop.hbase.regionserver中的类
-
- cellsPerHeartbeatCheck - 类 中的变量org.apache.hadoop.hbase.regionserver.StoreScanner
-
- cellVisibilityExpr - 类 中的变量org.apache.hadoop.hbase.mapreduce.TsvImporterMapper
-
- CF_RENAME_PROP - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.Import
-
- ChainWALEntryFilter - org.apache.hadoop.hbase.replication中的类
-
A
WALEntryFilter which contains multiple filters and applies them
in chain order
- ChainWALEntryFilter(WALEntryFilter...) - 类 的构造器org.apache.hadoop.hbase.replication.ChainWALEntryFilter
-
- ChainWALEntryFilter(List<WALEntryFilter>) - 类 的构造器org.apache.hadoop.hbase.replication.ChainWALEntryFilter
-
- ChangedReadersObserver - org.apache.hadoop.hbase.regionserver中的接口
-
If set of MapFile.Readers in Store change, implementors are notified.
- channel - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer.Connection
-
- channelRead(ReadableByteChannel, ByteBuffer) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer
-
- channelWrite(GatheringByteChannel, BufferChain) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer
-
- check(Put) - 接口 中的方法org.apache.hadoop.hbase.constraint.Constraint
-
Check a
Put to ensure it is valid for the table.
- checkAccess(UserGroupInformation, FileStatus, FsAction) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Throw an exception if an action is not permitted by a user on a file.
- checkAndDelete(byte[], byte[], byte[], byte[], Delete) - 类 中的方法org.apache.hadoop.hbase.client.HTableWrapper
-
- checkAndDelete(byte[], byte[], byte[], CompareFilter.CompareOp, byte[], Delete) - 类 中的方法org.apache.hadoop.hbase.client.HTableWrapper
-
- checkAndMutate(byte[], byte[], byte[], CompareFilter.CompareOp, byte[], RowMutations) - 类 中的方法org.apache.hadoop.hbase.client.HTableWrapper
-
- checkAndMutate(byte[], byte[], byte[], CompareFilter.CompareOp, ByteArrayComparable, Mutation, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- checkAndMutate(byte[], byte[], byte[], CompareFilter.CompareOp, ByteArrayComparable, Mutation, boolean) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Atomically checks if a row/family/qualifier value matches the expected val
If it does, it performs the row mutations.
- checkAndPut(byte[], byte[], byte[], byte[], Put) - 类 中的方法org.apache.hadoop.hbase.client.HTableWrapper
-
- checkAndPut(byte[], byte[], byte[], CompareFilter.CompareOp, byte[], Put) - 类 中的方法org.apache.hadoop.hbase.client.HTableWrapper
-
- checkAndRemoveTableState(TableName, ZooKeeperProtos.Table.State, boolean) - 接口 中的方法org.apache.hadoop.hbase.TableStateManager
-
If the table is found in the given state the in-memory state is removed.
- checkAndRemoveTableState(TableName, ZooKeeperProtos.Table.State, boolean) - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKTableStateManager
-
If the table is found in the given state the in-memory state is removed.
- checkAndRowMutate(byte[], byte[], byte[], CompareFilter.CompareOp, ByteArrayComparable, RowMutations, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- checkAndRowMutate(byte[], byte[], byte[], CompareFilter.CompareOp, ByteArrayComparable, RowMutations, boolean) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Atomically checks if a row/family/qualifier value matches the expected val
If it does, it performs the row mutations.
- checkAndUpdateNamespaceRegionQuota(TableName, int) - 类 中的方法org.apache.hadoop.hbase.quotas.MasterQuotaManager
-
- checkBlockBoundary() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileWriterV2
-
At a block boundary, write all the inline blocks and opens new block.
- checkClosingState(HRegionInfo, CloseRegionCoordination.CloseRegionDetails) - 接口 中的方法org.apache.hadoop.hbase.coordination.CloseRegionCoordination
-
Called before actual region closing to check that we can do close operation
on this region.
- checkClosingState(HRegionInfo, CloseRegionCoordination.CloseRegionDetails) - 类 中的方法org.apache.hadoop.hbase.coordination.ZkCloseRegionCoordination
-
In ZK-based version we're checking for bad znode state, e.g. if we're
trying to delete the znode, and it's not ours (version doesn't match).
- checkClusterIdExists(FileSystem, Path, int) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Checks that a cluster ID file exists in the HBase root directory
- checkColFamDir(Path) - 类 中的方法org.apache.hadoop.hbase.util.hbck.HFileCorruptionChecker
-
Check all files in a column family dir.
- checkColumn(byte[], int, int, byte) - 接口 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ColumnTracker
-
Checks if the column is present in the list of requested columns by returning the match code
instance.
- checkColumn(byte[], int, int, byte) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ExplicitColumnTracker
-
Checks if the column is present in the list of requested columns by returning the match code
instance.
- checkColumn(byte[], int, int, byte) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanWildcardColumnTracker
-
Checks if the column is present in the list of requested columns by returning the match code
instance.
- checkDeleted(DeleteTracker, Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
- checkDfsSafeMode(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Check whether dfs is in safemode.
- checkDifferencesWithOldPlan(Map<TableName, Integer>, Map<String, Map<String, Float>>, FavoredNodesPlan) - 类 中的方法org.apache.hadoop.hbase.master.RegionPlacementMaintainer
-
Compares two plans and check whether the locality dropped or increased
(prints the information as a string) also prints the baseline locality
- checkFamilies(Collection<byte[]>) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- checkFamilies(Collection<byte[]>) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Check the collection of families for validity.
- checkFileSystem() - 类 中的方法org.apache.hadoop.hbase.master.MasterFileSystem
-
Checks to see if the file system is still accessible.
- checkFileSystem() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
Checks to see if the file system is still accessible.
- checkFileSystemAvailable(FileSystem) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Checks to see if the specified file system is available
- checkFlushed() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreScanner
-
- checkFormatVersion(int) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.HFile
-
Checks the given
HFile format version, and throws an exception if
invalid.
- checkHFile(Path) - 类 中的方法org.apache.hadoop.hbase.util.hbck.HFileCorruptionChecker
-
Checks a path to see if it is a valid hfile.
- checkIfShouldMoveSystemRegionAsync() - 类 中的方法org.apache.hadoop.hbase.master.AssignmentManager
-
Start a new thread to check if there are region servers whose versions are higher than others.
- checkIfShouldMoveSystemRegionAsync() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- checkIfShouldMoveSystemRegionAsync() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- checkKey(Cell) - 类 中的方法org.apache.hadoop.hbase.io.hfile.AbstractHFileWriter
-
Checks that the given Cell's key does not violate the key order.
- checkKeyLen(int) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2.ScannerV2
-
- checkKeyValueLen() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2.ScannerV2
-
Check key and value lengths are wholesome.
- checkLen(int) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2.ScannerV2
-
- checkLogRoll() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
Schedule a log roll if needed.
- checkMinFilesCriteria(ArrayList<StoreFile>, int) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.SortedCompactionPolicy
-
- checkNamespaceTableAndRegionQuota(TableName, int) - 类 中的方法org.apache.hadoop.hbase.quotas.MasterQuotaManager
-
- checkOnlyMemStore() - 类 中的方法org.apache.hadoop.hbase.regionserver.InternalScan
-
StoreFiles will not be scanned.
- checkOnlyStoreFiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.InternalScan
-
MemStore will not be scanned.
- checkOOME(Throwable) - 接口 中的方法org.apache.hadoop.hbase.ipc.HBaseRPCErrorHandler
-
Take actions on the event of an OutOfMemoryError.
- checkOOME(Throwable) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
- checkOpen() - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
Called to verify that this server is up and running.
- checkOutputSpecs(FileSystem, JobConf) - 类 中的方法org.apache.hadoop.hbase.mapred.TableOutputFormat
-
- checkOutputSpecs(JobContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MultiTableOutputFormat
-
- checkOutputSpecs(JobContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableOutputFormat
-
Checks if the output table exists and is enabled.
- checkPermissions(RpcController, AccessControlProtos.CheckPermissionsRequest, RpcCallback<AccessControlProtos.CheckPermissionsResponse>) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- checkQuota(int, int, int) - 类 中的方法org.apache.hadoop.hbase.quotas.DefaultOperationQuota
-
- checkQuota(int, int, int) - 接口 中的方法org.apache.hadoop.hbase.quotas.OperationQuota
-
Checks if it is possible to execute the specified operation.
- checkQuota(long, long, long, long) - 接口 中的方法org.apache.hadoop.hbase.quotas.QuotaLimiter
-
Checks if it is possible to execute the specified operation.
- checkQuota(Region, OperationQuota.OperationType) - 类 中的方法org.apache.hadoop.hbase.quotas.RegionServerQuotaManager
-
Check the quota for the current (rpc-context) user.
- checkQuota(Region, List<ClientProtos.Action>) - 类 中的方法org.apache.hadoop.hbase.quotas.RegionServerQuotaManager
-
Check the quota for the current (rpc-context) user.
- checkQuota(long, long, long, long) - 类 中的方法org.apache.hadoop.hbase.quotas.TimeBasedLimiter
-
- checkQuotaToCreateTable(TableName, int) - 类 中的方法org.apache.hadoop.hbase.namespace.NamespaceAuditor
-
Check quota to create table.
- checkQuotaToSplitRegion(HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.namespace.NamespaceAuditor
-
- checkQuotaToUpdateRegion(TableName, int) - 类 中的方法org.apache.hadoop.hbase.namespace.NamespaceAuditor
-
Check and update region count quota for an existing table.
- checkReadOnly() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- checkReadsEnabled() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- checkRegionBoundaries() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- checkRegionChain(TableIntegrityErrorHandler) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck.TableInfo
-
Check the region chain (from META) of this table.
- checkRegionDir(Path) - 类 中的方法org.apache.hadoop.hbase.util.hbck.HFileCorruptionChecker
-
Check all column families in a region dir.
- checkRegions(String[]) - 接口 中的方法org.apache.hadoop.hbase.tool.Canary
-
Run Canary in Region mode.
- checkRegions(String[]) - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool
-
- checkRegionServers(String[]) - 接口 中的方法org.apache.hadoop.hbase.tool.Canary
-
Runs Canary in Region server mode.
- checkRegionServers(String[]) - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool
-
- checkReseek(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreScanner
-
- checkScanOrder(Cell, Cell, KeyValue.KVComparator) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreScanner
-
Check whether scan as expected order
- checkShortCircuitReadBufferSize(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Check if short circuit read buffer size is set and if not, set it to hbase value.
- checkSnapshotSupport() - 类 中的方法org.apache.hadoop.hbase.master.snapshot.SnapshotManager
-
Throws an exception if snapshot operations (take a snapshot, restore, clone) are not supported.
- checkSplit() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Return the splitpoint. null indicates the region isn't splittable
If the splitpoint isn't explicitly specified, it will go over the stores
to find the best splitpoint.
- checksumOk() - 类 中的方法org.apache.hadoop.hbase.io.FSDataInputStreamWrapper
-
Report that checksum was ok, so we may ponder going back to HBase checksum.
- ChecksumUtil - org.apache.hadoop.hbase.io.hfile中的类
-
Utility methods to compute and validate checksums.
- ChecksumUtil() - 类 的构造器org.apache.hadoop.hbase.io.hfile.ChecksumUtil
-
- checkTableLocks() - 类 中的方法org.apache.hadoop.hbase.util.hbck.TableLockChecker
-
- checkTableModifiable(TableName) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- checkTableModifiable(TableName) - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
Check table is modifiable; i.e. exists and is offline.
- checkTableModifiable(MasterProcedureEnv, TableName) - 类 中的静态方法org.apache.hadoop.hbase.master.procedure.MasterDDLOperationHelper
-
Check whether a table is modifiable - exists and either offline or online with config set
- checkTables(Collection<Path>) - 类 中的方法org.apache.hadoop.hbase.util.hbck.HFileCorruptionChecker
-
Check the specified table dirs for bad hfiles.
- checkTasks() - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogManagerCoordination
-
tells Coordination that it should check for new tasks
- checkTasks() - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination
-
- checkTaskStillAvailable(String) - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogManagerCoordination
-
Check that the task is still there
- checkTaskStillAvailable(String) - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination
-
- checkTimestamps(Map<byte[], List<Cell>>, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- checkTimestamps(Map<byte[], List<Cell>>, long) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Check the collection of families for valid timestamps
- checkUnDeletedQueues() - 类 中的方法org.apache.hadoop.hbase.util.hbck.ReplicationChecker
-
- checkValue(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.io.hfile.AbstractHFileWriter
-
Checks the given value for validity.
- checkVersion(FileSystem, Path, boolean) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Verifies current version of file system
- checkVersion(FileSystem, Path, boolean, int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Verifies current version of file system
- checkVersions(byte[], int, int, long, byte, boolean) - 接口 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ColumnTracker
-
Keeps track of the number of versions for the columns asked for.
- checkVersions(byte[], int, int, long, byte, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ExplicitColumnTracker
-
- checkVersions(byte[], int, int, long, byte, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanWildcardColumnTracker
-
Keeps track of the number of versions for the columns asked for.
- checkZooKeeper() - 接口 中的方法org.apache.hadoop.hbase.tool.Canary
-
Runs Canary in Zookeeper mode.
- checkZooKeeper() - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool
-
- childZNode - 类 中的变量org.apache.hadoop.hbase.zookeeper.lock.ZKInterProcessLockBase
-
- chooseSinks() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSinkManager
-
Refresh the list of sinks.
- chore() - 类 中的方法org.apache.hadoop.hbase.HealthCheckChore
-
- chore() - 类 中的方法org.apache.hadoop.hbase.master.balancer.BalancerChore
-
- chore() - 类 中的方法org.apache.hadoop.hbase.master.balancer.ClusterStatusChore
-
- chore() - 类 中的方法org.apache.hadoop.hbase.master.CatalogJanitor
-
- chore() - 类 中的方法org.apache.hadoop.hbase.master.cleaner.CleanerChore
-
- chore() - 类 中的方法org.apache.hadoop.hbase.master.cleaner.ReplicationZKLockCleanerChore
-
- chore() - 类 中的方法org.apache.hadoop.hbase.master.cleaner.ReplicationZKNodeCleanerChore
-
- chore() - 类 中的方法org.apache.hadoop.hbase.master.ClusterStatusPublisher
-
- chore() - 类 中的方法org.apache.hadoop.hbase.master.normalizer.RegionNormalizerChore
-
- chore() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactedHFilesDischarger
-
- chore() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer.MovedRegionsCleaner
-
- chore() - 类 中的方法org.apache.hadoop.hbase.regionserver.StorefileRefresherChore
-
- CHORE_POOL_SIZE - 类 中的静态变量org.apache.hadoop.hbase.master.cleaner.CleanerChore
-
If it is an integer and >= 1, it would be the size;
if 0.0 < size <= 1.0, size would be available processors * size.
- clean(HRegionInfo) - 接口 中的方法org.apache.hadoop.hbase.coordination.RegionMergeCoordination
-
This method is used during rollback
- clean(HRegionInfo) - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitTransactionCoordination
-
clean the split transaction
- clean(HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.coordination.ZkRegionMergeCoordination
-
- clean(HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitTransactionCoordination
-
- cleanAllPreviousInstances(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.DeadServer
-
- CleanerChore<T extends FileCleanerDelegate> - org.apache.hadoop.hbase.master.cleaner中的类
-
Abstract Cleaner that uses a chain of delegates to clean a directory of files
- CleanerChore(String, int, Stoppable, Configuration, FileSystem, Path, String, DirScanPool) - 类 的构造器org.apache.hadoop.hbase.master.cleaner.CleanerChore
-
- CleanerChore(String, int, Stoppable, Configuration, FileSystem, Path, String, DirScanPool, Map<String, Object>) - 类 的构造器org.apache.hadoop.hbase.master.cleaner.CleanerChore
-
- cleanersChain - 类 中的变量org.apache.hadoop.hbase.master.cleaner.CleanerChore
-
- cleanMergeQualifier(HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.master.CatalogJanitor
-
Checks if the specified region has merge qualifiers, if so, try to clean
them
- cleanMovedRegions() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
Remove the expired entries from the moved regions list.
- cleanOldLogs(String, String, boolean) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSourceManager
-
Cleans a log file and all older files from ZK.
- cleanOutCrashedServerReferences(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.AssignmentManager
-
Clean out crashed server removing any assignments.
- cleanPreviousInstance(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.DeadServer
-
A dead server that comes back alive has a different start code.
- cleanup(Mapper<ImmutableBytesWritable, Result, ImmutableBytesWritable, ImmutableBytesWritable>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.HashTable.HashMapper
-
- cleanup(Mapper<ImmutableBytesWritable, Result, ImmutableBytesWritable, Put>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.replication.VerifyReplication.Verifier
-
- cleanup(Mapper<ImmutableBytesWritable, Result, ImmutableBytesWritable, Mutation>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.SyncTable.SyncMapper
-
- cleanup() - 类 中的方法org.apache.hadoop.hbase.master.cleaner.CleanerChore
-
- cleanup() - 类 中的方法org.apache.hadoop.hbase.master.cleaner.HFileCleaner
-
- cleanup() - 类 中的方法org.apache.hadoop.hbase.master.cleaner.LogCleaner
-
- cleanup() - 类 中的方法org.apache.hadoop.hbase.master.ClusterStatusPublisher
-
- cleanup() - 接口 中的方法org.apache.hadoop.hbase.monitoring.MonitoredTask
-
Explicitly mark this status as able to be cleaned up,
even though it might not be complete.
- cleanup(Exception) - 类 中的方法org.apache.hadoop.hbase.procedure.flush.FlushTableSubprocedure
-
Cancel threads if they haven't finished.
- cleanup(Exception) - 类 中的方法org.apache.hadoop.hbase.procedure.Subprocedure
-
Users should override this method.
- cleanup(Exception) - 类 中的方法org.apache.hadoop.hbase.procedure.Subprocedure.SubprocedureImpl
-
- cleanup(Exception) - 类 中的方法org.apache.hadoop.hbase.regionserver.snapshot.FlushSnapshotSubprocedure
-
Cancel threads if they haven't finished.
- cleanupBulkLoad(RpcController, SecureBulkLoadProtos.CleanupBulkLoadRequest, RpcCallback<SecureBulkLoadProtos.CleanupBulkLoadResponse>) - 类 中的方法org.apache.hadoop.hbase.security.access.SecureBulkLoadEndpoint
-
- cleanUpHFileRefs(String, List<String>) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSourceManager
-
- cleanupJob(JobContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableOutputCommitter
-
- clear() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFile.FileInfo
-
- clear() - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- clear() - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureScheduler
-
- clear() - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSkipListSet
-
- clear() - 类 中的方法org.apache.hadoop.hbase.regionserver.LruHashMap
-
Clears all entries from the map.
- clear() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.MetricsSource
-
Removes all metrics about this Source.
- clear() - 接口 中的方法org.apache.hadoop.hbase.util.HBaseFsck.ErrorReporter
-
- clear() - 类 中的方法org.apache.hadoop.hbase.util.SortedCopyOnWriteSet
-
- clear() - 类 中的方法org.apache.hadoop.hbase.util.SortedList
-
- clear(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.ZNodeClearer
-
Delete the master znode if its content (ServerName string) is the same
as the one in the znode file.
- clearArchive() - 类 中的方法org.apache.hadoop.hbase.backup.example.HFileArchiveTableMonitor
-
- clearAuths(byte[], List<byte[]>) - 类 中的方法org.apache.hadoop.hbase.security.visibility.DefaultVisibilityLabelServiceImpl
-
- clearAuths(RpcController, VisibilityLabelsProtos.SetAuthsRequest, RpcCallback<VisibilityLabelsProtos.VisibilityLabelsResponse>) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityController
-
- clearAuths(byte[], List<byte[]>) - 接口 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityLabelService
-
Removes given labels from user's globally authorized list of labels.
- clearCache() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
Clears the cache.
- clearChildZNodes() - 类 中的方法org.apache.hadoop.hbase.procedure.ZKProcedureUtil
-
- clearCompactedFiles() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFileManager
-
Clears all the compacted files and returns them.
- clearCompactedFiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- clearCurrentRow() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
- clearDeadServers(RpcController, MasterProtos.ClearDeadServersRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- clearFiles() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFileManager
-
Clears all the files currently in use and returns them.
- clearFiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- clearLastAssignment(HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.master.RegionStates
-
- clearRegionReplayEditsSize(byte[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerAccounting
-
Clear a region from replayEditsPerRegion.
- clearSnapshot(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.DefaultMemStore
-
The passed snapshot was successfully persisted; it can be let go.
- clearSnapshot(long) - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStore
-
Clears the current snapshot of the Memstore.
- clearZNodes(String) - 类 中的方法org.apache.hadoop.hbase.procedure.ZKProcedureUtil
-
- ClickjackingPreventionFilter - org.apache.hadoop.hbase.http中的类
-
- ClickjackingPreventionFilter() - 类 的构造器org.apache.hadoop.hbase.http.ClickjackingPreventionFilter
-
- ClientSideRegionScanner - org.apache.hadoop.hbase.client中的类
-
A client scanner for a region opened for read-only on the client side.
- ClientSideRegionScanner(Configuration, FileSystem, Path, HTableDescriptor, HRegionInfo, Scan, ScanMetrics) - 类 的构造器org.apache.hadoop.hbase.client.ClientSideRegionScanner
-
- clone() - 类 中的方法org.apache.hadoop.hbase.monitoring.MonitoredRPCHandlerImpl
-
- clone() - 接口 中的方法org.apache.hadoop.hbase.monitoring.MonitoredTask
-
Public exposure of Object.clone() in order to allow clients to easily
capture current state.
- cloneForReader() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
Clone a StoreFile for opening private reader.
- cloneRegionInfo(HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.snapshot.RestoreSnapshotHelper
-
Create a new
HRegionInfo from the snapshot region info.
- cloneRegionInfo(TableName, HRegionInfo) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.RestoreSnapshotHelper
-
- CloneSnapshotHandler - org.apache.hadoop.hbase.master.snapshot中的类
-
Handler to Clone a snapshot.
- CloneSnapshotHandler(MasterServices, HBaseProtos.SnapshotDescription, HTableDescriptor, boolean) - 类 的构造器org.apache.hadoop.hbase.master.snapshot.CloneSnapshotHandler
-
- close() - 类 中的方法org.apache.hadoop.hbase.client.ClientSideRegionScanner
-
- close() - 类 中的方法org.apache.hadoop.hbase.client.HTableWrapper
-
- close() - 类 中的方法org.apache.hadoop.hbase.client.TableSnapshotScanner
-
- close() - 类 中的方法org.apache.hadoop.hbase.fs.HFileSystem
-
Close this filesystem object
- close() - 类 中的方法org.apache.hadoop.hbase.http.HttpRequestLogAppender
-
- close() - 类 中的方法org.apache.hadoop.hbase.io.FSDataInputStreamWrapper
-
Close stream(s) if necessary.
- close() - 类 中的方法org.apache.hadoop.hbase.io.hfile.AbstractHFileReader.Scanner
-
- close(boolean) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
Close method with optional evictOnClose
- close() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2
-
- close(boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2
-
- close() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFileScanner
-
Close the stream socket to handle RS CLOSE_WAIT.
- close() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileWriterV2
-
- close() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer.Connection
-
- close(Reporter) - 类 中的方法org.apache.hadoop.hbase.mapred.TableOutputFormat.TableRecordWriter
-
- close() - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReader
-
- close() - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReaderImpl
-
- close() - 类 中的方法org.apache.hadoop.hbase.mapreduce.HashTable.TableHash.Reader
-
- close() - 类 中的方法org.apache.hadoop.hbase.mapreduce.KeyValueSerialization.KeyValueDeserializer
-
- close() - 类 中的方法org.apache.hadoop.hbase.mapreduce.KeyValueSerialization.KeyValueSerializer
-
- close(TaskAttemptContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MultiTableOutputFormat.MultiTableRecordWriter
-
- close(TaskAttemptContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableOutputFormat.TableRecordWriter
-
Closes the writer, in this case flush table commits.
- close() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableRecordReader
-
Closes the split.
- close() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableRecordReaderImpl
-
Closes the split.
- close() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl.RecordReader
-
- close() - 类 中的方法org.apache.hadoop.hbase.master.ClusterStatusPublisher.MulticastPublisher
-
- close() - 接口 中的方法org.apache.hadoop.hbase.master.ClusterStatusPublisher.Publisher
-
- close() - 类 中的方法org.apache.hadoop.hbase.procedure.ProcedureCoordinator
-
Shutdown the thread pools and release rpc resources
- close() - 类 中的方法org.apache.hadoop.hbase.procedure.ProcedureMember
-
Best effort attempt to close the threadpool via Thread.interrupt.
- close() - 类 中的方法org.apache.hadoop.hbase.procedure.ZKProcedureCoordinatorRpcs
-
- close() - 类 中的方法org.apache.hadoop.hbase.procedure.ZKProcedureMemberRpcs
-
- close() - 类 中的方法org.apache.hadoop.hbase.procedure.ZKProcedureUtil
-
- close() - 类 中的方法org.apache.hadoop.hbase.quotas.DefaultOperationQuota
-
- close() - 接口 中的方法org.apache.hadoop.hbase.quotas.OperationQuota
-
Cleanup method on operation completion
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.DefaultMemStore.MemStoreScanner
-
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemStoreLAB
-
Close this instance since it won't be used any more, try to put the chunks
back to pool
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Close down this HRegion.
- close(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Close down this HRegion.
- CLOSE - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- close() - 接口 中的方法org.apache.hadoop.hbase.regionserver.InternalScanner
-
Closes the scanner and releases any resources it has allocated
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.KeyValueHeap
-
- close() - 接口 中的方法org.apache.hadoop.hbase.regionserver.KeyValueScanner
-
Close the KeyValue scanner.
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.Leases
-
Shut down this Leases instance.
- close() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStoreLAB
-
Close instance since it won't be used any more, try to put the chunks back to pool
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegion
-
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsTableWrapperAggregateImpl
-
- close() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
Close all the readers We don't need to worry about subsequent requests because the Region
holds a write lock that will prevent any more reads or writes.
- close(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile.Reader
-
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile.Writer
-
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreScanner
-
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogWriter
-
- close() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.SequenceFileLogReader
-
- close() - 类 中的方法org.apache.hadoop.hbase.replication.BaseReplicationEndpoint
-
- close() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.WALEntryStream
- close() - 类 中的方法org.apache.hadoop.hbase.security.access.TableAuthManager
-
- close() - 类 中的方法org.apache.hadoop.hbase.security.access.ZKPermissionWatcher
-
- close() - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.Monitor
-
- close() - 类 中的方法org.apache.hadoop.hbase.util.CollectionBackedScanner
-
- close() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- close() - 类 中的方法org.apache.hadoop.hbase.util.MultiHConnection
-
Close the open connections and shutdown the batchpool
- close() - 类 中的方法org.apache.hadoop.hbase.wal.DefaultWALProvider
-
- close() - 类 中的方法org.apache.hadoop.hbase.wal.RegionGroupingProvider
-
- close() - 接口 中的方法org.apache.hadoop.hbase.wal.WAL
-
Caller no longer needs any edits from this WAL.
- close() - 类 中的方法org.apache.hadoop.hbase.wal.WALFactory
-
Shutdown all WALs and clean up any underlying storage.
- close() - 接口 中的方法org.apache.hadoop.hbase.wal.WALProvider
-
shutdown utstanding WALs and clean up any persisted state.
- CLOSE_PARAN_NODE - 类 中的静态变量org.apache.hadoop.hbase.security.visibility.expression.LeafExpressionNode
-
- closeAfterLeasesExpire() - 类 中的方法org.apache.hadoop.hbase.regionserver.Leases
-
Shuts down this lease instance when all outstanding leases expire.
- closeAllRegions(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
Closes all regions.
- closeAndArchiveCompactedFiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- closeAndArchiveCompactedFiles() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
Closes and archives the compacted files under this store
- closeAndCleanCompleted - 类 中的变量org.apache.hadoop.hbase.wal.WALSplitter.OutputSink
-
- closeConnection(RpcServer.Connection) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer
-
- ClosedRegionHandler - org.apache.hadoop.hbase.master.handler中的类
-
Handles CLOSED region event on Master.
- ClosedRegionHandler(Server, AssignmentManager, HRegionInfo) - 类 的构造器org.apache.hadoop.hbase.master.handler.ClosedRegionHandler
-
- closeHRegion(HRegion) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HRegion
-
- CloseMetaHandler - org.apache.hadoop.hbase.regionserver.handler中的类
-
Handles closing of the root region on a region server.
- CloseMetaHandler(Server, RegionServerServices, HRegionInfo, boolean, CloseRegionCoordination, CloseRegionCoordination.CloseRegionDetails) - 类 的构造器org.apache.hadoop.hbase.regionserver.handler.CloseMetaHandler
-
- closeOutputStream - 类 中的变量org.apache.hadoop.hbase.io.hfile.AbstractHFileWriter
-
True if we opened the outputStream (and so will close it).
- closeQueue(ReplicationSourceInterface) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSourceManager
-
Clear the references to the specified old source
- closeReader(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
- closeRecoveredQueue(ReplicationSourceInterface) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSourceManager
-
Clear the references to the specified old source
- closeRegion(String, boolean, CloseRegionCoordination.CloseRegionDetails, ServerName) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
Close asynchronously a region, can be called from the master or internally by the regionserver
when stopping.
- closeRegion(RpcController, AdminProtos.CloseRegionRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
Close a region on the region server.
- CloseRegionCoordination - org.apache.hadoop.hbase.coordination中的接口
-
Coordinated operations for close region handlers.
- closeRegionCoordination - 类 中的变量org.apache.hadoop.hbase.coordination.ZkCoordinatedStateManager
-
- CloseRegionCoordination.CloseRegionDetails - org.apache.hadoop.hbase.coordination中的接口
-
Marker interface for region closing tasks.
- CloseRegionHandler - org.apache.hadoop.hbase.regionserver.handler中的类
-
Handles closing of a region on a region server.
- CloseRegionHandler(Server, RegionServerServices, HRegionInfo, boolean, CloseRegionCoordination, CloseRegionCoordination.CloseRegionDetails) - 类 的构造器org.apache.hadoop.hbase.regionserver.handler.CloseRegionHandler
-
This method used internally by the RegionServer to close out regions.
- CloseRegionHandler(Server, RegionServerServices, HRegionInfo, boolean, CloseRegionCoordination, CloseRegionCoordination.CloseRegionDetails, ServerName) - 类 的构造器org.apache.hadoop.hbase.regionserver.handler.CloseRegionHandler
-
- CloseRegionHandler(Server, RegionServerServices, HRegionInfo, boolean, CloseRegionCoordination, CloseRegionCoordination.CloseRegionDetails, EventType) - 类 的构造器org.apache.hadoop.hbase.regionserver.handler.CloseRegionHandler
-
- CloseRegionHandler(Server, RegionServerServices, HRegionInfo, boolean, CloseRegionCoordination, CloseRegionCoordination.CloseRegionDetails, EventType, ServerName) - 类 的构造器org.apache.hadoop.hbase.regionserver.handler.CloseRegionHandler
-
- closeRegionOperation() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- closeRegionOperation(Region.Operation) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- closeRegionOperation() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Closes the region operation lock.
- closeRegionOperation(Region.Operation) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Closes the region operation lock.
- closeRegionSilentlyAndWait(ClusterConnection, ServerName, HRegionInfo, long) - 类 中的静态方法org.apache.hadoop.hbase.master.ServerManager
-
Contacts a region server and waits up to timeout ms
to close the region.
- closeRegionSilentlyAndWait(HConnection, ServerName, HRegionInfo) - 类 中的静态方法org.apache.hadoop.hbase.util.HBaseFsckRepair
-
Contacts a region server and waits up to hbase.hbck.close.timeout ms
(default 120s) to close the region.
- closeTable() - 类 中的方法org.apache.hadoop.hbase.mapred.TableInputFormatBase
-
- closeTable() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
- closing - 类 中的变量org.apache.hadoop.hbase.regionserver.StoreScanner
-
- clusterConnection - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
Cluster connection to be shared by services.
- clusterIds - 类 中的变量org.apache.hadoop.hbase.wal.WALKey
-
- ClusterLoadState - org.apache.hadoop.hbase.master.balancer中的类
-
Class used to hold the current state of the cluster and how balanced it is.
- ClusterLoadState(Map<ServerName, List<HRegionInfo>>) - 类 的构造器org.apache.hadoop.hbase.master.balancer.ClusterLoadState
-
- ClusterMarkingEntryFilter - org.apache.hadoop.hbase.replication中的类
-
Filters out entries with our peerClusterId (i.e. already replicated)
and marks all other entries with our clusterID
- ClusterMarkingEntryFilter(UUID, UUID, ReplicationEndpoint) - 类 的构造器org.apache.hadoop.hbase.replication.ClusterMarkingEntryFilter
-
- clusterStatus - 类 中的变量org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer
-
- ClusterStatusChore - org.apache.hadoop.hbase.master.balancer中的类
-
Chore that will feed the balancer the cluster status.
- ClusterStatusChore(HMaster, LoadBalancer) - 类 的构造器org.apache.hadoop.hbase.master.balancer.ClusterStatusChore
-
- ClusterStatusPublisher - org.apache.hadoop.hbase.master中的类
-
Class to publish the cluster status to the client.
- ClusterStatusPublisher(HMaster, Configuration, Class<? extends ClusterStatusPublisher.Publisher>) - 类 的构造器org.apache.hadoop.hbase.master.ClusterStatusPublisher
-
- ClusterStatusPublisher() - 类 的构造器org.apache.hadoop.hbase.master.ClusterStatusPublisher
-
- ClusterStatusPublisher.MulticastPublisher - org.apache.hadoop.hbase.master中的类
-
- ClusterStatusPublisher.MulticastPublisher() - 类 的构造器org.apache.hadoop.hbase.master.ClusterStatusPublisher.MulticastPublisher
-
- ClusterStatusPublisher.Publisher - org.apache.hadoop.hbase.master中的接口
-
- clusterStatusTracker - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
- ClusterStatusTracker - org.apache.hadoop.hbase.zookeeper中的类
-
Tracker on cluster settings up in zookeeper.
- ClusterStatusTracker(ZooKeeperWatcher, Abortable) - 类 的构造器org.apache.hadoop.hbase.zookeeper.ClusterStatusTracker
-
Creates a cluster status tracker.
- code - 枚举 中的变量org.apache.hadoop.hbase.wal.WALKey.Version
-
- CollectionBackedScanner - org.apache.hadoop.hbase.util中的类
-
Utility scanner that wraps a sortable collection and serves as a KeyValueScanner.
- CollectionBackedScanner(SortedSet<Cell>) - 类 的构造器org.apache.hadoop.hbase.util.CollectionBackedScanner
-
- CollectionBackedScanner(SortedSet<Cell>, KeyValue.KVComparator) - 类 的构造器org.apache.hadoop.hbase.util.CollectionBackedScanner
-
- CollectionBackedScanner(List<Cell>) - 类 的构造器org.apache.hadoop.hbase.util.CollectionBackedScanner
-
- CollectionBackedScanner(List<Cell>, KeyValue.KVComparator) - 类 的构造器org.apache.hadoop.hbase.util.CollectionBackedScanner
-
- CollectionBackedScanner(KeyValue.KVComparator, Cell...) - 类 的构造器org.apache.hadoop.hbase.util.CollectionBackedScanner
-
- COLUMN_LIST - 类 中的静态变量org.apache.hadoop.hbase.mapred.TableInputFormat
-
space delimited list of columns
- columns - 类 中的变量org.apache.hadoop.hbase.mapred.GroupingTableMap
-
- columns - 类 中的变量org.apache.hadoop.hbase.mapreduce.GroupingTableMapper
-
The grouping columns.
- columns - 类 中的变量org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
Keeps track of columns and versions
- columns - 类 中的变量org.apache.hadoop.hbase.regionserver.StoreScanner
-
- COLUMNS_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.ImportTsv
-
- ColumnTracker - org.apache.hadoop.hbase.regionserver.querymatcher中的接口
-
Implementing classes of this interface will be used for the tracking
and enforcement of columns and numbers of versions and timeToLive during
the course of a Get or Scan operation.
- CombinedBlockCache - org.apache.hadoop.hbase.io.hfile中的类
-
- CombinedBlockCache(LruBlockCache, BlockCache) - 类 的构造器org.apache.hadoop.hbase.io.hfile.CombinedBlockCache
-
- CombinedBlockCache.CombinedCacheStats - org.apache.hadoop.hbase.io.hfile中的类
-
- combinedCacheStats - 类 中的变量org.apache.hadoop.hbase.io.hfile.CombinedBlockCache
-
- combineWith(CompactionRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionRequest
-
Combines the request with other request.
- comConf - 类 中的变量org.apache.hadoop.hbase.regionserver.compactions.CompactionPolicy
-
- commitOpenOnMasterSide(AssignmentManager, HRegionInfo, OpenRegionCoordination.OpenRegionDetails) - 接口 中的方法org.apache.hadoop.hbase.coordination.OpenRegionCoordination
-
Commits opening operation on HM side (steps required for "commit"
are determined by coordination implementation).
- commitOpenOnMasterSide(AssignmentManager, HRegionInfo, OpenRegionCoordination.OpenRegionDetails) - 类 中的方法org.apache.hadoop.hbase.coordination.ZkOpenRegionCoordination
-
- commitStoreFile(String, Path) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
Move the file from a build/temp location to the main family store directory.
- commitTask(TaskAttemptContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableOutputCommitter
-
- commitWriter(T, Compactor.FileDetails, CompactionRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.Compactor
-
- commitWriter(DateTieredMultiFileWriter, Compactor.FileDetails, CompactionRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.DateTieredCompactor
-
- commitWriter(StoreFile.Writer, Compactor.FileDetails, CompactionRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.DefaultCompactor
-
- commitWriter(StripeMultiFileWriter, Compactor.FileDetails, CompactionRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.StripeCompactor
-
- commitWriters(long, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.AbstractMultiFileWriter
-
Commit all writers.
- commitWriters(long, boolean, Collection<StoreFile>) - 类 中的方法org.apache.hadoop.hbase.regionserver.AbstractMultiFileWriter
-
- compact(ThroughputController, User) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionContext
-
- compact(CompactionRequest, Compactor.InternalScannerFactory, Compactor.CellSinkFactory<T>, ThroughputController, User) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.Compactor
-
- compact(CompactionRequest, List<Long>, ThroughputController, User) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.DateTieredCompactor
-
- compact(CompactionRequest, ThroughputController, User) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.DefaultCompactor
-
Do a minor/major compaction on an explicit set of storefiles from a Store.
- compact(CompactionRequest, List<byte[]>, byte[], byte[], ThroughputController, User) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.StripeCompactor
-
- compact(CompactionRequest, int, long, byte[], byte[], byte[], byte[], ThroughputController, User) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.StripeCompactor
-
- compact(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- compact(CompactionContext, Store, ThroughputController) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- compact(CompactionContext, Store, ThroughputController, User) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- compact(CompactionContext, ThroughputController) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
Compact the StoreFiles.
- compact(CompactionContext, ThroughputController, User) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- compact(boolean) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Synchronously compact all stores in the region.
- compact(CompactionContext, ThroughputController) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
已过时。
see compact(CompactionContext, ThroughputController, User)
- compact(CompactionContext, ThroughputController, User) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- compactBloom() - 接口 中的方法org.apache.hadoop.hbase.util.BloomFilterWriter
-
Compact the Bloom filter before writing metadata & data to disk.
- compactBloom() - 类 中的方法org.apache.hadoop.hbase.util.ByteBloomFilter
-
- compactBloom() - 类 中的方法org.apache.hadoop.hbase.util.CompoundBloomFilterWriter
-
- COMPACTCHECKER_INTERVAL_MULTIPLIER_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HStore
-
- CompactedHFilesDischargeHandler - org.apache.hadoop.hbase.regionserver中的类
-
Event handler that handles the removal and archival of the compacted hfiles
- CompactedHFilesDischargeHandler(Server, EventType, HStore) - 类 的构造器org.apache.hadoop.hbase.regionserver.CompactedHFilesDischargeHandler
-
- CompactedHFilesDischarger - org.apache.hadoop.hbase.regionserver中的类
-
A chore service that periodically cleans up the compacted files when there are no active readers
using those compacted files and also helps in clearing the block cache with these compacted
file entries
- CompactedHFilesDischarger(int, Stoppable, RegionServerServices) - 类 的构造器org.apache.hadoop.hbase.regionserver.CompactedHFilesDischarger
-
- CompactedHFilesDischarger(int, Stoppable, RegionServerServices, boolean) - 类 的构造器org.apache.hadoop.hbase.regionserver.CompactedHFilesDischarger
-
- compactForTesting(Collection<StoreFile>, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.DefaultCompactor
-
Compact a list of files for testing.
- COMPACTION - 类 中的静态变量org.apache.hadoop.hbase.regionserver.wal.WALEdit
-
- COMPACTION_EVENT_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.StoreFile
-
Key for compaction event which contains the compacted storefiles in FileInfo
- COMPACTION_POLICY_CLASS_FOR_DATE_TIERED_WINDOWS_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.compactions.CompactionConfiguration
-
- compactionCompression - 类 中的变量org.apache.hadoop.hbase.regionserver.compactions.Compactor
-
- CompactionConfiguration - org.apache.hadoop.hbase.regionserver.compactions中的类
-
Compaction configuration for a particular instance of HStore.
- CompactionContext - org.apache.hadoop.hbase.regionserver.compactions中的类
-
This class holds all "physical" details necessary to run a compaction,
and abstracts away the details specific to a particular compaction.
- CompactionContext() - 类 的构造器org.apache.hadoop.hbase.regionserver.compactions.CompactionContext
-
- compactionKVMax - 类 中的变量org.apache.hadoop.hbase.regionserver.compactions.Compactor
-
- CompactionPolicy - org.apache.hadoop.hbase.regionserver.compactions中的类
-
A compaction policy determines how to select files for compaction,
how to compact them, and how to generate the compacted files.
- CompactionPolicy(Configuration, StoreConfigInformation) - 类 的构造器org.apache.hadoop.hbase.regionserver.compactions.CompactionPolicy
-
- compactionPolicy - 类 中的变量org.apache.hadoop.hbase.regionserver.StoreEngine
-
- CompactionProgress - org.apache.hadoop.hbase.regionserver.compactions中的类
-
This class holds information relevant for tracking the progress of a
compaction.
- CompactionProgress(long) - 类 的构造器org.apache.hadoop.hbase.regionserver.compactions.CompactionProgress
-
Constructor
- CompactionRequest - org.apache.hadoop.hbase.regionserver.compactions中的类
-
This class holds all logical details necessary to run a compaction.
- CompactionRequest() - 类 的构造器org.apache.hadoop.hbase.regionserver.compactions.CompactionRequest
-
This ctor should be used by coprocessors that want to subclass CompactionRequest.
- CompactionRequest(Collection<StoreFile>) - 类 的构造器org.apache.hadoop.hbase.regionserver.compactions.CompactionRequest
-
- CompactionRequestor - org.apache.hadoop.hbase.regionserver中的接口
-
- CompactionScanQueryMatcher - org.apache.hadoop.hbase.regionserver.querymatcher中的类
-
Query matcher for compaction.
- CompactionScanQueryMatcher(ScanInfo, DeleteTracker, long, long, long) - 类 的构造器org.apache.hadoop.hbase.regionserver.querymatcher.CompactionScanQueryMatcher
-
- CompactionThroughputControllerFactory - org.apache.hadoop.hbase.regionserver.throttle中的类
-
- CompactionTool - org.apache.hadoop.hbase.regionserver中的类
-
- CompactionTool() - 类 的构造器org.apache.hadoop.hbase.regionserver.CompactionTool
-
- CompactionWindow - org.apache.hadoop.hbase.regionserver.compactions中的类
-
Base class for compaction window implementation.
- CompactionWindow() - 类 的构造器org.apache.hadoop.hbase.regionserver.compactions.CompactionWindow
-
- CompactionWindowFactory - org.apache.hadoop.hbase.regionserver.compactions中的类
-
For creating compaction window.
- CompactionWindowFactory() - 类 的构造器org.apache.hadoop.hbase.regionserver.compactions.CompactionWindowFactory
-
- Compactor<T extends Compactor.CellSink> - org.apache.hadoop.hbase.regionserver.compactions中的类
-
A compactor is a compaction algorithm associated a given policy.
- compactor - 类 中的变量org.apache.hadoop.hbase.regionserver.StoreEngine
-
- Compactor.CellSink - org.apache.hadoop.hbase.regionserver.compactions中的接口
-
- Compactor.CellSinkFactory<S> - org.apache.hadoop.hbase.regionserver.compactions中的接口
-
- Compactor.FileDetails - org.apache.hadoop.hbase.regionserver.compactions中的类
-
The sole reason this class exists is that java has no ref/out/pointer parameters.
- Compactor.FileDetails() - 类 的构造器org.apache.hadoop.hbase.regionserver.compactions.Compactor.FileDetails
-
- Compactor.InternalScannerFactory - org.apache.hadoop.hbase.regionserver.compactions中的接口
-
- compactRecentForTestingAssumingDefaultPolicy(int) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
This method tries to compact N recent files for testing.
- compactRegion(RpcController, AdminProtos.CompactRegionRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
Compact a region on the region server.
- CompactSplitThread - org.apache.hadoop.hbase.regionserver中的类
-
Compact region on request and then run split if appropriate
- compactSplitThread - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
- compactStores() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
This is a helper function that compact all the stores synchronously
It is used by utilities and testing
- comparator - 类 中的变量org.apache.hadoop.hbase.io.hfile.AbstractHFileReader
-
Key comparator
- comparator - 类 中的变量org.apache.hadoop.hbase.io.hfile.AbstractHFileWriter
-
Key comparator.
- comparator() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFile.FileInfo
-
- comparator - 类 中的变量org.apache.hadoop.hbase.io.hfile.HFile.WriterFactory
-
- comparator() - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSkipListSet
-
- comparator - 类 中的变量org.apache.hadoop.hbase.regionserver.KeyValueHeap
-
- comparator - 类 中的变量org.apache.hadoop.hbase.regionserver.StripeMultiFileWriter
-
- comparator - 类 中的变量org.apache.hadoop.hbase.regionserver.StripeStoreFlusher.StripeFlushRequest
-
- comparator() - 类 中的方法org.apache.hadoop.hbase.util.BoundedPriorityBlockingQueue
-
- comparator - 类 中的变量org.apache.hadoop.hbase.util.CompoundBloomFilterBase
-
Comparator used to compare Bloom filter keys
- comparator() - 类 中的方法org.apache.hadoop.hbase.util.SortedCopyOnWriteSet
-
- COMPARATOR - 类 中的静态变量org.apache.hadoop.hbase.zookeeper.lock.ZKInterProcessLockBase.ZNodeComparator
-
- compare(HDFSBlocksDistribution.HostAndWeight, HDFSBlocksDistribution.HostAndWeight) - 类 中的方法org.apache.hadoop.hbase.HDFSBlocksDistribution.HostAndWeight.WeightComparator
-
- compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.mapreduce.Import.KeyValueWritableComparable.KeyValueWritableComparator
-
- compare(RegionPlan, RegionPlan) - 类 中的方法org.apache.hadoop.hbase.master.RegionPlan.RegionPlanComparator
-
- compare(KeyValueScanner, KeyValueScanner) - 类 中的方法org.apache.hadoop.hbase.regionserver.KeyValueHeap.KVScannerComparator
-
- compare(Cell, Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.KeyValueHeap.KVScannerComparator
-
Compares two KeyValue
- compare(Path, Path) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSource.LogsComparator
-
- compare(String, String) - 类 中的方法org.apache.hadoop.hbase.zookeeper.lock.ZKInterProcessLockBase.ZNodeComparator
-
- compareKey(KeyValue.KVComparator, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2.AbstractScannerV2
-
Compare the given key against the current key
- compareKey(KeyValue.KVComparator, Cell) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2.AbstractScannerV2
-
- compareKey(KeyValue.KVComparator, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2.EncodedScannerV2
-
- compareKey(KeyValue.KVComparator, Cell) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2.EncodedScannerV2
-
- compareKey(KeyValue.KVComparator, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2.ScannerV2
-
- compareKey(KeyValue.KVComparator, Cell) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2.ScannerV2
-
- compareKeyForNextColumn(Cell, Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
- compareKeyForNextRow(Cell, Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
- compareTo(Runnable) - 类 中的方法org.apache.hadoop.hbase.executor.EventHandler
-
Default prioritized runnable comparator which implements a FIFO ordering.
- compareTo(LruCachedBlock) - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruCachedBlock
-
- compareTo(TableSplit) - 类 中的方法org.apache.hadoop.hbase.mapred.TableSplit
-
- compareTo(Import.KeyValueWritableComparable) - 类 中的方法org.apache.hadoop.hbase.mapreduce.Import.KeyValueWritableComparable
-
- compareTo(TableSplit) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSplit
-
Compares this split against the given one.
- compareTo(RegionPlan) - 类 中的方法org.apache.hadoop.hbase.master.RegionPlan
-
Compare the region info.
- compareTo(CompactionRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionRequest
-
This function will define where in the priority queue the request will
end up.
- compareTo(WALKey) - 类 中的方法org.apache.hadoop.hbase.wal.WALKey
-
- compareTo(WALSplitter.MutationReplay) - 类 中的方法org.apache.hadoop.hbase.wal.WALSplitter.MutationReplay
-
- compareToTimestamp(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionWindow
-
Compares the window to a timestamp.
- complete() - 类 中的方法org.apache.hadoop.hbase.coprocessor.ObserverContext
-
Call to indicate that additional coprocessors further down the execution
chain do not need to be invoked.
- complete() - 类 中的方法org.apache.hadoop.hbase.errorhandling.TimeoutExceptionInjector
-
For all time forward, do not throw an error because the process has completed.
- complete(Path) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.PrefetchExecutor
-
- complete() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionProgress
-
Marks the compaction as complete by setting total to current KV count;
Total KV count is an estimate, so there might be a discrepancy otherwise.
- complete(MultiVersionConcurrencyControl.WriteEntry) - 类 中的方法org.apache.hadoop.hbase.regionserver.MultiVersionConcurrencyControl
-
- completeAndWait(MultiVersionConcurrencyControl.WriteEntry) - 类 中的方法org.apache.hadoop.hbase.regionserver.MultiVersionConcurrencyControl
-
- completeCacheFlush(byte[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
- completeCacheFlush(byte[]) - 接口 中的方法org.apache.hadoop.hbase.wal.WAL
-
Complete the cache flush.
- completeCompaction(Collection<StoreFile>) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
It works by processing a compaction that's been written to disk.
- completeCompaction(Collection<StoreFile>, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
It works by processing a compaction that's been written to disk.
- completed(Throwable) - 类 中的方法org.apache.hadoop.hbase.master.handler.CreateTableHandler
-
Called after that process() is completed.
- completed(Throwable) - 类 中的方法org.apache.hadoop.hbase.master.handler.TableEventHandler
-
Called after that process() is completed.
- completed(Throwable) - 类 中的方法org.apache.hadoop.hbase.master.snapshot.CloneSnapshotHandler
-
- completed(Throwable) - 类 中的方法org.apache.hadoop.hbase.master.snapshot.RestoreSnapshotHandler
-
- completeRegionMergeTransaction(RegionServerServices, HRegionInfo, HRegion, HRegion, RegionMergeCoordination.RegionMergeDetails, HRegion) - 接口 中的方法org.apache.hadoop.hbase.coordination.RegionMergeCoordination
-
Finish off merge transaction
- completeRegionMergeTransaction(RegionServerServices, HRegionInfo, HRegion, HRegion, RegionMergeCoordination.RegionMergeDetails, HRegion) - 类 中的方法org.apache.hadoop.hbase.coordination.ZkRegionMergeCoordination
-
- completeSnapshot(Path, Path, FileSystem, FileSystem) - 类 中的方法org.apache.hadoop.hbase.master.snapshot.TakeSnapshotHandler
-
Reset the manager to allow another snapshot to proceed.
- completeSnapshot(Path, Path, FileSystem, FileSystem, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils
-
Move the finished snapshot to its final, publicly visible directory - this marks the snapshot
as 'complete'.
- completeSplitTransaction(RegionServerServices, Region, Region, SplitTransactionCoordination.SplitTransactionDetails, Region) - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitTransactionCoordination
-
Finish off split transaction
- completeSplitTransaction(RegionServerServices, Region, Region, SplitTransactionCoordination.SplitTransactionDetails, Region) - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitTransactionCoordination
-
Finish off split transaction, transition the zknode
- completionCleanup(Procedure) - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureScheduler
-
- composeAttributeName(String, String) - 类 中的静态方法org.apache.hadoop.hbase.master.balancer.StochasticLoadBalancer
-
A helper function to compose the attribute name from tablename and costfunction name
- CompoundBloomFilter - org.apache.hadoop.hbase.util中的类
-
A Bloom filter implementation built on top of
ByteBloomFilter,
encapsulating a set of fixed-size Bloom filters written out at the time of
HFile generation into the data
block stream, and loaded on demand at query time.
- CompoundBloomFilter(DataInput, HFile.Reader) - 类 的构造器org.apache.hadoop.hbase.util.CompoundBloomFilter
-
De-serialization for compound Bloom filter metadata.
- CompoundBloomFilterBase - org.apache.hadoop.hbase.util中的类
-
- CompoundBloomFilterBase() - 类 的构造器org.apache.hadoop.hbase.util.CompoundBloomFilterBase
-
- CompoundBloomFilterWriter - org.apache.hadoop.hbase.util中的类
-
Adds methods required for writing a compound Bloom filter to the data
section of an
HFile to the
CompoundBloomFilter class.
- CompoundBloomFilterWriter(int, float, int, int, boolean, KeyValue.KVComparator) - 类 的构造器org.apache.hadoop.hbase.util.CompoundBloomFilterWriter
-
- compress(byte[], Dictionary) - 接口 中的方法org.apache.hadoop.hbase.regionserver.wal.WALCellCodec.ByteStringCompressor
-
- compressAlgo - 类 中的变量org.apache.hadoop.hbase.io.hfile.AbstractHFileReader
-
Filled when we read in the trailer.
- compression - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.WALCellCodec
-
- compressionByName(String) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.AbstractHFileWriter
-
- CompressionContext - org.apache.hadoop.hbase.regionserver.wal中的类
-
Context that holds the various dictionaries for compression in WAL.
- CompressionContext(Class<? extends Dictionary>, boolean, boolean) - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.CompressionContext
-
- compressionContext - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.ReaderBase
-
Compression context to use reading.
- compressionContext - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.WriterBase
-
- compressionContext - 类 中的变量org.apache.hadoop.hbase.wal.WALKey
-
- CompressionTest - org.apache.hadoop.hbase.util中的类
-
Compression validation test.
- CompressionTest() - 类 的构造器org.apache.hadoop.hbase.util.CompressionTest
-
- Compressor - org.apache.hadoop.hbase.regionserver.wal中的类
-
A set of static functions for running our custom WAL compression/decompression.
- Compressor() - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.Compressor
-
- compressor - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.ProtobufLogWriter
-
- computeBitSize(long, double) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBloomFilter
-
- computeCost(BaseLoadBalancer.Cluster, double) - 类 中的方法org.apache.hadoop.hbase.master.balancer.StochasticLoadBalancer
-
This is the main cost function.
- computeFilename(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
This is a convenience method that computes a new filename with a given
file-number.
- computeFoldableByteSize(long, int) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBloomFilter
-
Increases the given byte size of a Bloom filter until it can be folded by
the given factor.
- computeHDFSBlocksDistribution(Configuration, HTableDescriptor, HRegionInfo) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HRegion
-
This is a helper function to compute HDFS block distribution on demand
- computeHDFSBlocksDistribution(Configuration, HTableDescriptor, HRegionInfo, Path) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HRegion
-
This is a helper function to compute HDFS block distribution on demand
- computeHDFSBlocksDistribution(FileSystem) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
Compute the HDFS Block Distribution for this StoreFile
- computeHDFSBlocksDistribution(FileSystem, FileStatus, long, long) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Compute HDFS blocks distribution of a given file, or a portion of the file
- computeMaxKeys(long, double, int) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBloomFilter
-
The maximum number of keys we can put into a Bloom filter of a certain
size to get the given error rate, with the given number of hash functions.
- computeNumCallQueues(int, float) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
- computeNumCallQueues(int, float) - 类 中的方法org.apache.hadoop.hbase.ipc.RWQueueRpcExecutor
-
- computePlanForTable(TableName) - 接口 中的方法org.apache.hadoop.hbase.master.normalizer.RegionNormalizer
-
Computes next optimal normalization plan.
- computePlanForTable(TableName) - 类 中的方法org.apache.hadoop.hbase.master.normalizer.SimpleRegionNormalizer
-
Computes next most "urgent" normalization action on the table.
- concurrentVisitReferencedFiles(Configuration, FileSystem, SnapshotManifest, String, SnapshotReferenceUtil.StoreFileVisitor) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotReferenceUtil
-
- concurrentVisitReferencedFiles(Configuration, FileSystem, SnapshotManifest, ExecutorService, SnapshotReferenceUtil.StoreFileVisitor) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotReferenceUtil
-
- conf - 类 中的变量org.apache.hadoop.hbase.coprocessor.CoprocessorHost
-
- conf - 类 中的变量org.apache.hadoop.hbase.io.hfile.AbstractHFileReader
-
- conf - 类 中的变量org.apache.hadoop.hbase.io.hfile.HFile.WriterFactory
-
- conf - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer
-
- conf - 类 中的变量org.apache.hadoop.hbase.mapreduce.TsvImporterMapper
-
- conf - 类 中的变量org.apache.hadoop.hbase.master.handler.CreateTableHandler
-
- conf - 类 中的变量org.apache.hadoop.hbase.master.snapshot.TakeSnapshotHandler
-
- conf - 类 中的变量org.apache.hadoop.hbase.regionserver.compactions.Compactor
-
- conf - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegion
-
- conf - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
- conf - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
conf object
- conf - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.ReaderBase
-
- conf - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.WriterBase
-
- conf - 类 中的变量org.apache.hadoop.hbase.wal.WALSplitter
-
- CONF_CONTEXT_ATTRIBUTE - 类 中的静态变量org.apache.hadoop.hbase.http.HttpServer
-
- CONF_DEST_PREFIX - 类 中的静态变量org.apache.hadoop.hbase.snapshot.ExportSnapshot
-
Configuration prefix for overrides for the destination filesystem
- CONF_SKIP_TMP - 类 中的静态变量org.apache.hadoop.hbase.snapshot.ExportSnapshot
-
- CONF_SOURCE_PREFIX - 类 中的静态变量org.apache.hadoop.hbase.snapshot.ExportSnapshot
-
Configuration prefix for overrides for the source filesystem
- config - 类 中的变量org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer
-
- ConfigurationManager - org.apache.hadoop.hbase.conf中的类
-
Maintains the set of all the classes which would like to get notified
when the Configuration is reloaded from the disk in the Online Configuration
Change mechanism, which lets you update certain configuration properties
on-the-fly, without having to restart the cluster.
- ConfigurationManager() - 类 的构造器org.apache.hadoop.hbase.conf.ConfigurationManager
-
- configurationManager - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
Configuration manager is used to register/deregister and notify the configuration observers
when the regionserver is notified that there was a change in the on disk configs.
- ConfigurationObserver - org.apache.hadoop.hbase.conf中的接口
-
Every class that wants to observe changes in Configuration properties,
must implement interface (and also, register itself with the
ConfigurationManager object.
- ConfigurationUtil - org.apache.hadoop.hbase.util中的类
-
Utilities for storing more complex collection types in
Configuration instances.
- configure(JobConf) - 类 中的方法org.apache.hadoop.hbase.mapred.GroupingTableMap
-
- configure(JobConf) - 类 中的方法org.apache.hadoop.hbase.mapred.HRegionPartitioner
-
- configure(JobConf) - 类 中的方法org.apache.hadoop.hbase.mapred.TableInputFormat
-
- configureCfRenaming(Configuration, Map<String, String>) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.Import
-
Sets a configuration property with key
Import.CF_RENAME_PROP in conf that tells
the mapper how to rename column families.
- configureForRegion(HRegion) - 类 中的方法org.apache.hadoop.hbase.regionserver.BusyRegionSplitPolicy
-
- configureForRegion(HRegion) - 类 中的方法org.apache.hadoop.hbase.regionserver.ConstantSizeRegionSplitPolicy
-
- configureForRegion(HRegion) - 类 中的方法org.apache.hadoop.hbase.regionserver.DelimitedKeyPrefixRegionSplitPolicy
-
- configureForRegion(HRegion) - 类 中的方法org.apache.hadoop.hbase.regionserver.FlushLargeStoresPolicy
-
- configureForRegion(HRegion) - 类 中的方法org.apache.hadoop.hbase.regionserver.FlushPolicy
-
Upon construction, this method will be called with the region to be governed.
- configureForRegion(HRegion) - 类 中的方法org.apache.hadoop.hbase.regionserver.IncreasingToUpperBoundRegionSplitPolicy
-
- configureForRegion(HRegion) - 类 中的方法org.apache.hadoop.hbase.regionserver.KeyPrefixRegionSplitPolicy
-
- configureForRegion(HRegion) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionSplitPolicy
-
Upon construction, this method will be called with the region
to be governed.
- configureIncrementalLoad(Job, HTable) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.HFileOutputFormat
-
已过时。
Configure a MapReduce Job to perform an incremental load into the given
table.
- configureIncrementalLoad(Job, HTable) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.HFileOutputFormat2
-
- configureIncrementalLoad(Job, Table, RegionLocator) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.HFileOutputFormat2
-
Configure a MapReduce Job to perform an incremental load into the given
table.
- configureIncrementalLoad(Job, HTableDescriptor, RegionLocator) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.HFileOutputFormat2
-
Configure a MapReduce Job to perform an incremental load into the given
table.
- configureIncrementalLoadMap(Job, Table) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.HFileOutputFormat2
-
- configureInfoServer() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- configureInfoServer() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- configureSplitTable(Job, TableName) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
Sets split table in map-reduce job.
- ConfigUtil - org.apache.hadoop.hbase.util中的类
-
Some configuration related utilities
- ConfigUtil() - 类 的构造器org.apache.hadoop.hbase.util.ConfigUtil
-
- confirmRegionMergeTransaction(HRegionInfo, HRegionInfo, HRegionInfo, ServerName, RegionMergeCoordination.RegionMergeDetails) - 接口 中的方法org.apache.hadoop.hbase.coordination.RegionMergeCoordination
-
Confirm that the region merge can be performed
- confirmRegionMergeTransaction(HRegionInfo, HRegionInfo, HRegionInfo, ServerName, RegionMergeCoordination.RegionMergeDetails) - 类 中的方法org.apache.hadoop.hbase.coordination.ZkRegionMergeCoordination
-
- ConfServlet - org.apache.hadoop.hbase.http.conf中的类
-
A servlet to print out the running configuration data.
- ConfServlet() - 类 的构造器org.apache.hadoop.hbase.http.conf.ConfServlet
-
- ConfServlet.BadFormatException - org.apache.hadoop.hbase.http.conf中的异常错误
-
- ConfServlet.BadFormatException(String) - 异常错误 的构造器org.apache.hadoop.hbase.http.conf.ConfServlet.BadFormatException
-
- connect(Configuration) - 类 中的方法org.apache.hadoop.hbase.master.ClusterStatusPublisher.MulticastPublisher
-
- connect(Configuration) - 接口 中的方法org.apache.hadoop.hbase.master.ClusterStatusPublisher.Publisher
-
- connect() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
To repair region consistency, one must call connect() in order to repair
online state.
- connection - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer.Call
-
- connection - 类 中的变量org.apache.hadoop.hbase.tool.CanaryTool.Monitor
-
- ConnectionCache - org.apache.hadoop.hbase.util中的类
-
A utility to store user specific HConnections in memory.
- ConnectionCache(Configuration, UserProvider, int, int) - 类 的构造器org.apache.hadoop.hbase.util.ConnectionCache
-
- connectionList - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer
-
- consolidate() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotManifest
-
- ConstantSizeRegionSplitPolicy - org.apache.hadoop.hbase.regionserver中的类
-
A
RegionSplitPolicy implementation which splits a region
as soon as any of its store files exceeds a maximum configurable
size.
- ConstantSizeRegionSplitPolicy() - 类 的构造器org.apache.hadoop.hbase.regionserver.ConstantSizeRegionSplitPolicy
-
- constrainHttpMethods(Context, boolean) - 类 中的静态方法org.apache.hadoop.hbase.util.HttpServerUtil
-
Add constraints to a Jetty Context to disallow undesirable Http methods.
- Constraint - org.apache.hadoop.hbase.constraint中的接口
-
Apply a
Constraint (in traditional database terminology) to a HTable.
- ConstraintException - org.apache.hadoop.hbase.constraint中的异常错误
-
Exception that a user defined constraint throws on failure of a
Put.
- ConstraintException() - 异常错误 的构造器org.apache.hadoop.hbase.constraint.ConstraintException
-
- ConstraintException(String) - 异常错误 的构造器org.apache.hadoop.hbase.constraint.ConstraintException
-
- ConstraintException(String, Throwable) - 异常错误 的构造器org.apache.hadoop.hbase.constraint.ConstraintException
-
- ConstraintProcessor - org.apache.hadoop.hbase.constraint中的类
-
- ConstraintProcessor() - 类 的构造器org.apache.hadoop.hbase.constraint.ConstraintProcessor
-
Create the constraint processor.
- Constraints - org.apache.hadoop.hbase.constraint中的类
-
Utilities for adding/removing constraints from a table.
- constructImpl(Class<? extends AbstractTemplateImpl>) - 类 中的方法org.apache.hadoop.hbase.tmpl.common.TaskMonitorTmpl
-
- constructImpl() - 类 中的方法org.apache.hadoop.hbase.tmpl.common.TaskMonitorTmpl
-
- constructImpl(Class<? extends AbstractTemplateImpl>) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.AssignmentManagerStatusTmpl
-
- constructImpl() - 类 中的方法org.apache.hadoop.hbase.tmpl.master.AssignmentManagerStatusTmpl
-
- constructImpl(Class<? extends AbstractTemplateImpl>) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.BackupMasterStatusTmpl
-
- constructImpl() - 类 中的方法org.apache.hadoop.hbase.tmpl.master.BackupMasterStatusTmpl
-
- constructImpl(Class<? extends AbstractTemplateImpl>) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl
-
- constructImpl() - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl
-
- constructImpl(Class<? extends AbstractTemplateImpl>) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.RegionServerListTmpl
-
- constructImpl() - 类 中的方法org.apache.hadoop.hbase.tmpl.master.RegionServerListTmpl
-
- constructImpl(Class<? extends AbstractTemplateImpl>) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.BlockCacheTmpl
-
- constructImpl() - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.BlockCacheTmpl
-
- constructImpl(Class<? extends AbstractTemplateImpl>) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.BlockCacheViewTmpl
-
- constructImpl() - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.BlockCacheViewTmpl
-
- constructImpl(Class<? extends AbstractTemplateImpl>) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.RegionListTmpl
-
- constructImpl() - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.RegionListTmpl
-
- constructImpl(Class<? extends AbstractTemplateImpl>) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.RSStatusTmpl
-
- constructImpl() - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.RSStatusTmpl
-
- constructImpl(Class<? extends AbstractTemplateImpl>) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.ServerMetricsTmpl
-
- constructImpl() - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.ServerMetricsTmpl
-
- constructMaster(Class<? extends HMaster>, Configuration, CoordinatedStateManager) - 类 中的静态方法org.apache.hadoop.hbase.master.HMaster
-
Utility for constructing an instance of the passed HMaster class.
- constructOutputStream(DataOutput) - 类 中的静态方法org.apache.hadoop.hbase.io.DataOutputOutputStream
-
Construct an OutputStream from the given DataOutput.
- constructRegionServer(Class<? extends HRegionServer>, Configuration, CoordinatedStateManager) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
Utility for constructing an instance of the passed HRegionServer class.
- consume() - 类 中的方法org.apache.hadoop.hbase.quotas.RateLimiter
-
consume one available unit.
- consume(long) - 类 中的方法org.apache.hadoop.hbase.quotas.RateLimiter
-
consume amount available units, amount could be a negative number
- consumeRead(long) - 接口 中的方法org.apache.hadoop.hbase.quotas.QuotaLimiter
-
Removes or add back some read amount to the quota.
- consumeRead(long) - 类 中的方法org.apache.hadoop.hbase.quotas.TimeBasedLimiter
-
- consumerLoop(BlockingQueue<HFileCleaner.HFileDeleteTask>) - 类 中的方法org.apache.hadoop.hbase.master.cleaner.HFileCleaner
-
- consumeWrite(long) - 接口 中的方法org.apache.hadoop.hbase.quotas.QuotaLimiter
-
Removes or add back some write amount to the quota.
- consumeWrite(long) - 类 中的方法org.apache.hadoop.hbase.quotas.TimeBasedLimiter
-
- contains(Object) - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- contains(Object) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSkipListSet
-
- contains(byte[], int, int, ByteBuffer) - 接口 中的方法org.apache.hadoop.hbase.util.BloomFilter
-
Check if the specified key is contained in the bloom filter.
- contains(Object) - 类 中的方法org.apache.hadoop.hbase.util.BoundedPriorityBlockingQueue
-
- contains(byte[], int, int, ByteBuffer) - 类 中的方法org.apache.hadoop.hbase.util.ByteBloomFilter
-
- contains(byte[], int, int, ByteBuffer, int, int, Hash, int) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBloomFilter
-
- contains(byte[], int, int, ByteBuffer) - 类 中的方法org.apache.hadoop.hbase.util.CompoundBloomFilter
-
- contains(String) - 类 中的方法org.apache.hadoop.hbase.util.LossyCounting
-
- contains(Object) - 类 中的方法org.apache.hadoop.hbase.util.SortedCopyOnWriteSet
-
- contains(Object) - 类 中的方法org.apache.hadoop.hbase.util.SortedList
-
- containsAll(Collection<?>) - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- containsAll(Collection<?>) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSkipListSet
-
- containsAll(Collection<?>) - 类 中的方法org.apache.hadoop.hbase.util.SortedCopyOnWriteSet
-
- containsAll(Collection<?>) - 类 中的方法org.apache.hadoop.hbase.util.SortedList
-
- containsBlock(BlockCacheKey) - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
Whether the cache contains block with specified cacheKey
- containsKey(Object) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFile.FileInfo
-
- containsKey(Object) - 类 中的方法org.apache.hadoop.hbase.regionserver.LruHashMap
-
Checks whether there is a value in the map for the specified key.
- containsValue(Object) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFile.FileInfo
-
- containsValue(Object) - 类 中的方法org.apache.hadoop.hbase.regionserver.LruHashMap
-
Checks whether this is a mapping which contains the specified value.
- control(String, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.NoLimitThroughputController
-
- control(String, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.PressureAwareThroughputController
-
- control(String, long) - 接口 中的方法org.apache.hadoop.hbase.regionserver.throttle.ThroughputController
-
Control the throughput.
- controller - 类 中的变量org.apache.hadoop.hbase.wal.WALSplitter.OutputSink
-
- controllerConnectionFailure(String, Throwable, String) - 类 中的方法org.apache.hadoop.hbase.procedure.ProcedureMember
-
The connection to the rest of the procedure group (member and coordinator) has been
broken/lost/failed.
- controlPerSize - 类 中的变量org.apache.hadoop.hbase.regionserver.throttle.PressureAwareThroughputController
-
- convert() - 类 中的方法org.apache.hadoop.hbase.io.Reference
-
- convert(FSProtos.Reference) - 类 中的静态方法org.apache.hadoop.hbase.io.Reference
-
- convertScanToString(Scan) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Writes the given scan into a Base64 encoded string.
- convertStringToScan(String) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Converts the given Base64 string back into a Scan instance.
- convertThrowableToIOE(Throwable, String) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- convertToBigInteger(byte[]) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.NumberStringSplit
-
Returns the BigInteger represented by the byte array
- convertToByte(BigInteger, int) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.NumberStringSplit
-
Returns the bytes corresponding to the BigInteger
- convertToByte(BigInteger) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.NumberStringSplit
-
Returns the bytes corresponding to the BigInteger
- convertToBytes(BigInteger[]) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.NumberStringSplit
-
Returns an array of bytes corresponding to an array of BigIntegers
- CoordinatedStateManager - org.apache.hadoop.hbase中的接口
-
Implementations of this interface will keep and return to clients
implementations of classes providing API to execute
coordinated operations.
- CoordinatedStateManagerFactory - org.apache.hadoop.hbase中的类
-
- CoordinatedStateManagerFactory() - 类 的构造器org.apache.hadoop.hbase.CoordinatedStateManagerFactory
-
- coordinator - 类 中的变量org.apache.hadoop.hbase.procedure.ZKProcedureCoordinatorRpcs
-
- CoprocessorHConnection - org.apache.hadoop.hbase.client中的类
-
Connection to an HTable from within a Coprocessor.
- CoprocessorHConnection(ClusterConnection, HRegionServer) - 类 的构造器org.apache.hadoop.hbase.client.CoprocessorHConnection
-
已过时。
delegate is not used
- CoprocessorHConnection(HRegionServer) - 类 的构造器org.apache.hadoop.hbase.client.CoprocessorHConnection
-
Constructor that uses server configuration
- CoprocessorHConnection(Configuration, HRegionServer) - 类 的构造器org.apache.hadoop.hbase.client.CoprocessorHConnection
-
Constructor that accepts custom configuration
- CoprocessorHost<E extends CoprocessorEnvironment> - org.apache.hadoop.hbase.coprocessor中的类
-
Provides the common setup framework and runtime services for coprocessor
invocation from HBase services.
- CoprocessorHost(Abortable) - 类 的构造器org.apache.hadoop.hbase.coprocessor.CoprocessorHost
-
- CoprocessorHost.Environment - org.apache.hadoop.hbase.coprocessor中的类
-
Encapsulation of the environment of each coprocessor
- CoprocessorHost.Environment(Coprocessor, int, int, Configuration) - 类 的构造器org.apache.hadoop.hbase.coprocessor.CoprocessorHost.Environment
-
Constructor
- coprocessors - 类 中的变量org.apache.hadoop.hbase.coprocessor.CoprocessorHost
-
Ordered set of loaded coprocessors with lock
- COPROCESSORS_ENABLED_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.coprocessor.CoprocessorHost
-
- coprocessorService(byte[]) - 类 中的方法org.apache.hadoop.hbase.client.HTableWrapper
-
- coprocessorService(Class<T>, byte[], byte[], Batch.Call<T, R>) - 类 中的方法org.apache.hadoop.hbase.client.HTableWrapper
-
- coprocessorService(Class<T>, byte[], byte[], Batch.Call<T, R>, Batch.Callback<R>) - 类 中的方法org.apache.hadoop.hbase.client.HTableWrapper
-
- CoprocessorService - org.apache.hadoop.hbase.coprocessor中的接口
-
- copyDeadServersSince(long) - 类 中的方法org.apache.hadoop.hbase.master.DeadServer
-
Extract all the servers dead since a given time, and sort them.
- copyServerNames() - 类 中的方法org.apache.hadoop.hbase.master.DeadServer
-
- copySnapshotForScanner(Configuration, FileSystem, Path, Path, String) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.RestoreSnapshotHelper
-
Copy the snapshot files for a snapshot scanner, discards meta changes.
- CopyTable - org.apache.hadoop.hbase.mapreduce中的类
-
Tool used to copy a table to another one which can be on a different setup.
- CopyTable(Configuration) - 类 的构造器org.apache.hadoop.hbase.mapreduce.CopyTable
-
- CorruptHFileException - org.apache.hadoop.hbase.io.hfile中的异常错误
-
This exception is thrown when attempts to read an HFile fail due to corruption or truncation
issues.
- CorruptHFileException(String, Throwable) - 异常错误 的构造器org.apache.hadoop.hbase.io.hfile.CorruptHFileException
-
- CorruptHFileException(String) - 异常错误 的构造器org.apache.hadoop.hbase.io.hfile.CorruptHFileException
-
- countDown(Procedure) - 类 中的方法org.apache.hadoop.hbase.master.procedure.ProcedurePrepareLatch.CompatibilityLatch
-
- countDown(Procedure) - 类 中的方法org.apache.hadoop.hbase.master.procedure.ProcedurePrepareLatch
-
- countOfRegionServers() - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
- countPerRow - 类 中的变量org.apache.hadoop.hbase.regionserver.StoreScanner
-
- create(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.backup.example.TableHFileArchiveTracker
-
Create an archive tracker for the passed in server
- create() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFile.WriterFactory
-
- create(Configuration, FileSystem, Path, HRegionInfo, String) - 类 中的静态方法org.apache.hadoop.hbase.io.HFileLink
-
Create a new HFileLink
It also adds a back-reference to the hfile back-reference directory
to simplify the reference-count and the cleaning process.
- create(Configuration, FileSystem, Path, HRegionInfo, String, boolean) - 类 中的静态方法org.apache.hadoop.hbase.io.HFileLink
-
Create a new HFileLink
It also adds a back-reference to the hfile back-reference directory
to simplify the reference-count and the cleaning process.
- create(Configuration, FileSystem, Path, TableName, String, String) - 类 中的静态方法org.apache.hadoop.hbase.io.HFileLink
-
Create a new HFileLink
It also adds a back-reference to the hfile back-reference directory
to simplify the reference-count and the cleaning process.
- create(Configuration, FileSystem, Path, TableName, String, String, boolean) - 类 中的静态方法org.apache.hadoop.hbase.io.HFileLink
-
Create a new HFileLink
It also adds a back-reference to the hfile back-reference directory
to simplify the reference-count and the cleaning process.
- create(byte[], int, int, byte[], int, int, byte[], int, int, long, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.mapreduce.CellCreator
-
- create(byte[], int, int, byte[], int, int, byte[], int, int, long, byte[], int, int, String) - 类 中的方法org.apache.hadoop.hbase.mapreduce.CellCreator
-
已过时。
- create(byte[], int, int, byte[], int, int, byte[], int, int, long, byte[], int, int, List<Tag>) - 类 中的方法org.apache.hadoop.hbase.mapreduce.CellCreator
-
- create(Configuration, PriorityFunction, Abortable) - 类 中的方法org.apache.hadoop.hbase.regionserver.FifoRpcSchedulerFactory
-
- create(Configuration, PriorityFunction) - 类 中的方法org.apache.hadoop.hbase.regionserver.FifoRpcSchedulerFactory
-
已过时。
- create(HRegion, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.FlushPolicyFactory
-
Create the FlushPolicy configured for the given table.
- create(Configuration, FlushRequester, Server, RegionServerAccounting) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager
-
- create(ScanInfo, ScanType, long, long, long, long, byte[], byte[], RegionCoprocessorHost) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.querymatcher.CompactionScanQueryMatcher
-
- create(Scan, ScanInfo, NavigableSet<byte[]>, ScanType, long, long, long, long, byte[], byte[], RegionCoprocessorHost) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.querymatcher.LegacyScanQueryMatcher
-
已过时。
- create(Scan, ScanInfo, ColumnTracker, boolean, long, long, RegionCoprocessorHost) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.querymatcher.NormalUserScanQueryMatcher
-
- create(Scan, ScanInfo, ColumnTracker, boolean, long, long) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.querymatcher.RawScanQueryMatcher
-
- create(Scan, ScanInfo, NavigableSet<byte[]>, long, long, RegionCoprocessorHost) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.querymatcher.UserScanQueryMatcher
-
- create(Region, Region, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionMergeTransactionFactory
-
Create a merge transaction
- create(HRegion, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.RegionSplitPolicy
-
Create the RegionSplitPolicy configured for the given table.
- create(Configuration, PriorityFunction, Abortable) - 接口 中的方法org.apache.hadoop.hbase.regionserver.RpcSchedulerFactory
-
- create(Configuration, PriorityFunction) - 接口 中的方法org.apache.hadoop.hbase.regionserver.RpcSchedulerFactory
-
- create(Configuration, PriorityFunction) - 类 中的方法org.apache.hadoop.hbase.regionserver.SimpleRpcSchedulerFactory
-
- create(Configuration, PriorityFunction, Abortable) - 类 中的方法org.apache.hadoop.hbase.regionserver.SimpleRpcSchedulerFactory
-
- create(Region, byte[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.SplitTransactionFactory
-
Create a split transaction
- create(Store, Configuration, KeyValue.KVComparator) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.StoreEngine
-
Create the StoreEngine configured for the given Store.
- create(RegionServerServices, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.throttle.CompactionThroughputControllerFactory
-
- create(RegionServerServices, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.throttle.FlushThroughputControllerFactory
-
- create(Configuration, String, CompressionContext) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.wal.WALCellCodec
-
Create and setup a
WALCellCodec from the
cellCodecClsName and
CompressionContext, if
cellCodecClsName is specified.
- create(Configuration, CompressionContext) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.wal.WALCellCodec
-
Create and setup a
WALCellCodec from the
CompressionContext.
- create(Configuration, FileSystem, Path, HBaseProtos.SnapshotDescription, ForeignExceptionSnare) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotManifest
-
Return a SnapshotManifest instance, used for writing a snapshot.
- create(Configuration, FileSystem, Path, FsPermission, InetSocketAddress[]) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Create the specified file on the filesystem.
- create(FileSystem, Path, FsPermission, boolean) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Create the specified file on the filesystem.
- CREATE_TABLE_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.ImportTsv
-
- CREATE_TABLE_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.LoadIncrementalHFiles
-
- createAndGet(ZooKeeperWatcher, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.security.visibility.VisibilityLabelsCache
-
Creates the singleton instance, if not yet present, and returns the same.
- createAndPrepare(T, ObserverContext<T>) - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.ObserverContext
-
Instantiates a new ObserverContext instance if the passed reference is
null and sets the environment in the new or existing instance.
- createAnother() - 类 中的方法org.apache.hadoop.hbase.util.ByteBloomFilter
-
Creates another similar Bloom filter.
- createBaseListener(Configuration) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
Create a required listener for the Jetty instance listening on the port
provided.
- createBloomKey(byte[], int, int, byte[], int, int) - 接口 中的方法org.apache.hadoop.hbase.util.BloomFilterBase
-
Create a key for a row-column Bloom filter.
- createBloomKey(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.util.ByteBloomFilter
-
Create a key for a row-column Bloom filter.
- createBloomKey(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.util.CompoundBloomFilterBase
-
Prepare an ordered pair of row and qualifier to be compared using
KeyValue.KeyComparator.
- createBottomReference(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.io.Reference
-
- createBulkLoadEvent(HRegionInfo, WALProtos.BulkLoadDescriptor) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.wal.WALEdit
-
Create a bulk loader WALEdit
- createBySize(int, double, int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBloomFilter
-
Creates a Bloom filter of the given size.
- createCleanupScheduledChore(Stoppable) - 类 中的方法org.apache.hadoop.hbase.regionserver.ServerNonceManager
-
Creates a scheduled chore that is used to clean up old nonces.
- createCluster(List<ServerName>, Collection<HRegionInfo>) - 类 中的方法org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer
-
- createClusterConnection() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
Create a 'smarter' HConnection, one that is capable of by-passing RPC if the request is to
the local server.
- createCompaction() - 类 中的方法org.apache.hadoop.hbase.regionserver.DateTieredStoreEngine
-
- createCompaction() - 类 中的方法org.apache.hadoop.hbase.regionserver.DefaultStoreEngine
-
- createCompaction() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreEngine
-
Creates an instance of a compaction context specific to this engine.
- createCompaction() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreEngine
-
- createCompaction(HRegionInfo, WALProtos.CompactionDescriptor) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.wal.WALEdit
-
Create a compaction WALEdit
- createCompactionRequest(ArrayList<StoreFile>, boolean, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.DateTieredCompactionPolicy
-
- createCompactionRequest(ArrayList<StoreFile>, boolean, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.RatioBasedCompactionPolicy
-
- createCompactionRequest(ArrayList<StoreFile>, boolean, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.SortedCompactionPolicy
-
- createComparator(String) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- createComponents(Configuration, Store, KeyValue.KVComparator) - 类 中的方法org.apache.hadoop.hbase.regionserver.DateTieredStoreEngine
-
- createComponents(Configuration, Store, KeyValue.KVComparator) - 类 中的方法org.apache.hadoop.hbase.regionserver.DefaultStoreEngine
-
- createComponents(Configuration, Store, KeyValue.KVComparator) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreEngine
-
Create the StoreEngine's components.
- createComponents(Configuration, Store, KeyValue.KVComparator) - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreEngine
-
- createDefaultChannelConnector() - 类 中的静态方法org.apache.hadoop.hbase.http.HttpServer
-
- createDeleteBloomAtWrite(Configuration, CacheConfig, int, HFile.Writer) - 类 中的静态方法org.apache.hadoop.hbase.util.BloomFilterFactory
-
Creates a new Delete Family Bloom filter at the time of
StoreFile writing.
- createDestinationServersList(List<ServerName>) - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
Creates a list of possible destinations for a region.
- createDestinationServersList() - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
- createDirectory(MasterProcedureEnv, NamespaceDescriptor) - 类 中的静态方法org.apache.hadoop.hbase.master.procedure.CreateNamespaceProcedure
-
Create the namespace directory
- createEmptyRequest(StripeCompactionPolicy.StripeInformationProvider, CompactionRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.StripeCompactionPolicy
-
- createEnvironment(Class<?>, Coprocessor, int, int, Configuration) - 类 中的方法org.apache.hadoop.hbase.coprocessor.CoprocessorHost
-
Called when a new Coprocessor class is loaded
- createEnvironment(Class<?>, Coprocessor, int, int, Configuration) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- createEnvironment(Class<?>, Coprocessor, int, int, Configuration) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- createEnvironment(Class<?>, Coprocessor, int, int, Configuration) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerCoprocessorHost
-
- createEnvironment(Class<?>, Coprocessor, int, int, Configuration) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WALCoprocessorHost
-
- createExecutor(Configuration, String) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotManifest
-
- createFileScanners(Collection<StoreFile>, long, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.Compactor
-
Creates file scanners for compaction.
- createFlushContext(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- createFlushContext(long) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- createFlushWALEdit(HRegionInfo, WALProtos.FlushDescriptor) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.wal.WALEdit
-
- createFromFileInfo(HFile.FileInfo) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.HFileDataBlockEncoderImpl
-
- createFromHFileLink(Configuration, FileSystem, Path, String) - 类 中的静态方法org.apache.hadoop.hbase.io.HFileLink
-
Create a new HFileLink starting from a hfileLink name
It also adds a back-reference to the hfile back-reference directory
to simplify the reference-count and the cleaning process.
- createFromHFileLink(Configuration, FileSystem, Path, String, boolean) - 类 中的静态方法org.apache.hadoop.hbase.io.HFileLink
-
Create a new HFileLink starting from a hfileLink name
It also adds a back-reference to the hfile back-reference directory
to simplify the reference-count and the cleaning process.
- createFromMeta(DataInput, HFile.Reader) - 类 中的静态方法org.apache.hadoop.hbase.util.BloomFilterFactory
-
Instantiates the correct Bloom filter class based on the version provided
in the meta block data.
- createFsLayout(MasterProcedureEnv, HTableDescriptor, List<HRegionInfo>) - 类 中的静态方法org.apache.hadoop.hbase.master.procedure.CreateTableProcedure
-
- createFsLayout(MasterProcedureEnv, HTableDescriptor, List<HRegionInfo>, CreateTableProcedure.CreateHdfsRegions) - 类 中的静态方法org.apache.hadoop.hbase.master.procedure.CreateTableProcedure
-
- createGeneralBloomAtWrite(Configuration, CacheConfig, BloomType, int, HFile.Writer) - 类 中的静态方法org.apache.hadoop.hbase.util.BloomFilterFactory
-
Creates a new general (Row or RowCol) Bloom filter at the time of
StoreFile writing.
- createGroupKey(byte[][]) - 类 中的方法org.apache.hadoop.hbase.mapred.GroupingTableMap
-
Create a key by concatenating multiple column values.
- createGroupKey(byte[][]) - 类 中的方法org.apache.hadoop.hbase.mapreduce.GroupingTableMapper
-
Create a key by concatenating multiple column values.
- createHDFSRegionDir(Configuration, HRegionInfo, HTableDescriptor) - 类 中的静态方法org.apache.hadoop.hbase.util.HBaseFsckRepair
-
Creates, flushes, and closes a new region.
- createHdfsRegions(MasterProcedureEnv, Path, TableName, List<HRegionInfo>) - 接口 中的方法org.apache.hadoop.hbase.master.procedure.CreateTableProcedure.CreateHdfsRegions
-
- createHFileContext(FSDataInputStreamWrapper, long, HFileSystem, Path, FixedFileTrailer) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2
-
- createHFileContext(FSDataInputStreamWrapper, long, HFileSystem, Path, FixedFileTrailer) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV3
-
- createHFileCorruptionChecker(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- createHFileLinkName(HRegionInfo, String) - 类 中的静态方法org.apache.hadoop.hbase.io.HFileLink
-
Create a new HFileLink name
- createHFileLinkName(TableName, String, String) - 类 中的静态方法org.apache.hadoop.hbase.io.HFileLink
-
Create a new HFileLink name
- createHRegion(HRegionInfo, Path, Configuration, HTableDescriptor) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HRegion
-
Convenience method creating new HRegions.
- createHRegion(HRegionInfo, Path, Configuration, HTableDescriptor, WAL, boolean) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HRegion
-
Convenience method creating new HRegions.
- createHRegion(HRegionInfo, Path, Configuration, HTableDescriptor, WAL, boolean, boolean) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HRegion
-
Convenience method creating new HRegions.
- createHRegion(HRegionInfo, Path, Path, Configuration, HTableDescriptor, WAL, boolean, boolean) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HRegion
-
Convenience method creating new HRegions.
- createHRegion(HRegionInfo, Path, Configuration, HTableDescriptor, WAL) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HRegion
-
- createHRegionInfos(HTableDescriptor, byte[][]) - 类 中的静态方法org.apache.hadoop.hbase.util.ModifyRegionUtils
-
- createIdentifier() - 类 中的方法org.apache.hadoop.hbase.security.token.AuthenticationTokenSecretManager
-
- createKey() - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReader
-
- createKey() - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReaderImpl
-
- createLatch() - 类 中的静态方法org.apache.hadoop.hbase.master.procedure.ProcedurePrepareLatch
-
- createLease(String, int, LeaseListener) - 类 中的方法org.apache.hadoop.hbase.regionserver.Leases
-
Create a lease and insert it to the map of leases.
- createMasterThread(Configuration, CoordinatedStateManager, Class<? extends HMaster>, int) - 类 中的静态方法org.apache.hadoop.hbase.util.JVMClusterUtil
-
- createNamespace(NamespaceDescriptor, long, long) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- createNamespace(RpcController, MasterProtos.CreateNamespaceRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- createNamespace(NamespaceDescriptor, long, long) - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
Create a new namespace
- CreateNamespaceProcedure - org.apache.hadoop.hbase.master.procedure中的类
-
The procedure to create a new namespace.
- CreateNamespaceProcedure() - 类 的构造器org.apache.hadoop.hbase.master.procedure.CreateNamespaceProcedure
-
- CreateNamespaceProcedure(MasterProcedureEnv, NamespaceDescriptor) - 类 的构造器org.apache.hadoop.hbase.master.procedure.CreateNamespaceProcedure
-
- createNamespaceSync(NamespaceDescriptor, long, long, boolean) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- createNamespaceSync(NamespaceDescriptor, long, long, boolean) - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
Create a new namespace synchronously.
- createNInputSplitsUniform(InputSplit, int) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
Create n splits for one InputSplit, For now only support uniform distribution
- createNonRecursive(Path, boolean, int, short, long, Progressable) - 类 中的方法org.apache.hadoop.hbase.fs.HFileSystem
-
The org.apache.hadoop.fs.FilterFileSystem does not yet support
createNonRecursive.
- createOutputStream(Configuration, FileSystem, Path, InetSocketAddress[]) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.AbstractHFileWriter
-
A helper method to create HFile output streams in constructors
- createPassword(AuthenticationTokenIdentifier) - 类 中的方法org.apache.hadoop.hbase.security.token.AuthenticationTokenSecretManager
-
- createPath(TableName, String, String, String) - 类 中的静态方法org.apache.hadoop.hbase.io.HFileLink
-
Create an HFileLink relative path for the table/region/family/hfile location
- createPriority() - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- createPriority() - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
- createReader(FileSystem, Path, FSDataInputStreamWrapper, long, CacheConfig, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.HFile
-
The sockets and the file descriptors held by the method parameter
FSDataInputStreamWrapper passed will be freed after its usage so caller needs to ensure
that no other threads have access to the same passed reference.
- createReader(FileSystem, Path, CacheConfig, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.HFile
-
- createReader() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
- createReader(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
- createReader(FileSystem, Path) - 类 中的方法org.apache.hadoop.hbase.wal.WALFactory
-
- createReader(FileSystem, Path, CancelableProgressable) - 类 中的方法org.apache.hadoop.hbase.wal.WALFactory
-
Create a reader for the WAL.
- createReader(FileSystem, Path, CancelableProgressable, boolean) - 类 中的方法org.apache.hadoop.hbase.wal.WALFactory
-
- createReader(FileSystem, Path, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.wal.WALFactory
-
Create a reader for the given path, accept custom reader classes from conf.
- createReaderIgnoreCustomClass(FileSystem, Path, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.wal.WALFactory
-
Create a reader for the given path, ignore custom reader classes from conf.
- createRecordReader(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.HLogInputFormat
-
已过时。
- createRecordReader(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MultiTableInputFormatBase
-
Builds a TableRecordReader.
- createRecordReader(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
- createRecordReader(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormat
-
- createRecordReader(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.WALInputFormat
-
- createRecoveredEditsWriter(FileSystem, Path) - 类 中的方法org.apache.hadoop.hbase.wal.WALFactory
-
should be package-private, visible for recovery testing.
- createRegion(Configuration, Path, Path, HTableDescriptor, HRegionInfo, ModifyRegionUtils.RegionFillTask) - 类 中的静态方法org.apache.hadoop.hbase.util.ModifyRegionUtils
-
Create new set of regions on the specified file-system.
- createRegionEventWALEdit(HRegionInfo, WALProtos.RegionEventDescriptor) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.wal.WALEdit
-
- createRegionLoad(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- createRegionOnFileSystem(Configuration, FileSystem, Path, HRegionInfo) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
Create a new Region on file-system.
- createRegions(Configuration, Path, HTableDescriptor, HRegionInfo[]) - 类 中的静态方法org.apache.hadoop.hbase.util.ModifyRegionUtils
-
Create new set of regions on the specified file-system.
- createRegions(Configuration, Path, HTableDescriptor, HRegionInfo[], ModifyRegionUtils.RegionFillTask) - 类 中的静态方法org.apache.hadoop.hbase.util.ModifyRegionUtils
-
Create new set of regions on the specified file-system.
- createRegions(Configuration, Path, Path, HTableDescriptor, HRegionInfo[], ModifyRegionUtils.RegionFillTask) - 类 中的静态方法org.apache.hadoop.hbase.util.ModifyRegionUtils
-
Create new set of regions on the specified file-system.
- createRegions(ThreadPoolExecutor, Configuration, Path, Path, HTableDescriptor, HRegionInfo[], ModifyRegionUtils.RegionFillTask) - 类 中的静态方法org.apache.hadoop.hbase.util.ModifyRegionUtils
-
Create new set of regions on the specified file-system.
- createRegionServerStatusStub() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
Get the current master from ZooKeeper and open the RPC connection to it.
- createRegionServerStatusStub(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
Get the current master from ZooKeeper and open the RPC connection to it.
- createRegionServerThread(Configuration, CoordinatedStateManager, Class<? extends HRegionServer>, int) - 类 中的静态方法org.apache.hadoop.hbase.util.JVMClusterUtil
-
- createRegionState(HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.master.RegionStates
-
Add a region to RegionStates.
- createRegionState(HRegionInfo, RegionState.State, ServerName, ServerName) - 类 中的方法org.apache.hadoop.hbase.master.RegionStates
-
Add a region to RegionStates with the specified state.
- createRegionStates(List<HRegionInfo>) - 类 中的方法org.apache.hadoop.hbase.master.RegionStates
-
Add a list of regions to RegionStates.
- createRegistryForMasterCoprocessor(String) - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.MetricsCoprocessor
-
- createRegistryForRegionCoprocessor(String) - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.MetricsCoprocessor
-
- createRegistryForRSCoprocessor(String) - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.MetricsCoprocessor
-
- createRegistryForWALCoprocessor(String) - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.MetricsCoprocessor
-
- createRegistryInfoForRegionCoprocessor(String) - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.MetricsCoprocessor
-
- createRegistryInfoForWALCoprocessor(String) - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.MetricsCoprocessor
-
- createReplicator(List<WAL.Entry>, int) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.HBaseInterClusterReplicationEndpoint
-
- createRpcServices() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- createRpcServices() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- createRPCStatus(String) - 类 中的方法org.apache.hadoop.hbase.monitoring.TaskMonitor
-
- createScanFromConfiguration(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
Sets up a
Scan instance, applying settings from the configuration property
constants defined in
TableInputFormat.
- createScanner(Store, List<StoreFileScanner>, ScanType, long, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.Compactor
-
- createScanner(Store, List<StoreFileScanner>, long, long, byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.Compactor
-
- createScanner(List<StoreFileScanner>, ScanType, Compactor.FileDetails, long) - 接口 中的方法org.apache.hadoop.hbase.regionserver.compactions.Compactor.InternalScannerFactory
-
- createSecretKey(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.security.token.AuthenticationTokenSecretManager
-
- createServerSocket(int) - 类 中的方法org.apache.hadoop.hbase.SslRMIServerSocketFactorySecure
-
- CreateSnapshot - org.apache.hadoop.hbase.snapshot中的类
-
This is a command line class that will snapshot a given table.
- CreateSnapshot() - 类 的构造器org.apache.hadoop.hbase.snapshot.CreateSnapshot
-
- createSocket(String, int) - 类 中的方法org.apache.hadoop.hbase.SslRMIClientSocketFactorySecure
-
- createSSLEngine() - 类 中的方法org.apache.hadoop.hbase.jetty.SslSelectChannelConnectorSecure
-
- createStartKeyFromRow(byte[], ScanInfo) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
- createStatus(String) - 类 中的方法org.apache.hadoop.hbase.monitoring.TaskMonitor
-
- createSubmittableJob(String[]) - 类 中的方法org.apache.hadoop.hbase.mapred.RowCounter
-
- createSubmittableJob(Configuration, String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.CellCounter
-
Sets up the actual job.
- createSubmittableJob(String[]) - 类 中的方法org.apache.hadoop.hbase.mapreduce.CopyTable
-
Sets up the actual job.
- createSubmittableJob(Configuration, String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.Export
-
Sets up the actual job.
- createSubmittableJob(String[]) - 类 中的方法org.apache.hadoop.hbase.mapreduce.HashTable
-
- createSubmittableJob(Configuration, String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.Import
-
Sets up the actual job.
- createSubmittableJob(Configuration, String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.ImportTsv
-
Sets up the actual job.
- createSubmittableJob(Configuration, String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.replication.VerifyReplication
-
Sets up the actual job.
- createSubmittableJob(Configuration, String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.RowCounter
-
Sets up the actual job.
- createSubmittableJob(String[]) - 类 中的方法org.apache.hadoop.hbase.mapreduce.SyncTable
-
- createSubmittableJob(String[]) - 类 中的方法org.apache.hadoop.hbase.mapreduce.WALPlayer
-
Sets up the actual job.
- createSubprocedure(String, byte[]) - 类 中的方法org.apache.hadoop.hbase.procedure.ProcedureMember
-
This is separated from execution so that we can detect and handle the case where the
subprocedure is invalid and inactionable due to bad info (like DISABLED snapshot type being
sent here)
- createSystemTable(HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- createSystemTable(HTableDescriptor) - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
Create a system table using the given table definition.
- createTable(HTableDescriptor, byte[][], long, long) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- createTable(RpcController, MasterProtos.CreateTableRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- createTable(HTableDescriptor, byte[][], long, long) - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
Create a table using the given table definition.
- createTableDescriptor(HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.util.FSTableDescriptors
-
Create new HTableDescriptor in HDFS.
- createTableDescriptor(HTableDescriptor, boolean) - 类 中的方法org.apache.hadoop.hbase.util.FSTableDescriptors
-
Create new HTableDescriptor in HDFS.
- createTableDescriptorForTableDirectory(Path, HTableDescriptor, boolean) - 类 中的方法org.apache.hadoop.hbase.util.FSTableDescriptors
-
Create a new HTableDescriptor in HDFS in the specified table directory.
- CreateTableHandler - org.apache.hadoop.hbase.master.handler中的类
-
Handler to create a table.
- CreateTableHandler(Server, MasterFileSystem, HTableDescriptor, Configuration, HRegionInfo[], MasterServices) - 类 的构造器org.apache.hadoop.hbase.master.handler.CreateTableHandler
-
- createTableLockManager(Configuration, ZooKeeperWatcher, ServerName) - 类 中的静态方法org.apache.hadoop.hbase.master.TableLockManager
-
Creates and returns a TableLockManager according to the configuration
- CreateTableProcedure - org.apache.hadoop.hbase.master.procedure中的类
-
- CreateTableProcedure() - 类 的构造器org.apache.hadoop.hbase.master.procedure.CreateTableProcedure
-
- CreateTableProcedure(MasterProcedureEnv, HTableDescriptor, HRegionInfo[]) - 类 的构造器org.apache.hadoop.hbase.master.procedure.CreateTableProcedure
-
- CreateTableProcedure(MasterProcedureEnv, HTableDescriptor, HRegionInfo[], ProcedurePrepareLatch) - 类 的构造器org.apache.hadoop.hbase.master.procedure.CreateTableProcedure
-
- CreateTableProcedure.CreateHdfsRegions - org.apache.hadoop.hbase.master.procedure中的接口
-
- createTempName() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
Generate a unique temporary Path.
- createTempName(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
Generate a unique temporary Path.
- createTmpWriter(Compactor.FileDetails, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.Compactor
-
Creates a writer for a new file in a temporary directory.
- createTopReference(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.io.Reference
-
- createValue() - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReader
-
- createValue() - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReaderImpl
-
- createVisibilityExpTags(String) - 类 中的方法org.apache.hadoop.hbase.mapreduce.DefaultVisibilityExpressionResolver
-
- createVisibilityExpTags(String) - 接口 中的方法org.apache.hadoop.hbase.mapreduce.VisibilityExpressionResolver
-
Convert visibility expression into tags to be serialized.
- createVisibilityExpTags(String, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.security.visibility.DefaultVisibilityLabelServiceImpl
-
- createVisibilityExpTags(String, boolean, boolean) - 接口 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityLabelService
-
Creates tags corresponding to given visibility expression.
- createVisibilityExpTags(String, boolean, boolean, Set<Integer>, VisibilityLabelOrdinalProvider) - 类 中的静态方法org.apache.hadoop.hbase.security.visibility.VisibilityUtils
-
- createVisibilityLabelFilter(Region, Authorizations) - 类 中的静态方法org.apache.hadoop.hbase.security.visibility.VisibilityUtils
-
- createWALWriter(FileSystem, Path) - 类 中的方法org.apache.hadoop.hbase.wal.WALFactory
-
Create a writer for the WAL.
- createWALWriter(FileSystem, Path, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.wal.WALFactory
-
If you already have a WALFactory, you should favor the instance method.
- createWrapper(List<HTableInterface>, TableName, CoprocessorHost.Environment, ExecutorService) - 类 中的静态方法org.apache.hadoop.hbase.client.HTableWrapper
-
- createWriter(FileSystem, Path, FSDataOutputStream, KeyValue.KVComparator, HFileContext) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFile.WriterFactory
-
- createWriter() - 接口 中的方法org.apache.hadoop.hbase.regionserver.AbstractMultiFileWriter.WriterFactory
-
- createWriter(InternalScanner, Compactor.FileDetails, boolean) - 接口 中的方法org.apache.hadoop.hbase.regionserver.compactions.Compactor.CellSinkFactory
-
- createWriter() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFlusher.BoundaryStripeFlushRequest
-
- createWriter() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFlusher.SizeStripeFlushRequest
-
- createWriter() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFlusher.StripeFlushRequest
-
- createWriter(Configuration, FileSystem, Path, boolean) - 类 中的静态方法org.apache.hadoop.hbase.wal.DefaultWALProvider
-
public because of FSHLog.
- createWriter(Path) - 类 中的方法org.apache.hadoop.hbase.wal.WALSplitter
-
- createWriterInstance(Path) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
This method allows subclasses to inject different writers without having to
extend other methods like rollWriter().
- createWriterInTmp(long, Compression.Algorithm, boolean, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- createWriterInTmp(long, Compression.Algorithm, boolean, boolean, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- createWriterInTmp(long, Compression.Algorithm, boolean, boolean, boolean, boolean, TimeRangeTracker) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- createWriterInTmp(long, Compression.Algorithm, boolean, boolean, boolean) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- createWriterInTmp(long, Compression.Algorithm, boolean, boolean, boolean, boolean) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- createWriterInTmp(long, Compression.Algorithm, boolean, boolean, boolean, boolean, TimeRangeTracker) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- CREDENTIALS_LOCATION - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.ImportTsv
-
- csm - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
- ctx - 类 中的变量org.apache.hadoop.hbase.replication.BaseReplicationEndpoint
-
- cur_worker_name - 类 中的变量org.apache.hadoop.hbase.master.SplitLogManager.Task
-
- CurCall - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcServer
-
This is set to Call object before Handler invokes an RPC and ybdie
after the call returns.
- current - 类 中的变量org.apache.hadoop.hbase.regionserver.KeyValueHeap
-
The current sub-scanner, i.e. the one that contains the next key/value
to return to the client.
- CURRENT_VERSION - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcServer
-
- currentClientHasMinimumVersion(int, int) - 类 中的静态方法org.apache.hadoop.hbase.client.VersionInfoUtil
-
- currentCompactedKVs - 类 中的变量org.apache.hadoop.hbase.regionserver.compactions.CompactionProgress
-
the completed count of key values in currently running compaction
- CurrentHourProvider - org.apache.hadoop.hbase.regionserver.compactions中的类
-
- currentQueueLimit - 类 中的变量org.apache.hadoop.hbase.ipc.RpcExecutor
-
- currentRow - 类 中的变量org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
Row the query is on
- currentRow() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
- currentTime() - 类 中的方法org.apache.hadoop.hbase.util.ManualEnvironmentEdge
-
- currKeyLen - 类 中的变量org.apache.hadoop.hbase.io.hfile.AbstractHFileReader.Scanner
-
- currMemstoreTS - 类 中的变量org.apache.hadoop.hbase.io.hfile.AbstractHFileReader.Scanner
-
- currMemstoreTSLen - 类 中的变量org.apache.hadoop.hbase.io.hfile.AbstractHFileReader.Scanner
-
- currValueLen - 类 中的变量org.apache.hadoop.hbase.io.hfile.AbstractHFileReader.Scanner
-
- generalBloomFilter - 类 中的变量org.apache.hadoop.hbase.regionserver.StoreFile.Reader
-
- GeneralBulkAssigner - org.apache.hadoop.hbase.master中的类
-
Run bulk assign.
- GeneralBulkAssigner(Server, Map<ServerName, List<HRegionInfo>>, AssignmentManager, boolean) - 类 的构造器org.apache.hadoop.hbase.master.GeneralBulkAssigner
-
- generateDeadServersListToSend() - 类 中的方法org.apache.hadoop.hbase.master.ClusterStatusPublisher
-
Create the dead server to send.
- generateExceptionForChecksumFailureForTest(boolean) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.ChecksumUtil
-
Mechanism to throw an exception in case of hbase checksum
failure.
- generateNewScannerId() - 类 中的方法org.apache.hadoop.hbase.regionserver.ScannerIdGenerator
-
- generateToken(String) - 类 中的方法org.apache.hadoop.hbase.security.token.AuthenticationTokenSecretManager
-
- get(Get) - 类 中的方法org.apache.hadoop.hbase.client.HTableWrapper
-
- get(List<Get>) - 类 中的方法org.apache.hadoop.hbase.client.HTableWrapper
-
- get(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.fs.HFileSystem
-
Create a new HFileSystem object, similar to FileSystem.get().
- get(Object) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFile.FileInfo
-
- get(String) - 类 中的方法org.apache.hadoop.hbase.master.TableNamespaceManager
-
- get() - 类 中的静态方法org.apache.hadoop.hbase.monitoring.TaskMonitor
-
Get singleton instance.
- get(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSkipListSet
-
- get(Get) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- get(Get, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- get(Get, boolean, long, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- get(Object) - 类 中的方法org.apache.hadoop.hbase.regionserver.LruHashMap
-
Retrieves the value associated with the specified key.
- get(Get) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Do a get based on the get parameter.
- get(Get, boolean) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Do a get based on the get parameter.
- get(Get, boolean, long, long) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Do a get for duplicate non-idempotent operation.
- get(RpcController, ClientProtos.GetRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
Get data from a table.
- get - 类 中的变量org.apache.hadoop.hbase.regionserver.StoreScanner
-
- get() - 类 中的静态方法org.apache.hadoop.hbase.security.visibility.VisibilityLabelsCache
-
- get(TableName) - 接口 中的方法org.apache.hadoop.hbase.TableDescriptors
-
- get(TableName) - 类 中的方法org.apache.hadoop.hbase.util.FSTableDescriptors
-
Get the current table descriptor for the given table, or null if none exists.
- get() - 类 中的方法org.apache.hadoop.hbase.util.SortedList
-
Returns a reference to the unmodifiable list currently backing the SortedList.
- get(int) - 类 中的方法org.apache.hadoop.hbase.util.SortedList
-
- get(String) - 类 中的方法org.apache.hadoop.hbase.ZKNamespaceManager
-
- get75thPercentile() - 类 中的方法org.apache.hadoop.hbase.io.hfile.AgeSnapshot
-
- get95thPercentile() - 类 中的方法org.apache.hadoop.hbase.io.hfile.AgeSnapshot
-
- get98thPercentile() - 类 中的方法org.apache.hadoop.hbase.io.hfile.AgeSnapshot
-
- get999thPercentile() - 类 中的方法org.apache.hadoop.hbase.io.hfile.AgeSnapshot
-
- get99thPercentile() - 类 中的方法org.apache.hadoop.hbase.io.hfile.AgeSnapshot
-
- getAbortable() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint.Context
-
- getAbortNode(ZKProcedureUtil, String) - 类 中的静态方法org.apache.hadoop.hbase.procedure.ZKProcedureUtil
-
Get the full znode path for the node used by the coordinator or member to trigger an abort
of the global barrier acquisition or execution in subprocedures.
- getAbortZNode(String) - 类 中的方法org.apache.hadoop.hbase.procedure.ZKProcedureUtil
-
- getAbortZnode() - 类 中的方法org.apache.hadoop.hbase.procedure.ZKProcedureUtil
-
- getAcquireBarrierNode(ZKProcedureUtil, String) - 类 中的静态方法org.apache.hadoop.hbase.procedure.ZKProcedureUtil
-
Get the full znode path for the node used by the coordinator to trigger a global barrier
acquire on each subprocedure.
- getAcquiredBarrier() - 类 中的方法org.apache.hadoop.hbase.procedure.ZKProcedureUtil
-
- getAcquiredBarrierNode(String) - 类 中的方法org.apache.hadoop.hbase.procedure.ZKProcedureUtil
-
- getAction() - 类 中的方法org.apache.hadoop.hbase.security.access.AuthResult
-
- getActiveHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
- getActiveHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.RWQueueRpcExecutor
-
- getActiveLogFiles() - 类 中的静态方法org.apache.hadoop.hbase.monitoring.LogMonitoring
-
- getActiveMaster() - 类 中的方法org.apache.hadoop.hbase.LocalHBaseCluster
-
Gets the current active master, if available.
- getActiveReadHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
- getActiveReadHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.RWQueueRpcExecutor
-
- getActiveReadRpcHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.FifoRpcScheduler
-
- getActiveReadRpcHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerWrapperImpl
-
- getActiveReadRpcHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcScheduler
-
Retrieves the number of active write rpc handler when use RWQueueRpcExecutor.
- getActiveReadRpcHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.SimpleRpcScheduler
-
- getActiveRpcHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.FifoRpcScheduler
-
- getActiveRpcHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerWrapperImpl
-
- getActiveRpcHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcScheduler
-
Retrieves the number of active handler.
- getActiveRpcHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.SimpleRpcScheduler
-
- getActiveScanHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
- getActiveScanHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.RWQueueRpcExecutor
-
- getActiveScanRpcHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.FifoRpcScheduler
-
- getActiveScanRpcHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerWrapperImpl
-
- getActiveScanRpcHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcScheduler
-
Retrieves the number of active write rpc handler when use RWQueueRpcExecutor.
- getActiveScanRpcHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.SimpleRpcScheduler
-
- getActiveTime() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapperImpl
-
- getActiveUser() - 类 中的静态方法org.apache.hadoop.hbase.security.visibility.VisibilityUtils
-
- getActiveWriteHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
- getActiveWriteHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.RWQueueRpcExecutor
-
- getActiveWriteRpcHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.FifoRpcScheduler
-
- getActiveWriteRpcHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerWrapperImpl
-
- getActiveWriteRpcHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcScheduler
-
Retrieves the number of active write rpc handler when use RWQueueRpcExecutor.
- getActiveWriteRpcHandlerCount() - 类 中的方法org.apache.hadoop.hbase.ipc.SimpleRpcScheduler
-
- getAdmin() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
Allows subclasses to get the
Admin.
- getAdmin() - 类 中的方法org.apache.hadoop.hbase.util.ConnectionCache
-
Caller doesn't close the admin afterwards.
- getAgeAtEvictionSnapshot() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getAgeInCacheSnapshot() - 类 中的方法org.apache.hadoop.hbase.io.hfile.BlockCacheUtil.CachedBlocksByFile
-
- getAgeOfLastAppliedOp() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.MetricsSink
-
Get the Age of Last Applied Op
- getAgeOfLastShippedOp() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.MetricsSource
-
Get AgeOfLastShippedOp
- getAll() - 接口 中的方法org.apache.hadoop.hbase.TableDescriptors
-
Get Map of all HTableDescriptors.
- getAll() - 类 中的方法org.apache.hadoop.hbase.util.FSTableDescriptors
-
Returns a map from table name to table descriptor for all tables.
- getAllExecutorStatuses() - 类 中的方法org.apache.hadoop.hbase.executor.ExecutorService
-
- getAllocator() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketCache
-
- getAndRemoveScopes() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WALEdit
-
- getAndResetChecksumFailuresCount() - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.HFile
-
Number of checksum verification failures.
- getAnnotatedPriority(RPCProtos.RequestHeader) - 类 中的方法org.apache.hadoop.hbase.regionserver.AnnotationReadingPriorityFunction
-
See if the method has an annotation.
- getArchivedStoreFilesCount() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotInfo.SnapshotStats
-
已过时。
- getArchivedStoreFileSize() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotInfo.SnapshotStats
-
已过时。
- getArchivePath() - 类 中的方法org.apache.hadoop.hbase.io.HFileLink
-
- getArchivePath(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.HFileArchiveUtil
-
- getArchiveZNode(Configuration, ZooKeeperWatcher) - 类 中的静态方法org.apache.hadoop.hbase.backup.example.ZKTableArchiveClient
-
- getArchivingEnabled(byte[]) - 类 中的方法org.apache.hadoop.hbase.backup.example.ZKTableArchiveClient
-
Determine if archiving is enabled (but not necessarily fully propagated) for a table
- getArchivingEnabled(String) - 类 中的方法org.apache.hadoop.hbase.backup.example.ZKTableArchiveClient
-
Determine if archiving is enabled (but not necessarily fully propagated) for a table
- getAssignmentManager() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getAssignmentManager() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- getAssignmentManager() - 类 中的方法org.apache.hadoop.hbase.tmpl.master.AssignmentManagerStatusTmpl.ImplData
-
- getAssignmentManager() - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl.ImplData
-
- getAssignmentManager__IsNotDefault() - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl.ImplData
-
- getAssignmentMap() - 类 中的方法org.apache.hadoop.hbase.master.balancer.FavoredNodesPlan
-
- getAssignmentsByTable() - 类 中的方法org.apache.hadoop.hbase.master.RegionStates
-
This is an EXPENSIVE clone.
- getAttribute(String) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
Get the value in the webapp context.
- getAttributesKeyColumnIndex() - 类 中的方法org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser
-
- getAuthenticationToken(RpcController, AuthenticationProtos.GetAuthenticationTokenRequest, RpcCallback<AuthenticationProtos.GetAuthenticationTokenResponse>) - 类 中的方法org.apache.hadoop.hbase.security.token.TokenProvider
-
- getAuthManager() - 类 中的方法org.apache.hadoop.hbase.security.access.AccessChecker
-
- getAuthManager() - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- getAuths(byte[], boolean) - 类 中的方法org.apache.hadoop.hbase.security.visibility.DefaultVisibilityLabelServiceImpl
-
已过时。
- getAuths(RpcController, VisibilityLabelsProtos.GetAuthsRequest, RpcCallback<VisibilityLabelsProtos.GetAuthsResponse>) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityController
-
- getAuths(byte[], boolean) - 接口 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityLabelService
-
- getAvailable() - 类 中的方法org.apache.hadoop.hbase.quotas.RateLimiter
-
- getAvailablePath(FileSystem) - 类 中的方法org.apache.hadoop.hbase.io.FileLink
-
- getAverageLoad() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
Compute the average load across all region servers.
- getAverageLoad() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapperImpl
-
- getAverageLoad() - 类 中的方法org.apache.hadoop.hbase.master.RegionStates
-
Compute the average load across all region servers.
- getAverageLoad() - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
Compute the average load across all region servers.
- getAvg(RpcController, AggregateProtos.AggregateRequest, RpcCallback<AggregateProtos.AggregateResponse>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.AggregateImplementation
-
Gives a Pair with first object as Sum and second object as row count,
computed for a given combination of column qualifier and column family in
the given row range as defined in the Scan object.
- getAvgStoreFileAge() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getAvgStoreFileAge() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getAvgStoreFileAge() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getBackingFs() - 类 中的方法org.apache.hadoop.hbase.fs.HFileSystem
-
Returns the underlying filesystem
- getBackReferenceFileName(Path) - 类 中的静态方法org.apache.hadoop.hbase.io.FileLink
-
Get the referenced file name from the reference link directory path.
- getBackReferencesDir(Path, String) - 类 中的静态方法org.apache.hadoop.hbase.io.FileLink
-
Get the directory to store the link back references
To simplify the reference count process, during the FileLink creation
a back-reference is added to the back-reference directory of the specified file.
- getBackupZooKeeperServerNum() - 类 中的方法org.apache.hadoop.hbase.zookeeper.MiniZooKeeperCluster
-
- getBadLineCount() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TextSortReducer
-
- getBadLineCount() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TsvImporterMapper
-
- getBadLineCount() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TsvImporterTextMapper
-
- getBalancer(int) - 类 中的静态方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
- getBalancer() - 类 中的方法org.apache.hadoop.hbase.master.AssignmentManager
-
- getBaseOffset() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketAllocator.Bucket
-
- getBasePriority(RPCProtos.RequestHeader, Message) - 类 中的方法org.apache.hadoop.hbase.regionserver.AnnotationReadingPriorityFunction
-
Get the priority for a given request from the header and the param
This doesn't consider which user is sending the request at all.
- getBaseZnode() - 类 中的方法org.apache.hadoop.hbase.procedure.ZKProcedureUtil
-
- getBatch() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionScanner
-
- getBcn() - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.BlockCacheViewTmpl.ImplData
-
- getBcn() - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.RSStatusTmpl.ImplData
-
- getBcn__IsNotDefault() - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.RSStatusTmpl.ImplData
-
- getBcv() - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.BlockCacheViewTmpl.ImplData
-
- getBcv() - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.RSStatusTmpl.ImplData
-
- getBcv__IsNotDefault() - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.RSStatusTmpl.ImplData
-
- getBestLocations(Configuration, HDFSBlocksDistribution) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl
-
This computes the locations to be passed from the InputSplit.
- getBlock(BlockCacheKey, boolean, boolean, boolean) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.BlockCache
-
Fetch block from cache.
- getBlock(BlockCacheKey, boolean, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketCache
-
Get the buffer of the block with the specified key.
- getBlock(BlockCacheKey, boolean, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache
-
- getBlock(BlockCacheKey, boolean, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.InclusiveCombinedBlockCache
-
- getBlock(BlockCacheKey, boolean, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
Get the buffer of the block with the specified name.
- getBlockCache() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
Returns the block cache.
- getBlockCaches() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.BlockCache
-
- getBlockCaches() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketCache
-
- getBlockCaches() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache
-
- getBlockCaches() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
- getBlockCacheSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerResult
-
- getBlockCount() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.BlockCache
-
Returns the number of blocks currently cached in the block cache.
- getBlockCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketCache
-
- getBlockCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache
-
- getBlockCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
- getBlockedFlushCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerContext
-
- getBlockedRequestsCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getBlockedRequestsCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- getBlockingFileCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getBlockingFileCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreConfigInformation
-
The number of files required before flushes for this store will be blocked.
- getBlockingService() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer.BlockingServiceAndInterface
-
- getBlockLocalityIndex(String) - 类 中的方法org.apache.hadoop.hbase.HDFSBlocksDistribution
-
return the locality index of a given host
- getBlockPriority() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.CachedBlock
-
- getBlockType() - 类 中的方法org.apache.hadoop.hbase.io.hfile.BlockCacheKey
-
- getBlockType() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.Cacheable
-
- getBlockType() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.CachedBlock
-
- getBlockType() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlock
-
- getBloomBlockSize(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.BloomFilterFactory
-
- getBloomChunkHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getBloomChunkHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getBloomChunkMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getBloomChunkMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getBloomFilterType() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile.Reader
-
- getBoundaries() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.DateTieredCompactionRequest
-
- getBucketIndex(long) - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketAllocator
-
- getBuckets() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketAllocator
-
- getBucketSize() - 类 中的方法org.apache.hadoop.hbase.util.LossyCounting
-
- getBuffer() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruCachedBlock
-
- getBufferReadOnly() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlock
-
Returns a read-only duplicate of the buffer this block stores internally ready to be read.
- getBufferWithoutHeader() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlock
-
Returns a buffer that does not include the header or checksum.
- getBuilder(WALCellCodec.ByteStringCompressor) - 类 中的方法org.apache.hadoop.hbase.wal.WALKey
-
- getBulkLoadDescriptor(Cell) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.wal.WALEdit
-
Deserialized and returns a BulkLoadDescriptor from the passed in Cell
- getBulkLoadTimestamp() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
Return the timestamp at which this bulk load file was generated.
- getByNamespace(String) - 接口 中的方法org.apache.hadoop.hbase.TableDescriptors
-
Get Map of all NamespaceDescriptors for a given namespace.
- getByNamespace(String) - 类 中的方法org.apache.hadoop.hbase.util.FSTableDescriptors
-
- getBytes() - 类 中的方法org.apache.hadoop.hbase.util.HashedBytes
-
- getByteSize() - 接口 中的方法org.apache.hadoop.hbase.util.BloomFilterBase
-
- getByteSize() - 类 中的方法org.apache.hadoop.hbase.util.ByteBloomFilter
-
- getByteSize() - 类 中的方法org.apache.hadoop.hbase.util.CompoundBloomFilterBase
-
- getBytesPerChecksum(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HStore
-
Returns the configured bytesPerChecksum value.
- getByteStream() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlock
-
- getByteStringCompressor() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WALCellCodec
-
- getByteStringUncompressor() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WALCellCodec
-
- getCacheConfig() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getCacheConfig() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getCacheConfig() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
Used for tests.
- getCacheConfig() - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.BlockCacheTmpl.ImplData
-
- getCacheConfig() - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.BlockCacheViewTmpl.ImplData
-
- getCachedBlockStatsByFile() - 类 中的方法org.apache.hadoop.hbase.io.hfile.BlockCacheUtil.CachedBlocksByFile
-
- getCachedTime() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.CachedBlock
-
- getCachedTime() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruCachedBlock
-
- getCacheKey() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruCachedBlock
-
- getCacheMissCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerContext
-
- getCacheOnWrite() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlockIndex.BlockIndexWriter
-
- getCacheOnWrite() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.InlineBlockWriter
-
- getCacheOnWrite() - 类 中的方法org.apache.hadoop.hbase.util.CompoundBloomFilterWriter
-
- getCall() - 类 中的方法org.apache.hadoop.hbase.ipc.CallRunner
-
- getCallRunner() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor.Handler
-
- getCandidateFilesForRowKeyBefore(KeyValue) - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFileManager
-
Gets initial, full list of candidate store files to check for row-key-before.
- getCandidateFilesForRowKeyBefore(KeyValue) - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- getCatalogJanitorEnabled() - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl.ImplData
-
- getCatalogJanitorEnabled__IsNotDefault() - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl.ImplData
-
- getCellBufSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2.ScannerV2
-
- getCellBufSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV3.ScannerV3
-
- getCellPermissionsForUser(User, Cell) - 类 中的静态方法org.apache.hadoop.hbase.security.access.AccessControlLists
-
- getCells() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WALEdit
-
- getCellsCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreSnapshot
-
- getCellTTLColumnIndex() - 类 中的方法org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser
-
- getCellVisibilityColumnIndex() - 类 中的方法org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser
-
- getCheckAndMutateChecksFailed() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getCheckAndMutateChecksFailed() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- getCheckAndMutateChecksPassed() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getCheckAndMutateChecksPassed() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- getChecksumFailures() - 类 中的方法org.apache.hadoop.hbase.io.MetricsIOWrapperImpl
-
- getChecksumFailuresCount() - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.HFile
-
Number of checksum verification failures.
- getChecksumType(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HStore
-
Returns the configured checksum algorithm.
- getChildExps() - 类 中的方法org.apache.hadoop.hbase.security.visibility.expression.NonLeafExpressionNode
-
- getChildSequenceId(String) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.lock.ZKInterProcessLockBase.ZNodeComparator
-
Parses sequenceId from the znode name.
- getChoreService() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getChoreService() - 接口 中的方法org.apache.hadoop.hbase.Server
-
- getClassLoader() - 类 中的方法org.apache.hadoop.hbase.coprocessor.CoprocessorHost.Environment
-
- getCleanerThreads() - 类 中的方法org.apache.hadoop.hbase.master.cleaner.HFileCleaner
-
- getClient(ServerName) - 类 中的方法org.apache.hadoop.hbase.client.CoprocessorHConnection
-
- getClient() - 接口 中的方法org.apache.hadoop.hbase.monitoring.MonitoredRPCHandler
-
- getClient() - 类 中的方法org.apache.hadoop.hbase.monitoring.MonitoredRPCHandlerImpl
-
If an RPC call is currently running, produces a String representation of
the connection from which it was received.
- getClientPort() - 类 中的方法org.apache.hadoop.hbase.zookeeper.MiniZooKeeperCluster
-
- getClientPortList() - 类 中的方法org.apache.hadoop.hbase.zookeeper.MiniZooKeeperCluster
-
Get the list of client ports.
- getClientVersionInfo() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCallContext
-
- getClientVersionInfo() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer.Call
-
- getCloseCheckInterval() - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HStore
-
- getCloseRegionCoordination() - 类 中的方法org.apache.hadoop.hbase.coordination.BaseCoordinatedStateManager
-
Method to retrieve coordination for closing region operations.
- getCloseRegionCoordination() - 类 中的方法org.apache.hadoop.hbase.coordination.ZkCoordinatedStateManager
-
- getClosestRowBefore(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getClosestRowBefore(byte[], byte[]) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Return all the data for the row that matches row exactly,
or the one that immediately preceeds it, at or immediately before
ts.
- getClusterId() - 类 中的方法org.apache.hadoop.hbase.master.MasterFileSystem
-
- getClusterId() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapperImpl
-
- getClusterId() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getClusterId() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint.Context
-
- getClusterId(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Returns the value of the unique cluster ID stored for this HBase instance.
- getClusterIds() - 类 中的方法org.apache.hadoop.hbase.regionserver.BaseRowProcessor
-
- getClusterIds() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RowProcessor
-
- getClusterIds() - 类 中的方法org.apache.hadoop.hbase.wal.WALKey
-
- getClusterStatus() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getClusterStatus(RpcController, MasterProtos.GetClusterStatusRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- getClusterStatusWithoutCoprocessor() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getCode() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices.RegionStateTransitionContext
-
- getCodec(Configuration, String, CompressionContext) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- getCodec(Configuration, CompressionContext) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogWriter
-
- getCodec(Configuration, Encryptor) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.wal.SecureWALCellCodec
-
- getCodec(Configuration, Decryptor) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.wal.SecureWALCellCodec
-
- getCodecClsName() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- getColumnFamilyName() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getColumnFamilyName() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getColumnHint() - 接口 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ColumnTracker
-
Used by matcher and scan/get to get a hint of the next column
to seek to after checkColumn() returns SKIP.
- getColumnHint() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ExplicitColumnTracker
-
- getColumnHint() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanWildcardColumnTracker
-
Used by matcher and scan/get to get a hint of the next column to seek to after checkColumn()
returns SKIP.
- getCompactedCellsCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getCompactedCellsCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getCompactedCellsSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getCompactedCellsSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getCompactedfiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getCompactedfiles() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFileManager
-
List of compacted files inside this store that needs to be excluded in reads
because further new reads will be using only the newly created files out of compaction.
- getCompactedfiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- getCompaction(Cell) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.wal.WALEdit
-
Deserialized and returns a CompactionDescriptor is the KeyValue contains one.
- getCompactionCheckMultiplier() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getCompactionCheckMultiplier() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreConfigInformation
-
- getCompactionPolicy() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreEngine
-
- getCompactionPolicyForDateTieredWindow() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionConfiguration
-
- getCompactionPressure() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getCompactionPressure() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getCompactionPressure() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
- getCompactionPressure() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
This value can represent the degree of emergency of compaction for this store.
- getCompactionPressure() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFileManager
-
- getCompactionPressure() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- getCompactionProgress() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getCompactionProgress() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
getter for CompactionProgress object
- getCompactionQueueSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplitThread
-
Returns the current size of the queue containing regions that are
processed.
- getCompactionRatio() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionConfiguration
-
- getCompactionRatioOffPeak() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionConfiguration
-
- getCompactionRequester() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getCompactionRequester() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
- getCompactionState() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getCompactionState() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- getCompactionThroughputController() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplitThread
-
- getCompactor() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreEngine
-
- getCompactPriority() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getCompactPriority() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getCompactPriority() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getCompactSplitThread() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getComparator() - 类 中的方法org.apache.hadoop.hbase.io.hfile.AbstractHFileReader
-
- getComparator() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
- getComparator() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getComparator() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getComparator() - 类 中的方法org.apache.hadoop.hbase.regionserver.KeyValueHeap.KVScannerComparator
-
- getComparator() - 类 中的方法org.apache.hadoop.hbase.regionserver.ScanInfo
-
- getComparator() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getComparator() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
- getComparator() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile.Reader
-
- getComparator() - 接口 中的方法org.apache.hadoop.hbase.util.BloomFilterBase
-
- getComparator() - 类 中的方法org.apache.hadoop.hbase.util.ByteBloomFilter
-
- getComparator() - 类 中的方法org.apache.hadoop.hbase.util.CompoundBloomFilter
-
- getComparator() - 类 中的方法org.apache.hadoop.hbase.util.CompoundBloomFilterBase
-
- getComparatorClassName() - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- getCompletedSnapshotDir(HBaseProtos.SnapshotDescription, Path) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils
-
Get the directory for a specified snapshot.
- getCompletedSnapshotDir(String, Path) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils
-
Get the directory for a completed snapshot.
- getCompletedSnapshots(RpcController, MasterProtos.GetCompletedSnapshotsRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
List the currently available/stored snapshots.
- getCompletedSnapshots() - 类 中的方法org.apache.hadoop.hbase.master.snapshot.SnapshotManager
-
Gets the list of all completed snapshots.
- getCompletionTimestamp() - 类 中的方法org.apache.hadoop.hbase.master.snapshot.CloneSnapshotHandler
-
- getCompletionTimestamp() - 类 中的方法org.apache.hadoop.hbase.master.snapshot.RestoreSnapshotHandler
-
- getCompletionTimestamp() - 类 中的方法org.apache.hadoop.hbase.master.snapshot.TakeSnapshotHandler
-
- getCompletionTimestamp() - 接口 中的方法org.apache.hadoop.hbase.master.SnapshotSentinel
-
- getCompletionTimestamp() - 接口 中的方法org.apache.hadoop.hbase.monitoring.MonitoredTask
-
- getCompressionAlgorithm() - 类 中的方法org.apache.hadoop.hbase.io.hfile.AbstractHFileReader
-
- getCompressionAlgorithm() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
- getCompressionCodec() - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- getConf() - 类 中的方法org.apache.hadoop.hbase.io.hfile.AbstractHFileReader
-
- getConf() - 类 中的方法org.apache.hadoop.hbase.mapreduce.DefaultVisibilityExpressionResolver
-
- getConf() - 类 中的方法org.apache.hadoop.hbase.mapreduce.GroupingTableMapper
-
Returns the current configuration.
- getConf() - 类 中的方法org.apache.hadoop.hbase.mapreduce.HRegionPartitioner
-
Returns the current configuration.
- getConf() - 类 中的方法org.apache.hadoop.hbase.mapreduce.MultiTableInputFormat
-
Returns the current configuration.
- getConf() - 类 中的方法org.apache.hadoop.hbase.mapreduce.SimpleTotalOrderPartitioner
-
- getConf() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
Returns the current configuration.
- getConf() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableOutputFormat
-
- getConf() - 类 中的方法org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer
-
- getConf() - 类 中的方法org.apache.hadoop.hbase.migration.NamespaceUpgrade
-
- getConf() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionPolicy
-
- getConf() - 类 中的方法org.apache.hadoop.hbase.regionserver.NoOpHeapMemoryTuner
-
- getConf() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionMergeTransactionFactory
-
- getConf() - 类 中的方法org.apache.hadoop.hbase.regionserver.SplitTransactionFactory
-
- getConf(Configuration, String) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.DefaultSourceFSConfigurationProvider
-
- getConf(Configuration, String) - 接口 中的方法org.apache.hadoop.hbase.replication.regionserver.SourceFSConfigurationProvider
-
Returns the source cluster file system configuration for the given source cluster replication
ID.
- getConf() - 类 中的方法org.apache.hadoop.hbase.security.visibility.DefaultVisibilityLabelServiceImpl
-
- getConf() - 类 中的方法org.apache.hadoop.hbase.security.visibility.DefinedSetFilterScanLabelGenerator
-
- getConf() - 类 中的方法org.apache.hadoop.hbase.security.visibility.EnforcingScanLabelGenerator
-
- getConf() - 类 中的方法org.apache.hadoop.hbase.security.visibility.FeedUserAuthScanLabelGenerator
-
- getConf() - 类 中的方法org.apache.hadoop.hbase.security.visibility.SimpleScanLabelGenerator
-
- getConf() - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.BlockCacheViewTmpl.ImplData
-
- getConf() - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool
-
- getConf() - 类 中的方法org.apache.hadoop.hbase.util.MapreduceDependencyClasspathTool
-
- getConfig() - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.BlockCacheTmpl.ImplData
-
- getConfiguration() - 类 中的方法org.apache.hadoop.hbase.client.HTableWrapper
-
- getConfiguration() - 类 中的方法org.apache.hadoop.hbase.coprocessor.CoprocessorHost.Environment
-
- getConfiguration() - 类 中的方法org.apache.hadoop.hbase.LocalHBaseCluster
-
- getConfiguration() - 类 中的方法org.apache.hadoop.hbase.master.MasterFileSystem
-
- getConfiguration() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getConfiguration() - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
- getConfiguration() - 类 中的方法org.apache.hadoop.hbase.regionserver.ScanInfo
-
- getConfiguration() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint.Context
-
- getConfiguration() - 接口 中的方法org.apache.hadoop.hbase.Server
-
Gets the configuration object for this server.
- getConfigurationManager() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getConnection(SocketChannel, long) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer
-
Subclasses of HBaseServer can override this to provide their own
Connection implementations.
- getConnection() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getConnection() - 接口 中的方法org.apache.hadoop.hbase.Server
-
Returns a reference to the servers' cluster connection.
- getConnectionForEnvironment(CoprocessorEnvironment) - 类 中的静态方法org.apache.hadoop.hbase.client.CoprocessorHConnection
-
Create an unmanaged
HConnection based on the environment in which we are running the
coprocessor.
- getConnectorAddress(int) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
Get the address that corresponds to a particular connector.
- getContext() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion.RowLockImpl
-
- getCoordinatedStateManager(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.CoordinatedStateManagerFactory
-
Creates consensus provider from the given configuration.
- getCoordinatedStateManager() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getCoordinatedStateManager() - 接口 中的方法org.apache.hadoop.hbase.Server
-
Get CoordinatedStateManager instance for this server.
- getCoprocessorHost() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getCoprocessorHost() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getCoprocessorHost() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- getCoprocessorHost() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getCoprocessorHost() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
- getCoprocessorHost() - 接口 中的方法org.apache.hadoop.hbase.wal.WAL
-
- getCoprocessors() - 类 中的方法org.apache.hadoop.hbase.coprocessor.CoprocessorHost
-
Used to create a parameter to the HServerLoad constructor so that
HServerLoad can provide information about the coprocessors loaded by this
regionserver.
- getCoprocessors() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapperImpl
-
- getCorrupted() - 类 中的方法org.apache.hadoop.hbase.util.hbck.HFileCorruptionChecker
-
- getCorruptedStoreFilesCount() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotInfo.SnapshotStats
-
已过时。
- getCostFunctionNames() - 类 中的方法org.apache.hadoop.hbase.master.balancer.StochasticLoadBalancer
-
Get the names of the cost functions
- getCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.BlockCacheUtil.CachedBlocksByFile
-
- getCreatedTimestamp() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
- getCurBlockCacheSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerContext
-
- getCurBlockCacheUsed() - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerContext
-
- getCurMemStoreSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerContext
-
- getCurMemStoreUsed() - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerContext
-
- getCurrentCall() - 类 中的静态方法org.apache.hadoop.hbase.ipc.RpcServer
-
Needed for features such as delayed calls.
- getCurrentCompactedKvs() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionProgress
-
- getCurrentDataSize() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.BlockCache
-
Returns the occupied size of data blocks, in bytes.
- getCurrentDataSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketCache
-
- getCurrentDataSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache
-
- getCurrentDataSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
- getCurrentEligibleFiles(ArrayList<StoreFile>, List<StoreFile>) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.SortedCompactionPolicy
-
- getCurrentFileName() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
This is a convenience method that computes a new filename with a given
using the current WAL file-number
- getCurrentFileName(WAL) - 类 中的静态方法org.apache.hadoop.hbase.wal.DefaultWALProvider
-
return the current filename from the current wal.
- getCurrentFileSystem(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
- getCurrentHash() - 类 中的方法org.apache.hadoop.hbase.mapreduce.HashTable.TableHash.Reader
-
Get the current hash
- getCurrentHour() - 类 中的静态方法org.apache.hadoop.hbase.regionserver.compactions.CurrentHourProvider
-
- getCurrentKey() - 类 中的方法org.apache.hadoop.hbase.mapreduce.HashTable.TableHash.Reader
-
Get the current key
- getCurrentKey() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableRecordReader
-
Returns the current key.
- getCurrentKey() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableRecordReaderImpl
-
Returns the current key.
- getCurrentKey() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl.RecordReader
-
- getCurrentPath() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSource
-
- getCurrentPath() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSource.ReplicationSourceShipperThread
-
- getCurrentPath() - 接口 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSourceInterface
-
Get the current log that's replicated
- getCurrentPath() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSourceWALReaderThread
-
- getCurrentPath() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.WALEntryStream
-
- getCurrentSize() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.BlockCache
-
Returns the occupied size of the block cache, in bytes.
- getCurrentSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketCache
-
- getCurrentSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache
-
- getCurrentSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
- getCurrentTerm() - 类 中的方法org.apache.hadoop.hbase.util.LossyCounting
-
- getCurrentValue() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableRecordReader
-
Returns the current value.
- getCurrentValue() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableRecordReaderImpl
-
Returns the current value.
- getCurrentValue() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl.RecordReader
-
- getCurTaskZKVersion() - 类 中的方法org.apache.hadoop.hbase.coordination.ZkSplitLogWorkerCoordination.ZkSplitTaskDetails
-
- getDataBlockCount() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.BlockCache
-
Returns the number of data blocks currently cached in the block cache.
- getDataBlockCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketCache
-
- getDataBlockCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache
-
- getDataBlockCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
- getDataBlockEncoder() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getDataBlockEncoder() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getDataBlockEncoding() - 类 中的方法org.apache.hadoop.hbase.io.hfile.AbstractHFileReader
-
- getDataBlockEncoding() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
- getDataBlockEncoding() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlock
-
- getDataBlockEncoding() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFileDataBlockEncoder
-
- getDataBlockEncoding() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileDataBlockEncoderImpl
-
- getDataBlockEncoding() - 类 中的方法org.apache.hadoop.hbase.io.hfile.NoOpDataBlockEncoder
-
- getDataBlockEncodingId() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlock
-
- getDataBlockIndexReader() - 类 中的方法org.apache.hadoop.hbase.io.hfile.AbstractHFileReader
-
- getDataBlockIndexReader() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
- getDataCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.BlockCacheUtil.CachedBlocksByFile
-
- getDataHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getDataHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getDataIndexCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- getDataInMemoryWithoutWAL() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getDataInMemoryWithoutWAL() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- getDataMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getDataMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getDataSetWatchAsync() - 类 中的方法org.apache.hadoop.hbase.coordination.ZkSplitLogWorkerCoordination
-
- getDataSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.BlockCacheUtil.CachedBlocksByFile
-
- getDataSize() - 类 中的方法org.apache.hadoop.hbase.util.LossyCounting
-
- getDataToWriteToZooKeeper(Map<String, Integer>) - 类 中的静态方法org.apache.hadoop.hbase.security.visibility.VisibilityUtils
-
Creates the labels data to be written to zookeeper.
- getDataWriter() - 接口 中的方法org.apache.hadoop.hbase.util.BloomFilterWriter
-
Get a writable interface into bloom filter data (the actual Bloom bits).
- getDataWriter() - 类 中的方法org.apache.hadoop.hbase.util.ByteBloomFilter
-
- getDataWriter() - 类 中的方法org.apache.hadoop.hbase.util.CompoundBloomFilterWriter
-
- getDateTieredCompactionWindowFactory() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionConfiguration
-
- getDateTieredIncomingWindowMin() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionConfiguration
-
- getDateTieredMaxStoreFileAgeMillis() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionConfiguration
-
- getDeadline(RPCProtos.RequestHeader, Message) - 接口 中的方法org.apache.hadoop.hbase.ipc.PriorityFunction
-
Returns the deadline of the specified request.
- getDeadline() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCallContext
-
Return the deadline of this call.
- getDeadline() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer.Call
-
- getDeadline(RPCProtos.RequestHeader, Message) - 类 中的方法org.apache.hadoop.hbase.regionserver.AnnotationReadingPriorityFunction
-
Based on the request content, returns the deadline of the request.
- getDeadline(RPCProtos.RequestHeader, Message) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
- getDeadRegionServers() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapperImpl
-
- getDeadServers(long) - 类 中的方法org.apache.hadoop.hbase.master.ClusterStatusPublisher
-
Get the servers which died since a given timestamp.
- getDeadServers() - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
- getDeadServers() - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl.ImplData
-
- getDeadServers__IsNotDefault() - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl.ImplData
-
- getDecoder(InputStream) - 类 中的方法org.apache.hadoop.hbase.codec.MessageCodec
-
- getDecoder(InputStream) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.SecureWALCellCodec
-
- getDecoder(InputStream) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WALCellCodec
-
- getDefaultBlockSize(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Return the number of bytes that large input files should be optimally
be split into to minimize i/o time.
- getDefaultBufferSize(FileSystem) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Returns the default buffer size to use during writes.
- getDefaultDetails() - 接口 中的方法org.apache.hadoop.hbase.coordination.RegionMergeCoordination
-
- getDefaultDetails() - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitTransactionCoordination
-
- getDefaultDetails() - 类 中的方法org.apache.hadoop.hbase.coordination.ZkRegionMergeCoordination
-
- getDefaultDetails() - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitTransactionCoordination
-
- getDefaultLoadBalancerClass() - 类 中的静态方法org.apache.hadoop.hbase.master.balancer.LoadBalancerFactory
-
- getDefaultReplication(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
- getDelegatesForTesting() - 类 中的方法org.apache.hadoop.hbase.master.cleaner.HFileCleaner
-
Exposed for TESTING!
- getDeletableFiles(Iterable<FileStatus>) - 类 中的方法org.apache.hadoop.hbase.master.cleaner.BaseFileCleanerDelegate
-
- getDeletableFiles(Iterable<FileStatus>) - 接口 中的方法org.apache.hadoop.hbase.master.cleaner.FileCleanerDelegate
-
Determines which of the given files are safe to delete
- getDeletableFiles(Iterable<FileStatus>) - 类 中的方法org.apache.hadoop.hbase.master.snapshot.SnapshotHFileCleaner
-
- getDeletableFiles(Iterable<FileStatus>) - 类 中的方法org.apache.hadoop.hbase.replication.master.ReplicationHFileCleaner
-
- getDeletableFiles(Iterable<FileStatus>) - 类 中的方法org.apache.hadoop.hbase.replication.master.ReplicationLogCleaner
-
- getDeleteBloomFilterMetadata() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
Retrieves delete family Bloom filter metadata as appropriate for each
HFile version.
- getDeleteBloomFilterMetadata() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2
-
- getDeleteFamilyBloomHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getDeleteFamilyBloomHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getDeleteFamilyBloomMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getDeleteFamilyBloomMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getDeleteFamilyCnt() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile.Reader
-
- getDependants() - 类 中的方法org.apache.hadoop.hbase.generated.master.master_jsp
-
- getDependants() - 类 中的方法org.apache.hadoop.hbase.generated.master.procedures_jsp
-
- getDependants() - 类 中的方法org.apache.hadoop.hbase.generated.master.snapshot_jsp
-
- getDependants() - 类 中的方法org.apache.hadoop.hbase.generated.master.snapshotsStats_jsp
-
- getDependants() - 类 中的方法org.apache.hadoop.hbase.generated.master.table_jsp
-
- getDependants() - 类 中的方法org.apache.hadoop.hbase.generated.master.tablesDetailed_jsp
-
- getDependants() - 类 中的方法org.apache.hadoop.hbase.generated.master.zk_jsp
-
- getDependants() - 类 中的方法org.apache.hadoop.hbase.generated.regionserver.region_jsp
-
- getDependants() - 类 中的方法org.apache.hadoop.hbase.generated.regionserver.regionserver_jsp
-
- getDependants() - 类 中的方法org.apache.hadoop.hbase.generated.regionserver.storeFile_jsp
-
- getDescription() - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureUtil.NonceProcedureRunnable
-
- getDescription() - 接口 中的方法org.apache.hadoop.hbase.monitoring.MonitoredTask
-
- getDeserialiserIdentifier() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.CacheableDeserializer
-
Get the identifier of this deserialiser.
- getDeserialiserMap() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketCache
-
- getDeserializer() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.Cacheable
-
Returns CacheableDeserializer instance which reconstructs original object from ByteBuffer.
- getDeserializer(int) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.CacheableDeserializerIdManager
-
Get the cacheable deserializer as the given identifier Id
- getDeserializer() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlock
-
- getDeserializer(Class<KeyValue>) - 类 中的方法org.apache.hadoop.hbase.mapreduce.KeyValueSerialization
-
- getDeserializer(Class<Mutation>) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MutationSerialization
-
- getDeserializer(Class<Result>) - 类 中的方法org.apache.hadoop.hbase.mapreduce.ResultSerialization
-
- getDestination() - 类 中的方法org.apache.hadoop.hbase.master.RegionPlan
-
Get the destination server for the plan for this region.
- getDetails() - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogManagerCoordination
-
Returns the configuration that was provided previously
- getDetails() - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination
-
- getDetailsForNonCoordinatedOpening() - 接口 中的方法org.apache.hadoop.hbase.coordination.OpenRegionCoordination
-
Get details object with params for case when we're opening on
regionserver side with all "default" properties.
- getDetailsForNonCoordinatedOpening() - 类 中的方法org.apache.hadoop.hbase.coordination.ZkOpenRegionCoordination
-
No ZK tracking will be performed for that case.
- getDetaultDetails() - 接口 中的方法org.apache.hadoop.hbase.coordination.CloseRegionCoordination
-
Get details object with params for case when we're closing on
regionserver side internally (not because of RPC call from master),
so we don't parse details from protobuf request.
- getDetaultDetails() - 类 中的方法org.apache.hadoop.hbase.coordination.ZkCloseRegionCoordination
-
No ZK tracking will be performed for that case.
- getDeterministicRandomSeed(Collection<StoreFile>) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.StoreUtils
-
Creates a deterministic hash code for store file collection.
- getDeviation() - 类 中的方法org.apache.hadoop.hbase.util.RollingStatCalculator
-
- getDirectMemorySize() - 类 中的静态方法org.apache.hadoop.hbase.util.DirectMemoryUtils
-
- getDirectMemoryUsage() - 类 中的静态方法org.apache.hadoop.hbase.util.DirectMemoryUtils
-
- getDispersionInformation() - 类 中的方法org.apache.hadoop.hbase.master.AssignmentVerificationReport
-
- getDrainingServersList() - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
- getDumpServlet() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getDumpServlet() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getEarliestFlushTimeForAllStores() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getEarliestFlushTimeForAllStores() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- getEarliestMemstoreSeqNum(byte[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
- getEarliestMemstoreSeqNum(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
- getEarliestMemstoreSeqNum(byte[]) - 接口 中的方法org.apache.hadoop.hbase.wal.WAL
-
- getEarliestMemstoreSeqNum(byte[], byte[]) - 接口 中的方法org.apache.hadoop.hbase.wal.WAL
-
Gets the earliest unflushed sequence id in the memstore for the store.
- getEdit() - 类 中的方法org.apache.hadoop.hbase.wal.WAL.Entry
-
Gets the edit
- getEffectiveDataBlockEncoding() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2.AbstractScannerV2
-
- getEffectiveDurability(Durability) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Returns effective durability from the passed durability and
the table descriptor.
- getEffectiveEncodingInCache(boolean) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFileDataBlockEncoder
-
- getEffectiveEncodingInCache(boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileDataBlockEncoderImpl
-
- getEffectiveEncodingInCache(boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2
-
- getEffectiveEncodingInCache(boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.NoOpDataBlockEncoder
-
- getEffectiveUser() - 类 中的方法org.apache.hadoop.hbase.util.ConnectionCache
-
Get the current thread local effective user
- getElements() - 类 中的方法org.apache.hadoop.hbase.util.LossyCounting
-
- getEnabled() - 类 中的方法org.apache.hadoop.hbase.master.cleaner.CleanerChore
-
- getEncodedNodeName(ZooKeeperWatcher, String) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKSplitLog
-
Gets the full path node name for the log file being split.
- getEncodedPath() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
- getEncodedRegionName() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSplit
-
Returns the region's encoded name.
- getEncodedRegionName() - 类 中的方法org.apache.hadoop.hbase.wal.WALKey
-
- getEncodedRegionName() - 类 中的方法org.apache.hadoop.hbase.wal.WALSplitter.RegionEntryBuffer
-
- getEncoder(OutputStream) - 类 中的方法org.apache.hadoop.hbase.codec.MessageCodec
-
- getEncoder(OutputStream) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.SecureWALCellCodec
-
- getEncoder(OutputStream) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WALCellCodec
-
- getEncodingCountsForTest() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
- getEncryptionKey() - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- getEnd() - 异常错误 中的方法org.apache.hadoop.hbase.errorhandling.TimeoutException
-
- getEndKey() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck.HbckInfo
-
- getEndKey() - 接口 中的方法org.apache.hadoop.hbase.util.KeyRange
-
- getEndRow() - 类 中的方法org.apache.hadoop.hbase.mapred.TableSplit
-
- getEndRow() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSplit
-
Returns the end row.
- getEndRow(int) - 接口 中的方法org.apache.hadoop.hbase.regionserver.compactions.StripeCompactionPolicy.StripeInformationProvider
-
Gets the end row for a given stripe.
- getEndRow(int) - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- getEntries() - 类 中的方法org.apache.hadoop.hbase.io.HalfStoreFileReader
-
- getEntries() - 类 中的方法org.apache.hadoop.hbase.io.hfile.AbstractHFileReader
-
- getEntries() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
- getEntries() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile.Reader
-
- getEntries() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint.ReplicateContext
-
- getEntryBuffer() - 类 中的方法org.apache.hadoop.hbase.wal.WALSplitter.RegionEntryBuffer
-
- getEntryCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- getEnvironment() - 类 中的方法org.apache.hadoop.hbase.coprocessor.ObserverContext
-
- getErr() - 类 中的方法org.apache.hadoop.hbase.regionserver.handler.ParallelSeekHandler
-
- getErrorHandler() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer
-
- getErrorHandler() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcServerInterface
-
- getErrorList() - 接口 中的方法org.apache.hadoop.hbase.util.HBaseFsck.ErrorReporter
-
- getErrorMonitor() - 类 中的方法org.apache.hadoop.hbase.procedure.Procedure
-
Get the ForeignExceptionDispatcher
- getErrorRate(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.BloomFilterFactory
-
- getErrors() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- getEstimatedNumberOfKvsScanned() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreScanner
-
- getEventType() - 类 中的方法org.apache.hadoop.hbase.executor.EventHandler
-
Return the event type
- getEvictCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerContext
-
- getEvictedCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getEvictedCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getEvictionCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getEvictionCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getException() - 类 中的方法org.apache.hadoop.hbase.errorhandling.ForeignExceptionDispatcher
-
- getException() - 接口 中的方法org.apache.hadoop.hbase.errorhandling.ForeignExceptionSnare
-
Get the value of the captured exception.
- getException() - 类 中的方法org.apache.hadoop.hbase.master.snapshot.TakeSnapshotHandler
-
- getException() - 类 中的方法org.apache.hadoop.hbase.zookeeper.DeletionListener
-
Get the last exception which has occurred when re-setting the watch.
- getExceptionIfFailed() - 类 中的方法org.apache.hadoop.hbase.master.snapshot.CloneSnapshotHandler
-
- getExceptionIfFailed() - 类 中的方法org.apache.hadoop.hbase.master.snapshot.RestoreSnapshotHandler
-
- getExceptionIfFailed() - 类 中的方法org.apache.hadoop.hbase.master.snapshot.TakeSnapshotHandler
-
- getExceptionIfFailed() - 接口 中的方法org.apache.hadoop.hbase.master.SnapshotSentinel
-
Get the exception that caused the snapshot to fail, if the snapshot has failed.
- getExceptionMsg() - 类 中的方法org.apache.hadoop.hbase.regionserver.OperationStatus
-
- getExcludedServersForSystemTable() - 类 中的方法org.apache.hadoop.hbase.master.AssignmentManager
-
Get a list of servers that this region can not assign to.
- getExecutorService() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- getExecutorService() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getExecutorService() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
- getExecutorThreadPool(ExecutorType) - 类 中的方法org.apache.hadoop.hbase.executor.ExecutorService
-
- getExistingAssignmentPlan() - 类 中的方法org.apache.hadoop.hbase.master.SnapshotOfRegionAssignmentFromMeta
-
Get the favored nodes plan
- getExistingLabelsWithAuths() - 类 中的方法org.apache.hadoop.hbase.security.visibility.DefaultVisibilityLabelServiceImpl
-
- getExpectedVersion() - 类 中的方法org.apache.hadoop.hbase.coordination.ZkCloseRegionCoordination.ZkCloseRegionDetails
-
- getExpiration() - 类 中的方法org.apache.hadoop.hbase.security.token.AuthenticationKey
-
- getFailedDeletions() - 类 中的方法org.apache.hadoop.hbase.coordination.SplitLogManagerCoordination.SplitLogManagerDetails
-
- getFailedFiles() - 异常错误 中的方法org.apache.hadoop.hbase.backup.FailedArchiveException
-
- getFailedInserts() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getFailedInserts() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getFailedOpenTracker() - 类 中的方法org.apache.hadoop.hbase.master.AssignmentManager
-
- getFailures() - 类 中的方法org.apache.hadoop.hbase.util.hbck.HFileCorruptionChecker
-
- getFamilies() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
- getFamily(int) - 类 中的方法org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser
-
- getFamily() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getFamily() - 类 中的方法org.apache.hadoop.hbase.regionserver.ScanInfo
-
- getFamily() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getFamily() - 类 中的方法org.apache.hadoop.hbase.security.access.AuthResult
-
- getFamily() - 类 中的方法org.apache.hadoop.hbase.TagRewriteCell
-
已过时。
- getFamilyArray() - 类 中的方法org.apache.hadoop.hbase.TagRewriteCell
-
- getFamilyDirs(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Given a particular region dir, return all the familydirs inside it
- getFamilyLength() - 类 中的方法org.apache.hadoop.hbase.TagRewriteCell
-
- getFamilyOffset() - 类 中的方法org.apache.hadoop.hbase.TagRewriteCell
-
- getFavoredNodeList(String) - 类 中的静态方法org.apache.hadoop.hbase.master.RegionPlacementMaintainer
-
- getFavoredNodes(List<ServerName>) - 类 中的静态方法org.apache.hadoop.hbase.master.balancer.FavoredNodeAssignmentHelper
-
- getFavoredNodes(HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.master.balancer.FavoredNodeLoadBalancer
-
- getFavoredNodes(HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.master.balancer.FavoredNodesPlan
-
- getFavoredNodesAsString(List<ServerName>) - 类 中的静态方法org.apache.hadoop.hbase.master.balancer.FavoredNodeAssignmentHelper
-
- getFavoredNodesForRegion(String) - 接口 中的方法org.apache.hadoop.hbase.regionserver.FavoredNodesForRegion
-
Get the favored nodes mapping for this region.
- getFavoredNodesForRegion(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
Return the favored nodes for a region given its encoded name.
- getFavoredNodesList(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.master.balancer.FavoredNodeAssignmentHelper
-
- getFavoredServerPosition(List<ServerName>, ServerName) - 类 中的静态方法org.apache.hadoop.hbase.master.balancer.FavoredNodesPlan
-
Return the position of the server in the favoredNodes list.
- getFileCacheForTesting() - 类 中的方法org.apache.hadoop.hbase.master.snapshot.SnapshotHFileCleaner
-
Exposed for Testing!
- getFileContext() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
Return the file context of the HFile this reader belongs to
- getFileContext() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Writer
-
Return the file context for the HFile this writer belongs to
- getFileContext() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2
-
- getFileContext() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileWriterV2
-
- getFileDetails(Collection<StoreFile>, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.Compactor
-
Extracts some details about the files to compact that are commonly needed by compactors.
- getFileInfo() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
- getFileInfoHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getFileInfoHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getFileInfoMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getFileInfoMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getFileInfoOffset() - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- getFileLinkWithPreNSPath(Path) - 类 中的方法org.apache.hadoop.hbase.util.HFileV1Detector
-
Creates a FileLink which adds pre-namespace paths in its list of available paths.
- getFileList(Configuration, List<Path>, PathFilter) - 类 中的静态方法org.apache.hadoop.hbase.master.SplitLogManager
-
Get a list of paths that need to be split given a set of server-specific directories and
optionally a filter.
- getFilename() - 类 中的方法org.apache.hadoop.hbase.http.HttpRequestLogAppender
-
- getFilename() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.CachedBlock
-
- getFileName(String) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKSplitLog
-
- getFilenum() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
- getFileNumFromFileName(Path) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
A log file has a creation timestamp (in ms) in its file name (
FSHLog.filenum.
- getFilePermissions(FileSystem, Configuration, String) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Get the file permissions specified in the configuration, if they are
enabled.
- getFileRegion() - 类 中的方法org.apache.hadoop.hbase.io.Reference
-
- getFiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionRequest
-
- getFiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
Get the backing files associated with this WAL.
- getFilesForScanOrGet(byte[], boolean, byte[], boolean) - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFileManager
-
Gets the store files to scan for a Scan or Get request.
- getFilesForScanOrGet(byte[], boolean, byte[], boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- getFileStatus(FileSystem) - 类 中的方法org.apache.hadoop.hbase.io.FileLink
-
Get the FileStatus of the referenced file.
- getFileStatus() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
- getFileSystem() - 类 中的方法org.apache.hadoop.hbase.master.MasterFileSystem
-
- getFilesystem() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getFileSystem() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
- getFileSystem() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getFileSystem() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getFileSystem() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
- getFileSystem() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getFilesystem() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint.Context
-
- getFileSystem() - 类 中的方法org.apache.hadoop.hbase.security.token.FsDelegationToken
-
- getFilter() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.CompactionScanQueryMatcher
-
- getFilter() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.LegacyScanQueryMatcher
-
已过时。
- getFilter() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
- getFilter() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.UserScanQueryMatcher
-
- getFilter() - 类 中的方法org.apache.hadoop.hbase.tmpl.common.TaskMonitorTmpl.ImplData
-
- getFilter() - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl.ImplData
-
- getFilter() - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.RSStatusTmpl.ImplData
-
- getFilter__IsNotDefault() - 类 中的方法org.apache.hadoop.hbase.tmpl.common.TaskMonitorTmpl.ImplData
-
- getFilter__IsNotDefault() - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl.ImplData
-
- getFilter__IsNotDefault() - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.RSStatusTmpl.ImplData
-
- getFilterEntries() - 类 中的方法org.apache.hadoop.hbase.io.HalfStoreFileReader
-
- getFilterEntries() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile.Reader
-
The number of Bloom filter entries in this store file, or an estimate
thereof, if the Bloom filter is not loaded.
- getFirstDataBlockOffset() - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- getFirstKey() - 类 中的方法org.apache.hadoop.hbase.io.HalfStoreFileReader
-
- getFirstKey() - 类 中的方法org.apache.hadoop.hbase.io.hfile.AbstractHFileReader
-
- getFirstKey() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
- getFirstKey() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
- getFirstKey() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile.Reader
-
- getFirstKeyInBlock(HFileBlock) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2.AbstractScannerV2
-
- getFirstKeyInBlock(HFileBlock) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2.EncodedScannerV2
-
- getFirstKeyInBlock(HFileBlock) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2.ScannerV2
-
- getFirstRowKey() - 类 中的方法org.apache.hadoop.hbase.io.hfile.AbstractHFileReader
-
TODO left from
HFile version 1: move this to StoreFile after Ryan's
patch goes in to eliminate
KeyValue here.
- getFirstRowKey() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
- getFlushableSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.DefaultMemStore
-
- getFlushableSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getFlushableSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStore
-
On flush, how much memory we will clear.
- getFlushableSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getFlushDescriptor(Cell) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.wal.WALEdit
-
- getFlushedCellsCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getFlushedCellsCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getFlushedCellsSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getFlushedCellsSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getFlushedOutputFileSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getFlushedOutputFileSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getFlushPolicyClass(HTableDescriptor, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.FlushPolicyFactory
-
Get FlushPolicy class for the given table.
- getFlushPressure() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getFlushPressure() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
- getFlushRequester() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getFlushRequester() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
- getFlushThroughputController() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getFlushThroughputController() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
- getFormat() - 类 中的方法org.apache.hadoop.hbase.tmpl.common.TaskMonitorTmpl.ImplData
-
- getFormat() - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl.ImplData
-
- getFormat() - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.RSStatusTmpl.ImplData
-
- getFormat__IsNotDefault() - 类 中的方法org.apache.hadoop.hbase.tmpl.common.TaskMonitorTmpl.ImplData
-
- getFormat__IsNotDefault() - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl.ImplData
-
- getFormat__IsNotDefault() - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.RSStatusTmpl.ImplData
-
- getFormatVersion(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.HFile
-
- getFrags() - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl.ImplData
-
- getFrags__IsNotDefault() - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl.ImplData
-
- getFreeBytes() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketAllocator.Bucket
-
- getFreeSize() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.BlockCache
-
Returns the free size of the block cache, in bytes.
- getFreeSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketAllocator
-
- getFreeSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketCache
-
- getFreeSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache
-
- getFreeSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
- getFromOnlineRegions(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getFromOnlineRegions(String) - 接口 中的方法org.apache.hadoop.hbase.regionserver.OnlineRegions
-
- getFs() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSourceManager
-
Get the handle on the local file system
- getGeneralBloomFilterMetadata() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
Retrieves general Bloom filter metadata as appropriate for each
HFile version.
- getGeneralBloomFilterMetadata() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2
-
Returns a buffer with the Bloom filter metadata.
- getGeneralBloomMetaHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getGeneralBloomMetaHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getGeneralBloomMetaMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getGeneralBloomMetaMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getGeneralQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.FifoRpcScheduler
-
- getGeneralQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerWrapperImpl
-
- getGeneralQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcScheduler
-
Retrieves length of the general queue for metrics.
- getGeneralQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.SimpleRpcScheduler
-
- getGlobalLimiter() - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaState
-
Return the limiter associated with this quota.
- getGlobalMemstoreSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerAccounting
-
- getGroupAuths(String[], boolean) - 类 中的方法org.apache.hadoop.hbase.security.visibility.DefaultVisibilityLabelServiceImpl
-
- getGroupAuths(String[]) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityLabelsCache
-
- getGroupAuths(String[], boolean) - 接口 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityLabelService
-
Retrieve the visibility labels for the groups.
- getGroupAuthsAsOrdinals(String[]) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityLabelsCache
-
Returns the list of ordinals of labels associated with the groups
- getHandler(String, double, BlockingQueue<CallRunner>, AtomicInteger) - 类 中的方法org.apache.hadoop.hbase.ipc.FastPathBalancedQueueRpcExecutor
-
- getHandler(String, double, BlockingQueue<CallRunner>, AtomicInteger) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
Override if providing alternate Handler implementation.
- getHashCount() - 类 中的方法org.apache.hadoop.hbase.util.ByteBloomFilter
-
- getHashType() - 类 中的方法org.apache.hadoop.hbase.util.ByteBloomFilter
-
- getHBaseServerWrapper() - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServer
-
- getHBaseVersion() - 类 中的方法org.apache.hadoop.hbase.coprocessor.CoprocessorHost.Environment
-
- getHDFSBlockDistribution() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
- getHDFSBlockDistribution() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
- getHDFSBlocksDistribution() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getHDFSBlocksDistribution() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- getHeader() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer.Call
-
- getHeadPtr() - 类 中的方法org.apache.hadoop.hbase.regionserver.LruHashMap
-
Get the head of the linked list (least recently used).
- getHeap() - 类 中的方法org.apache.hadoop.hbase.regionserver.KeyValueHeap
-
- getHeapMemoryManager() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getHeapMemoryManager() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
- getHeapOccupancyPercent() - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager
-
- getHFileBlock() - 类 中的方法org.apache.hadoop.hbase.io.hfile.BlockWithScanInfo
-
- getHFileCleaner() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getHFilecorruptionChecker() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- getHFileFromBackReference(Path, Path) - 类 中的静态方法org.apache.hadoop.hbase.io.HFileLink
-
Get the full path of the HFile referenced by the back reference
- getHFileFromBackReference(Configuration, Path) - 类 中的静态方法org.apache.hadoop.hbase.io.HFileLink
-
Get the full path of the HFile referenced by the back reference
- getHFileMinorVersion() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile.Reader
-
- getHfileName() - 类 中的方法org.apache.hadoop.hbase.io.hfile.BlockCacheKey
-
- getHFileNames(Configuration, FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotReferenceUtil
-
Returns the store file names in the snapshot.
- getHFileReader() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile.Reader
-
- getHFilesChecked() - 类 中的方法org.apache.hadoop.hbase.util.hbck.HFileCorruptionChecker
-
- getHFileVersion() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile.Reader
-
- getHfs() - 类 中的方法org.apache.hadoop.hbase.io.FSDataInputStreamWrapper
-
- getHistogramReport(Histogram) - 类 中的静态方法org.apache.hadoop.hbase.util.YammerHistogramUtils
-
- getHitCachingCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getHitCachingCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getHitCachingRatio() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getHitCachingRatioPastNPeriods() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getHitCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.LruHashMap
-
Get the number of hits to the map.
- getHitRatio() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getHitRatio() - 类 中的方法org.apache.hadoop.hbase.regionserver.LruHashMap
-
Get the hit ratio.
- getHitRatioPastNPeriods() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getHost() - 类 中的方法org.apache.hadoop.hbase.HDFSBlocksDistribution.HostAndWeight
-
- getHostAddress() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer.Connection
-
- getHostAndWeights() - 类 中的方法org.apache.hadoop.hbase.HDFSBlocksDistribution
-
- getHostInetAddress() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer.Connection
-
- getHostname(Configuration, boolean) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
- getHRegion() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getHRegionInfo() - 类 中的方法org.apache.hadoop.hbase.master.handler.ClosedRegionHandler
-
- getHRegionInfo() - 类 中的方法org.apache.hadoop.hbase.master.handler.OpenedRegionHandler
-
- getHRegionInfo() - 接口 中的方法org.apache.hadoop.hbase.master.handler.TotesHRegionInfo
-
- getHris() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices.RegionStateTransitionContext
-
- getHTable() - 类 中的方法org.apache.hadoop.hbase.mapred.TableInputFormatBase
-
- getHTable() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
- getHtd() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl.InputSplit
-
- getId() - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreSnapshot
-
- getIdentifier(String, SecretManager<T>) - 类 中的静态方法org.apache.hadoop.hbase.security.HBaseSaslRpcServer
-
- getIdentifier() - 类 中的方法org.apache.hadoop.hbase.security.visibility.expression.LeafExpressionNode
-
- getImplData() - 类 中的方法org.apache.hadoop.hbase.tmpl.common.TaskMonitorTmpl
-
- getImplData() - 类 中的方法org.apache.hadoop.hbase.tmpl.master.AssignmentManagerStatusTmpl
-
- getImplData() - 类 中的方法org.apache.hadoop.hbase.tmpl.master.BackupMasterStatusTmpl
-
- getImplData() - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl
-
- getImplData() - 类 中的方法org.apache.hadoop.hbase.tmpl.master.RegionServerListTmpl
-
- getImplData() - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.BlockCacheTmpl
-
- getImplData() - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.BlockCacheViewTmpl
-
- getImplData() - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.RegionListTmpl
-
- getImplData() - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.RSStatusTmpl
-
- getImplData() - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.ServerMetricsTmpl
-
- getInformativeName() - 类 中的方法org.apache.hadoop.hbase.executor.EventHandler
-
Event implementations should override thie class to provide an
informative name about what event they are handling.
- getInfoServer() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getInitialCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreConfig
-
- getInitializedEvent() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getInitialState() - 类 中的方法org.apache.hadoop.hbase.master.procedure.AddColumnFamilyProcedure
-
- getInitialState() - 类 中的方法org.apache.hadoop.hbase.master.procedure.CreateNamespaceProcedure
-
- getInitialState() - 类 中的方法org.apache.hadoop.hbase.master.procedure.CreateTableProcedure
-
- getInitialState() - 类 中的方法org.apache.hadoop.hbase.master.procedure.DeleteColumnFamilyProcedure
-
- getInitialState() - 类 中的方法org.apache.hadoop.hbase.master.procedure.DeleteNamespaceProcedure
-
- getInitialState() - 类 中的方法org.apache.hadoop.hbase.master.procedure.DeleteTableProcedure
-
- getInitialState() - 类 中的方法org.apache.hadoop.hbase.master.procedure.DisableTableProcedure
-
- getInitialState() - 类 中的方法org.apache.hadoop.hbase.master.procedure.EnableTableProcedure
-
- getInitialState() - 类 中的方法org.apache.hadoop.hbase.master.procedure.ModifyColumnFamilyProcedure
-
- getInitialState() - 类 中的方法org.apache.hadoop.hbase.master.procedure.ModifyNamespaceProcedure
-
- getInitialState() - 类 中的方法org.apache.hadoop.hbase.master.procedure.ModifyTableProcedure
-
- getInitialState() - 类 中的方法org.apache.hadoop.hbase.master.procedure.ServerCrashProcedure
-
- getInitialState() - 类 中的方法org.apache.hadoop.hbase.master.procedure.TruncateTableProcedure
-
- getInlineBlockType() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlockIndex.BlockIndexWriter
-
- getInlineBlockType() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.InlineBlockWriter
-
The type of blocks this block writer produces.
- getInlineBlockType() - 类 中的方法org.apache.hadoop.hbase.util.CompoundBloomFilterWriter
-
- getInstance() - 类 中的方法org.apache.hadoop.hbase.coprocessor.CoprocessorHost.Environment
-
- getInstance() - 类 中的静态方法org.apache.hadoop.hbase.master.normalizer.EmptyNormalizationPlan
-
- getInstance(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.compactions.OffPeakHours
-
- getInstance(int, int) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.compactions.OffPeakHours
-
- getInstance() - 类 中的静态方法org.apache.hadoop.hbase.regionserver.NoLimitScannerContext
-
- getInstance() - 类 中的静态方法org.apache.hadoop.hbase.security.visibility.VisibilityLabelServiceManager
-
- getInstance(FileSystem, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
- getInstance(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.wal.WALFactory
-
- getIntermediateIndexHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getIntermediateIndexHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getIntermediateIndexMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getIntermediateIndexMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getIoEngine() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketCache
-
- getIOHitsPerSecond() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketCacheStats
-
- getIOTimePerHit() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketCacheStats
-
- getIsActiveMaster() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapperImpl
-
- getItemAllocationSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketAllocator.Bucket
-
- getJar(Class) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.JarFinder
-
Returns the full path to the Jar containing the class.
- GetJavaProperty - org.apache.hadoop.hbase.util中的类
-
A generic way for querying Java properties.
- GetJavaProperty() - 类 的构造器org.apache.hadoop.hbase.util.GetJavaProperty
-
- getJournal() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionMergeTransaction
-
Get the journal for the transaction.
- getJournal() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionMergeTransactionImpl
-
- getJournal() - 接口 中的方法org.apache.hadoop.hbase.regionserver.SplitTransaction
-
Get the journal for the transaction.
- getJournal() - 类 中的方法org.apache.hadoop.hbase.regionserver.SplitTransactionImpl
-
- getKeepDeletedCells() - 类 中的方法org.apache.hadoop.hbase.regionserver.ScanInfo
-
- getKey() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2.EncodedScannerV2
-
- getKey() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2.ScannerV2
-
- getKey() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFileScanner
-
Gets a buffer view to the current key.
- getKey() - 类 中的方法org.apache.hadoop.hbase.regionserver.LruHashMap.Entry
-
Get the key of this entry.
- getKey() - 类 中的方法org.apache.hadoop.hbase.wal.WAL.Entry
-
Gets the key
- getKeyCount() - 接口 中的方法org.apache.hadoop.hbase.util.BloomFilterBase
-
- getKeyCount() - 类 中的方法org.apache.hadoop.hbase.util.ByteBloomFilter
-
- getKeyCount() - 类 中的方法org.apache.hadoop.hbase.util.CompoundBloomFilterBase
-
- getKeyForNextColumn(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
- getKeyId() - 类 中的方法org.apache.hadoop.hbase.security.token.AuthenticationKey
-
- getKeyString() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2.EncodedScannerV2
-
- getKeyString() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2.ScannerV2
-
- getKeyString() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFileScanner
-
Convenience method to get a copy of the key as a string - interpreting the
bytes as UTF8.
- getKeyValue() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2.EncodedScannerV2
-
- getKeyValue() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2.ScannerV2
-
- getKeyValue() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV3.ScannerV3
-
- getKeyValue() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFileScanner
-
- getKeyValues(Configuration, String) - 类 中的静态方法org.apache.hadoop.hbase.util.ConfigurationUtil
-
Retrieve a list of key value pairs from configuration, stored under the provided key
- getKeyValues(Configuration, String, char) - 类 中的静态方法org.apache.hadoop.hbase.util.ConfigurationUtil
-
Retrieve a list of key value pairs from configuration, stored under the provided key
- getL1Stats() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
- getL2Stats() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
- getLabel(int) - 接口 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityLabelOrdinalProvider
-
Returns the string associated with the ordinal.
- getLabel(int) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityLabelsCache
-
- getLabelOrdinal(String) - 接口 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityLabelOrdinalProvider
-
- getLabelOrdinal(String) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityLabelsCache
-
- getLabels(User, Authorizations) - 类 中的方法org.apache.hadoop.hbase.security.visibility.DefinedSetFilterScanLabelGenerator
-
- getLabels(User, Authorizations) - 类 中的方法org.apache.hadoop.hbase.security.visibility.EnforcingScanLabelGenerator
-
- getLabels(User, Authorizations) - 类 中的方法org.apache.hadoop.hbase.security.visibility.FeedUserAuthScanLabelGenerator
-
- getLabels(User, Authorizations) - 接口 中的方法org.apache.hadoop.hbase.security.visibility.ScanLabelGenerator
-
Helps to get a list of lables associated with an UGI
- getLabels(User, Authorizations) - 类 中的方法org.apache.hadoop.hbase.security.visibility.SimpleScanLabelGenerator
-
- getLabelsCount() - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityLabelsCache
-
- getLargeCompactionQueueSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplitThread
-
- getLargeCompactionThreadNum() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplitThread
-
- getLargeQueueInitSize() - 类 中的方法org.apache.hadoop.hbase.master.cleaner.HFileCleaner
-
- getLargestHStoreSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getLastCompactSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getLastCompactSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getLastDataBlockOffset() - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- getLastFlushedSequenceId(RpcController, RegionServerStatusProtos.GetLastFlushedSequenceIdRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- getLastFlushedSequenceId(byte[]) - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
- getLastKey() - 类 中的方法org.apache.hadoop.hbase.io.HalfStoreFileReader
-
- getLastKey() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
- getLastKey() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2
-
- getLastKey() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
- getLastKey() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile.Reader
-
- getLastLoggedPath() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSource
-
- getLastLoggedPath() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSource.ReplicationSourceShipperThread
-
- getLastLoggedPosition() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSource
-
- getLastLoggedPosition() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSource.ReplicationSourceShipperThread
-
- getLastMajorCompactionAge() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getLastMajorCompactionTimestamp(TableName) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getLastMajorCompactionTimestamp(RpcController, MasterProtos.MajorCompactionTimestampRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- getLastMajorCompactionTimestamp(TableName) - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- getLastMajorCompactionTimestampForRegion(byte[]) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getLastMajorCompactionTimestampForRegion(RpcController, MasterProtos.MajorCompactionTimestampForRegionRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- getLastMajorCompactionTimestampForRegion(byte[]) - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- getLastPeekedCell() - 类 中的方法org.apache.hadoop.hbase.regionserver.ScannerContext
-
- getLastQuery() - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaState
-
- getLastReadPosition() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSourceWALReaderThread
-
- getLastRecoveryTime() - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogManagerCoordination
-
- getLastRecoveryTime() - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination
-
- getLastRegionServerUpdate() - 类 中的方法org.apache.hadoop.hbase.replication.HBaseReplicationEndpoint
-
Get the timestamp at which the last change occurred to the list of region servers to replicate
to.
- getLastRowKey() - 类 中的方法org.apache.hadoop.hbase.io.hfile.AbstractHFileReader
-
TODO left from
HFile version 1: move this to StoreFile after
Ryan's patch goes in to eliminate
KeyValue here.
- getLastRowKey() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
- getLastRowKey() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile.Reader
-
- getLastSequenceId(byte[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getLastSequenceId(byte[]) - 接口 中的方法org.apache.hadoop.hbase.regionserver.LastSequenceId
-
- getLastTimeCheckLowReplication() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
- getLastUpdate() - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaState
-
- getLeafIndexHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getLeafIndexHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getLeafIndexMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getLeafIndexMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getLeases() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getLeases() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
- getLeastFilledBuckets(Set<Integer>, int) - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketAllocator
-
Returns a set of indices of the buckets that are least filled
excluding the offsets, we also the fully free buckets for the
BucketSizes where everything is empty and they only have one
completely free bucket as a reserved
- getLength() - 类 中的方法org.apache.hadoop.hbase.mapred.TableSnapshotInputFormat.TableSnapshotRegionSplit
-
- getLength() - 类 中的方法org.apache.hadoop.hbase.mapred.TableSplit
-
- getLength() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormat.TableSnapshotRegionSplit
-
- getLength() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl.InputSplit
-
- getLength() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSplit
-
Returns the length of the split.
- getLength() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogWriter
-
- getLength() - 接口 中的方法org.apache.hadoop.hbase.wal.WALProvider.Writer
-
- getLevel0Files() - 接口 中的方法org.apache.hadoop.hbase.regionserver.compactions.StripeCompactionPolicy.StripeInformationProvider
-
- getLevel0Files() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- getLevel0MinFiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreConfig
-
- getLimit() - 类 中的方法org.apache.hadoop.hbase.quotas.RateLimiter
-
- getLimit() - 类 中的方法org.apache.hadoop.hbase.tmpl.master.AssignmentManagerStatusTmpl.ImplData
-
- getLimit__IsNotDefault() - 类 中的方法org.apache.hadoop.hbase.tmpl.master.AssignmentManagerStatusTmpl.ImplData
-
- getListener() - 类 中的方法org.apache.hadoop.hbase.executor.EventHandler
-
- getListenerAddress() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcScheduler.Context
-
- getListenerAddress() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer
-
Return the socket (ip+port) on which the RPC server is listening to.
- getListenerAddress() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcServerInterface
-
- getLiveMasters() - 类 中的方法org.apache.hadoop.hbase.LocalHBaseCluster
-
- getLiveRegionServers() - 类 中的方法org.apache.hadoop.hbase.LocalHBaseCluster
-
- getLoad(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
- getLoadBalancer(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.master.balancer.LoadBalancerFactory
-
Create a loadbalancer from the given conf.
- getLoadBalancer() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getLoadBalancer() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- getLoadBalancerClassName() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getLoadedCachedBlocksByFile(Configuration, BlockCache) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.BlockCacheUtil
-
- getLoadedCoprocessors() - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.CoprocessorHost
-
- getLoadedCoprocessors() - 类 中的静态方法org.apache.hadoop.hbase.master.HMaster
-
The set of loaded coprocessors is stored in a static set.
- getLoadOnOpenDataOffset() - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- getLoadSequence() - 类 中的方法org.apache.hadoop.hbase.coprocessor.CoprocessorHost.Environment
-
- getLoadStatistics() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getLocalConfiguration() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint.Context
-
- getLocalFs(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.fs.HFileSystem
-
Wrap a LocalFileSystem within a HFileSystem.
- getLocalTableDirs(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
- getLocations() - 类 中的方法org.apache.hadoop.hbase.io.FileLink
-
- getLocations() - 类 中的方法org.apache.hadoop.hbase.mapred.TableSnapshotInputFormat.TableSnapshotRegionSplit
-
- getLocations() - 类 中的方法org.apache.hadoop.hbase.mapred.TableSplit
-
- getLocations() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormat.TableSnapshotRegionSplit
-
- getLocations() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl.InputSplit
-
- getLocations() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSplit
-
Returns the region's location as an array.
- getLock() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion.RowLockImpl
-
- getLock(long) - 类 中的方法org.apache.hadoop.hbase.util.IdReadWriteLock
-
Get the ReentrantReadWriteLock corresponding to the given id
- getLockedRows() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getLockEntry(long) - 类 中的方法org.apache.hadoop.hbase.util.IdLock
-
Blocks until the lock corresponding to the given id is acquired.
- getLockPath(String, List<String>) - 类 中的方法org.apache.hadoop.hbase.zookeeper.lock.ZKInterProcessLockBase
-
Determine based on a list of children under a ZNode, whether or not a
process which created a specified ZNode has obtained a lock.
- getLockPath(String, List<String>) - 类 中的方法org.apache.hadoop.hbase.zookeeper.lock.ZKInterProcessReadLock
-
Determine based on a list of children under a ZNode, whether or not a
process which created a specified ZNode has obtained a lock.
- getLockPath(String, List<String>) - 类 中的方法org.apache.hadoop.hbase.zookeeper.lock.ZKInterProcessWriteLock
-
Determine based on a list of children under a ZNode, whether or not a
process which created a specified ZNode has obtained a lock.
- getLog(HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.util.MetaUtils
-
- getLogCleaner() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getLogDir() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSourceManager
-
Get the directory where wals are stored by their RSs
- getLogFileSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
- getLogFileSize() - 类 中的方法org.apache.hadoop.hbase.wal.DefaultWALProvider
-
iff the given WALFactory is using the DefaultWALProvider for meta and/or non-meta,
count the size of files (rolled and active). if either of them aren't, count 0
for that provider.
- getLogFileSize() - 类 中的方法org.apache.hadoop.hbase.wal.RegionGroupingProvider
-
- getLogFileSize() - 接口 中的方法org.apache.hadoop.hbase.wal.WALProvider
-
Get size of the log files this provider is managing
- getLogRecoveryMode() - 类 中的方法org.apache.hadoop.hbase.master.MasterFileSystem
-
- getLogsCount() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotInfo.SnapshotStats
-
已过时。
- getLogSeqNum() - 类 中的方法org.apache.hadoop.hbase.wal.WALKey
-
- getLogsSize() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotInfo.SnapshotStats
-
已过时。
- getLowestTimestamp(Collection<StoreFile>) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.StoreUtils
-
Gets lowest timestamp from candidate StoreFiles
- getMajorCompactedCellsCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getMajorCompactedCellsCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getMajorCompactedCellsSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getMajorCompactedCellsSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getMajorCompactionJitter() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionConfiguration
-
- getMajorCompactionPeriod() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionConfiguration
-
- getMajorVersion() - 类 中的方法org.apache.hadoop.hbase.io.hfile.AbstractHFileReader
-
- getMajorVersion() - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
Returns the major version of this HFile format
- getMajorVersion() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2
-
- getMajorVersion() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV3
-
- getMajorVersion() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileWriterV2
-
- getMajorVersion() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileWriterV3
-
- getMapperClass(JobContext) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.MultithreadedTableMapper
-
Get the application's mapper class.
- getMaster() - 类 中的方法org.apache.hadoop.hbase.coordination.SplitLogManagerCoordination.SplitLogManagerDetails
-
- getMaster(int) - 类 中的方法org.apache.hadoop.hbase.LocalHBaseCluster
-
- getMaster() - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureUtil.NonceProcedureRunnable
-
- getMaster() - 类 中的方法org.apache.hadoop.hbase.tmpl.master.BackupMasterStatusTmpl.ImplData
-
- getMaster() - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl.ImplData
-
- getMaster() - 类 中的方法org.apache.hadoop.hbase.tmpl.master.RegionServerListTmpl.ImplData
-
- getMaster() - 类 中的方法org.apache.hadoop.hbase.util.JVMClusterUtil.MasterThread
-
- getMasterActiveTime() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getMasterAddressTracker() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getMasterConfiguration() - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureEnv
-
- getMasterCoprocessorHost() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getMasterCoprocessorHost() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- getMasterCoprocessorHost() - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureEnv
-
- getMasterCoprocessors() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getMasterFileSystem() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getMasterFileSystem() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- getMasterFinishedInitializationTime() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getMasterInitializationTime() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapperImpl
-
- getMasterProcedureExecutor() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getMasterProcedureExecutor() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- getMasterProcedureManagerHost() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getMasterProcedureManagerHost() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- getMasterQuotaManager() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getMasterQuotaManager() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- getMasterQuotaManager(MasterProcedureEnv) - 类 中的静态方法org.apache.hadoop.hbase.master.procedure.ProcedureSyncWait
-
- getMasterRpcServices() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getMasters() - 类 中的方法org.apache.hadoop.hbase.LocalHBaseCluster
-
- getMasterServices() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterCoprocessorEnvironment
-
- getMasterServices() - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureEnv
-
- getMasterStartTime() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getMasterSystemTime() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices.PostOpenDeployContext
-
- getMasterSystemTime() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices.RegionStateTransitionContext
-
- getMax(RpcController, AggregateProtos.AggregateRequest, RpcCallback<AggregateProtos.AggregateResponse>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.AggregateImplementation
-
Gives the maximum for a given combination of column qualifier and column
family, in the given row range as defined in the Scan object.
- getMax() - 类 中的方法org.apache.hadoop.hbase.io.hfile.AgeSnapshot
-
- getMax() - 类 中的方法org.apache.hadoop.hbase.regionserver.TimeRangeTracker
-
- getMaxAllowedOperationTime() - 异常错误 中的方法org.apache.hadoop.hbase.errorhandling.TimeoutException
-
- getMaxChunkSize(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.HFileBlockIndex
-
- getMaxCompactionQueueSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getMaxCompactSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionConfiguration
-
- getMaxCompactSize(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionConfiguration
-
- getMaxFilesToCompact() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionConfiguration
-
- getMaxFlushedSeqId() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getMaxFlushedSeqId() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- getMaxFlushQueueSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getMaxFold(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.BloomFilterFactory
-
- getMaximumTimestamp() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
- getMaxKeys() - 接口 中的方法org.apache.hadoop.hbase.util.BloomFilterBase
-
- getMaxKeys(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.BloomFilterFactory
-
- getMaxKeys() - 类 中的方法org.apache.hadoop.hbase.util.ByteBloomFilter
-
- getMaxKeys() - 类 中的方法org.apache.hadoop.hbase.util.CompoundBloomFilterBase
-
- getMaxMasterTimeout(Configuration, HBaseProtos.SnapshotDescription.Type, long) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils
-
- getMaxMemstoreTS() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getMaxMemstoreTS() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getMaxMemstoreTS() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
- getMaxMemstoreTSInList(Collection<StoreFile>) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.StoreFile
-
Return the largest memstoreTS found across all storefiles in
the given list.
- getMaxMerge() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- getMaxOverlapsToSideline() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- getMaxRegions(NamespaceDescriptor) - 类 中的静态方法org.apache.hadoop.hbase.master.TableNamespaceManager
-
- getMaxResultSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionScanner
-
- getMaxSequenceId() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getMaxSequenceId() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getMaxSequenceId() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
- getMaxSequenceIdInList(Collection<StoreFile>) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.StoreFile
-
Return the highest sequence ID found across all storefiles in
the given list.
- getMaxSize() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.BlockCache
-
Returns the Max size of the block cache, in bytes.
- getMaxSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketCache
-
- getMaxSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache
-
- getMaxSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
Get the maximum size of this cache.
- getMaxSplitImbalance() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreConfig
-
- getMaxStoreFileAge() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getMaxStoreFileAge() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getMaxStoreFileAge() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getMaxStoreSeqId() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getMaxStoreSeqId() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- getMaxTables(NamespaceDescriptor) - 类 中的静态方法org.apache.hadoop.hbase.master.TableNamespaceManager
-
- getMaxThroughput() - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.PressureAwareThroughputController
-
- getMaxTime() - 类 中的方法org.apache.hadoop.hbase.errorhandling.TimeoutExceptionInjector
-
- getMaxTimestamp() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile.Reader
-
- getMaxVersions() - 类 中的方法org.apache.hadoop.hbase.regionserver.ScanInfo
-
- getMean() - 类 中的方法org.apache.hadoop.hbase.io.hfile.AgeSnapshot
-
- getMean() - 类 中的方法org.apache.hadoop.hbase.util.RollingStatCalculator
-
- getMedian(RpcController, AggregateProtos.AggregateRequest, RpcCallback<AggregateProtos.AggregateResponse>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.AggregateImplementation
-
Gives a List containing sum of values and sum of weights.
- getMemberName() - 接口 中的方法org.apache.hadoop.hbase.procedure.ProcedureMemberRpcs
-
Each subprocedure is being executed on a member.
- getMemberName() - 类 中的方法org.apache.hadoop.hbase.procedure.Subprocedure
-
- getMemberName() - 类 中的方法org.apache.hadoop.hbase.procedure.ZKProcedureMemberRpcs
-
- getMemFree() - 类 中的方法org.apache.hadoop.hbase.regionserver.LruHashMap
-
Get the currently available memory for this LRU in bytes.
- getMemMax() - 类 中的方法org.apache.hadoop.hbase.regionserver.LruHashMap
-
Get the maximum memory allowed for this LRU in bytes.
- getMemstoreFlushSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getMemstoreFlushSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreConfigInformation
-
- getMemstoreSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerResult
-
- getMemstoreSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getMemStoreSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getMemstoreSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getMemstoreSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- getMemStoreSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getMemstoresSize(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsTableWrapperAggregateImpl
-
- getMemUsed() - 类 中的方法org.apache.hadoop.hbase.regionserver.LruHashMap
-
Get the currently used memory for this LRU in bytes.
- getMergedRegionInfo() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionMergeTransaction
-
- getMergedRegionInfo(HRegionInfo, HRegionInfo) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.RegionMergeTransactionImpl
-
Get merged region info through the specified two regions
- getMergedRegionInfo() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionMergeTransactionImpl
-
- getMergePlanCount() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getMergePlanCount() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapperImpl
-
- getMergeThreadNum() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplitThread
-
- getMessage() - 异常错误 中的方法org.apache.hadoop.hbase.backup.FailedArchiveException
-
- getMetaBlock(String, boolean) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
- getMetaBlock(String, boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2
-
- getMetaData() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlock
-
For use by bucketcache.
- getMetadataValue(byte[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
Only used by the Striped Compaction Policy
- getMetaHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getMetaHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getMetaIndexCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- getMetaLocation() - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl.ImplData
-
- getMetaLocation__IsNotDefault() - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl.ImplData
-
- getMetaMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getMetaMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getMetaRegion() - 类 中的方法org.apache.hadoop.hbase.util.MetaUtils
-
- getMetaTableLocator() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getMetaTableLocator() - 接口 中的方法org.apache.hadoop.hbase.Server
-
- getMetaWAL(byte[]) - 类 中的方法org.apache.hadoop.hbase.wal.WALFactory
-
- getMetaWALProvider() - 类 中的方法org.apache.hadoop.hbase.wal.WALFactory
-
- getMetaWriter() - 接口 中的方法org.apache.hadoop.hbase.util.BloomFilterWriter
-
Get a writable interface into bloom filter meta data.
- getMetaWriter() - 类 中的方法org.apache.hadoop.hbase.util.ByteBloomFilter
-
- getMetaWriter() - 类 中的方法org.apache.hadoop.hbase.util.CompoundBloomFilterWriter
-
- getMetricRegistryForMaster() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterCoprocessorEnvironment
-
Returns a MetricRegistry that can be used to track metrics at the master level.
- getMetricRegistryForRegionServer() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionCoprocessorEnvironment
-
Returns a MetricRegistry that can be used to track metrics at the region server level.
- getMetricRegistryForRegionServer() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionServerCoprocessorEnvironment
-
Returns a MetricRegistry that can be used to track metrics at the region server level.
- getMetricRegistryForRegionServer() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.WALCoprocessorEnvironment
-
Returns a MetricRegistry that can be used to track metrics at the region server level.
- getMetricRegistryInfo() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.MetricsSource
-
- getMetrics() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer
-
Returns the metrics instance for reporting RPC call statistics
- getMetrics() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcServerInterface
-
Returns the metrics instance for reporting RPC call statistics
- getMetrics() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getMetrics() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getMetrics() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- getMetrics() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
- getMetrics() - 类 中的方法org.apache.hadoop.hbase.regionserver.ScannerContext
-
Get the metrics instance.
- getMetrics() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint.Context
-
- getMetricsContext() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.MetricsSource
-
- getMetricsDescription() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.MetricsSource
-
- getMetricsJmxContext() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.MetricsSource
-
- getMetricsName() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.MetricsSource
-
- getMetricsProcSource() - 类 中的方法org.apache.hadoop.hbase.master.MetricsAssignmentManager
-
- getMetricsProcSource() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMaster
-
- getMetricsSource() - 类 中的方法org.apache.hadoop.hbase.io.MetricsIO
-
- getMetricsSource() - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServer
-
- getMetricsSource() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMaster
-
- getMetricsSource() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServer
-
- getMetricsSource() - 类 中的方法org.apache.hadoop.hbase.util.JvmPauseMonitor
-
- getMin(RpcController, AggregateProtos.AggregateRequest, RpcCallback<AggregateProtos.AggregateResponse>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.AggregateImplementation
-
Gives the minimum for a given combination of column qualifier and column
family, in the given row range as defined in the Scan object.
- getMin() - 类 中的方法org.apache.hadoop.hbase.io.hfile.AgeSnapshot
-
- getMin() - 类 中的方法org.apache.hadoop.hbase.regionserver.TimeRangeTracker
-
- getMinCompactSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionConfiguration
-
- getMinFilesToCompact() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionConfiguration
-
- getMinimumTimestamp() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
- getMinIndexNumEntries(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.HFileBlockIndex
-
- getMinLocalityToForceCompact() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionConfiguration
-
- getMinorVersion() - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
Returns the minor version of this HFile format
- getMinorVersion() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileWriterV2
-
- getMinorVersion() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileWriterV3
-
- getMinStoreFileAge() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getMinStoreFileAge() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getMinStoreFileAge() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getMinVersions() - 类 中的方法org.apache.hadoop.hbase.regionserver.ScanInfo
-
- getMissCachingCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getMissCachingCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getMissCachingRatio() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getMissCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.LruHashMap
-
Get the number of misses to the map.
- getMissing() - 类 中的方法org.apache.hadoop.hbase.util.hbck.HFileCorruptionChecker
-
- getMissingLogsCount() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotInfo.SnapshotStats
-
已过时。
- getMissingStoreFilesCount() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotInfo.SnapshotStats
-
已过时。
- getMissRatio() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getMode() - 类 中的方法org.apache.hadoop.hbase.SplitLogTask
-
- getModificationTime() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
- getModificationTimeStamp() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
- getMonitor() - 类 中的方法org.apache.hadoop.hbase.backup.example.TableHFileArchiveTracker
-
- getMServerWrap() - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.ServerMetricsTmpl.ImplData
-
- getMTime() - 类 中的方法org.apache.hadoop.hbase.security.access.TableAuthManager
-
- getMutationsFromWALEntry(AdminProtos.WALEntry, CellScanner, Pair<WALKey, WALEdit>, Durability) - 类 中的静态方法org.apache.hadoop.hbase.wal.WALSplitter
-
This function is used to construct mutations from a WALEntry.
- getMVCC() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getMvcc() - 类 中的方法org.apache.hadoop.hbase.wal.WALKey
-
- getMvccFromOperationContext(long, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.ServerNonceManager
-
Return the write point of the previous succeed operation.
- getMvccReadPoint() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionScanner
-
- getMvccVersion() - 类 中的方法org.apache.hadoop.hbase.TagRewriteCell
-
已过时。
- getMWrap() - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.ServerMetricsTmpl.ImplData
-
- getMyEphemeralNodeFileName() - 类 中的静态方法org.apache.hadoop.hbase.ZNodeClearer
-
Get the name of the file used to store the znode contents
- getName() - 类 中的方法org.apache.hadoop.hbase.client.HTableWrapper
-
- getName() - 类 中的方法org.apache.hadoop.hbase.errorhandling.ForeignExceptionDispatcher
-
- getName() - 类 中的方法org.apache.hadoop.hbase.io.hfile.AbstractHFileReader
-
- getName() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
Returns this reader's "name".
- getName() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
- getName() - 类 中的方法org.apache.hadoop.hbase.procedure.Procedure
-
- getName() - 类 中的方法org.apache.hadoop.hbase.procedure.Subprocedure
-
- getName() - 类 中的方法org.apache.hadoop.hbase.regionserver.BaseRowProcessor
-
- getName() - 异常错误 中的方法org.apache.hadoop.hbase.regionserver.Leases.LeaseStillHeldException
-
- getName() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RowProcessor
-
Human readable name of the processor
- getName() - 类 中的方法org.apache.hadoop.hbase.security.token.AuthenticationTokenSecretManager
-
- getName() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck.TableInfo
-
- getNameForThrottling(Store, String) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.throttle.ThroughputControlUtil
-
Generate a name for throttling, to prevent name conflict when multiple IO operation running
parallel on the same store.
- getNamespace() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getNamespaceDescriptor(String) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getNamespaceDescriptor(RpcController, MasterProtos.GetNamespaceDescriptorRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- getNamespaceDescriptor(String) - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
Get a namespace descriptor by name
- getNamespaceDir(Path, String) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Returns the Path object representing
the namespace directory under path rootdir
- getNamespaceLimiter(String) - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaCache
-
Returns the limiter associated to the specified namespace.
- getNamespacePermissions(Configuration, String) - 类 中的静态方法org.apache.hadoop.hbase.security.access.AccessControlLists
-
- getNamespaceQueue() - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureScheduler.TableQueue
-
- getNamespaceQuotaManager() - 类 中的方法org.apache.hadoop.hbase.quotas.MasterQuotaManager
-
- getNewAssignmentPlan() - 类 中的方法org.apache.hadoop.hbase.master.RegionPlacementMaintainer
-
- getNextBlockOnDiskSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlock
-
- getNextCellStartPosition() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2.ScannerV2
-
- getNextCellStartPosition() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV3.ScannerV3
-
- getNextIndexedKey() - 类 中的方法org.apache.hadoop.hbase.io.hfile.BlockWithScanInfo
-
- getNextIndexedKey() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2.AbstractScannerV2
-
- getNextIndexedKey() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFileScanner
-
- getNextIndexedKey() - 类 中的方法org.apache.hadoop.hbase.regionserver.KeyValueHeap
-
- getNextIndexedKey() - 接口 中的方法org.apache.hadoop.hbase.regionserver.KeyValueScanner
-
- getNextIndexedKey() - 类 中的方法org.apache.hadoop.hbase.regionserver.NonLazyKeyValueScanner
-
- getNextIndexedKey() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
- getNextIndexedKey() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreScanner
-
- getNextKeyHint(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.CompactionScanQueryMatcher
-
- getNextKeyHint(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.LegacyScanQueryMatcher
-
已过时。
- getNextKeyHint(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
- getNextKeyHint(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.UserScanQueryMatcher
-
- getNextMajorCompactTime(Collection<StoreFile>) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.SortedCompactionPolicy
-
- getNextPtr() - 类 中的方法org.apache.hadoop.hbase.regionserver.LruHashMap.Entry
-
Returns the next pointer for the entry in teh LRU.
- getNextQueue() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor.QueueBalancer
-
- getNextRefillTime() - 类 中的方法org.apache.hadoop.hbase.quotas.AverageIntervalRateLimiter
-
- getNextRefillTime() - 类 中的方法org.apache.hadoop.hbase.quotas.FixedIntervalRateLimiter
-
- getNextRefillTime() - 类 中的方法org.apache.hadoop.hbase.quotas.RateLimiter
-
- getNextRowOrNextColumn(byte[], int, int) - 接口 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ColumnTracker
-
Retrieve the MatchCode for the next row or column
- getNextRowOrNextColumn(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ExplicitColumnTracker
-
- getNextRowOrNextColumn(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanWildcardColumnTracker
-
- getNextSequenceId(WAL) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Method to safely get the next sequence number.
- getNextSleepInterval(int) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationThrottler
-
Get how long the caller should sleep according to the current size and
current cycle's total push size and start tick, return the sleep interval
for throttling control.
- getNoChecksumFs() - 类 中的方法org.apache.hadoop.hbase.fs.HFileSystem
-
Returns the filesystem that is specially setup for
doing reads from storage.
- getNonce() - 类 中的方法org.apache.hadoop.hbase.wal.WALKey
-
- getNonceGenerator() - 类 中的方法org.apache.hadoop.hbase.client.CoprocessorHConnection
-
- getNonceGroup() - 类 中的方法org.apache.hadoop.hbase.wal.WALKey
-
- getNonceKey() - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureUtil.NonceProcedureRunnable
-
- getNonceManager() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getNonceManager() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
Only required for "old" log replay; if it's removed, remove this.
- getNonSharedArchivedStoreFilesSize() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotInfo.SnapshotStats
-
已过时。
- getNullPollCalls() - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureScheduler
-
- getNumberOfOnlineRegions() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getNumberOfRecoveredRegions() - 类 中的方法org.apache.hadoop.hbase.wal.WALSplitter.OutputSink
-
- getNumberOfThreads(JobContext) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.MultithreadedTableMapper
-
The number of threads in the thread pool that will run the map function.
- getNumBytesCompacted() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getNumChunks() - 类 中的方法org.apache.hadoop.hbase.util.CompoundBloomFilter
-
- getNumCompactionsCompleted() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getNumCompactionsFailed() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getNumCompactionsQueued() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getNumDataIndexLevels() - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- getNumDeadRegionServers() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapperImpl
-
- getNumFilesCompacted() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getNumFlushesQueued() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getNumGeneralCallsDropped() - 类 中的方法org.apache.hadoop.hbase.ipc.FifoRpcScheduler
-
- getNumGeneralCallsDropped() - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerWrapperImpl
-
- getNumGeneralCallsDropped() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
- getNumGeneralCallsDropped() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcScheduler
-
If CoDel-based RPC executors are used, retrieves the number of Calls that were dropped
from general queue because RPC executor is under high load; returns 0 otherwise.
- getNumGeneralCallsDropped() - 类 中的方法org.apache.hadoop.hbase.ipc.SimpleRpcScheduler
-
- getNumHFiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getNumHFiles() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getNumLevels() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlockIndex.BlockIndexWriter
-
- getNumLifoModeSwitches() - 类 中的方法org.apache.hadoop.hbase.ipc.FifoRpcScheduler
-
- getNumLifoModeSwitches() - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerWrapperImpl
-
- getNumLifoModeSwitches() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
- getNumLifoModeSwitches() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcScheduler
-
If CoDel-based RPC executors are used, retrieves the number of Calls that were
picked from the tail of the queue (indicating adaptive LIFO mode, when
in the period of overloade we serve last requests first); returns 0 otherwise.
- getNumLifoModeSwitches() - 类 中的方法org.apache.hadoop.hbase.ipc.SimpleRpcScheduler
-
- getNumLogFiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
- getNumLogFiles() - 类 中的方法org.apache.hadoop.hbase.wal.DefaultWALProvider
-
iff the given WALFactory is using the DefaultWALProvider for meta and/or non-meta,
count the number of files (rolled and active). if either of them aren't, count 0
for that provider.
- getNumLogFiles() - 类 中的方法org.apache.hadoop.hbase.wal.RegionGroupingProvider
-
- getNumLogFiles() - 接口 中的方法org.apache.hadoop.hbase.wal.WALProvider
-
Get number of the log files this provider is managing
- getNumMutationsWithoutWAL() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getNumMutationsWithoutWAL() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- getNumObservers() - 类 中的方法org.apache.hadoop.hbase.conf.ConfigurationManager
-
- getNumOfDeletedLargeFiles() - 类 中的方法org.apache.hadoop.hbase.master.cleaner.HFileCleaner
-
- getNumOfDeletedSmallFiles() - 类 中的方法org.apache.hadoop.hbase.master.cleaner.HFileCleaner
-
- getNumOpenConnections() - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerWrapperImpl
-
- getNumPositivesForTesting(int) - 类 中的方法org.apache.hadoop.hbase.util.CompoundBloomFilter
-
- getNumQueriesForTesting(int) - 类 中的方法org.apache.hadoop.hbase.util.CompoundBloomFilter
-
- getNumReferenceFiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getNumReferenceFiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getNumReferenceFiles() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getNumRegions() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck.TableInfo
-
- getNumRegionServers() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapperImpl
-
- getNumRegionsOpened() - 类 中的方法org.apache.hadoop.hbase.master.AssignmentManager
-
Used by unit tests.
- getNumRolledLogFiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
- getNumRolledLogFiles(WAL) - 类 中的静态方法org.apache.hadoop.hbase.wal.DefaultWALProvider
-
returns the number of rolled WAL files.
- getNumRootEntries() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlockIndex.BlockIndexWriter
-
- getNumSinks() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSinkManager
-
- getNumStoreFiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getNumStores() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getNumWALFiles() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getNumWALFiles() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapperImpl
-
- getOffPeakHours() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getOffPeakMaxCompactSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionConfiguration
-
- getOffset() - 类 中的方法org.apache.hadoop.hbase.io.hfile.BlockCacheKey
-
- getOffset() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.CachedBlock
-
- getOldestHfileTs(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getOldestHfileTs(boolean) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
This can be used to determine the last time all files of this region were major compacted.
- getOldestSeqIdOfStore(byte[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getOldestSeqIdOfStore(byte[]) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
已过时。
Since version 1.2.0. Exposes too much about our internals; shutting it down.
Do not use.
- getOldLogDir() - 类 中的方法org.apache.hadoop.hbase.master.MasterFileSystem
-
Get the directory where old logs go
- getOldLogDir() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSourceManager
-
Get the directory where wals are archived
- getOldSources() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSourceManager
-
Get a list of all the old sources of this rs
- getOnDiskSizeWithHeader() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlock
-
- getOnlineRegion(byte[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getOnlineRegion(RpcController, AdminProtos.GetOnlineRegionRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
- getOnlineRegions(TableName) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
Gets the online regions of the specified table.
- getOnlineRegions() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getOnlineRegions(TableName) - 接口 中的方法org.apache.hadoop.hbase.regionserver.OnlineRegions
-
Get all online regions of a table in this RS.
- getOnlineRegions() - 接口 中的方法org.apache.hadoop.hbase.regionserver.OnlineRegions
-
Get all online regions in this RS.
- getOnlineRegions() - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.RegionListTmpl.ImplData
-
- getOnlineRegionsLocalContext() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
For tests, web ui and metrics.
- getOnlineServers() - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
- getOnlineServers() - 类 中的方法org.apache.hadoop.hbase.zookeeper.RegionServerTracker
-
Gets the online servers.
- getOnlineServersList() - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
- getOnlineTables() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
Gets the online tables in this RS.
- getOnlineTables() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
- getOpenRegionCoordination() - 类 中的方法org.apache.hadoop.hbase.coordination.BaseCoordinatedStateManager
-
Method to retrieve coordination for opening region operations.
- getOpenRegionCoordination() - 类 中的方法org.apache.hadoop.hbase.coordination.ZkCoordinatedStateManager
-
- getOpenSeqNum() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getOpenSeqNum() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- getOpenSeqNum() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices.RegionStateTransitionContext
-
- getOperation(int) - 类 中的方法org.apache.hadoop.hbase.regionserver.MiniBatchOperationInProgress
-
- getOperationsFromCoprocessors(int) - 类 中的方法org.apache.hadoop.hbase.regionserver.MiniBatchOperationInProgress
-
- getOperationStatus(int) - 类 中的方法org.apache.hadoop.hbase.regionserver.MiniBatchOperationInProgress
-
- getOperationStatusCode() - 类 中的方法org.apache.hadoop.hbase.regionserver.OperationStatus
-
- getOperationTimeout() - 类 中的方法org.apache.hadoop.hbase.client.HTableWrapper
-
- getOperator() - 类 中的方法org.apache.hadoop.hbase.security.visibility.expression.NonLeafExpressionNode
-
- getOrComputeLocality(int, int, BaseLoadBalancer.Cluster.LocalityType) - 类 中的方法org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer.Cluster
-
Looks up locality from cache of localities.
- getOrComputeRackLocalities() - 类 中的方法org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer.Cluster
-
Retrieves and lazily initializes a field storing the locality of
every region/server combination
- getOrComputeRegionsToMostLocalEntities(BaseLoadBalancer.Cluster.LocalityType) - 类 中的方法org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer.Cluster
-
Lazily initializes and retrieves a mapping of region -> server for which region has
the highest the locality
- getOrComputeWeightedLocality(int, int, BaseLoadBalancer.Cluster.LocalityType) - 类 中的方法org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer.Cluster
-
Returns locality weighted by region size in MB.
- getOrCreate(ZooKeeperWatcher, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.security.access.TableAuthManager
-
Returns a TableAuthManager from the cache.
- getOriginatingClusterId() - 类 中的方法org.apache.hadoop.hbase.wal.WALKey
-
- getOriginPath() - 类 中的方法org.apache.hadoop.hbase.io.HFileLink
-
- getOrigLogSeqNum() - 类 中的方法org.apache.hadoop.hbase.wal.WALKey
-
Return a positive long if current WALKey is created from a replay edit
- getOutputCommitter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MultiTableOutputFormat
-
- getOutputCommitter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableOutputFormat
-
Returns the output committer.
- getOutputCounts() - 类 中的方法org.apache.hadoop.hbase.wal.WALSplitter.OutputSink
-
- getOverlapGroups(TableName) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- getParameter(String) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.QuotingInputFilter.RequestQuoter
-
Unquote the name and quote the value.
- getParameterMap() - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.QuotingInputFilter.RequestQuoter
-
- getParameterNames() - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.QuotingInputFilter.RequestQuoter
-
Return the set of parameter names, quoting each name.
- getParameterValues(String) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.QuotingInputFilter.RequestQuoter
-
- getParams() - 类 中的方法org.apache.hadoop.hbase.security.access.AuthResult
-
- getPartition(ImmutableBytesWritable, V2, int) - 类 中的方法org.apache.hadoop.hbase.mapred.HRegionPartitioner
-
- getPartition(ImmutableBytesWritable, VALUE, int) - 类 中的方法org.apache.hadoop.hbase.mapreduce.HRegionPartitioner
-
Gets the partition number for a given key (hence record) given the total
number of partitions i.e. number of reduce-tasks for the job.
- getPartition(Import.KeyValueWritableComparable, KeyValue, int) - 类 中的方法org.apache.hadoop.hbase.mapreduce.Import.KeyValueWritableComparablePartitioner
-
- getPartition(ImmutableBytesWritable, VALUE, int) - 类 中的方法org.apache.hadoop.hbase.mapreduce.SimpleTotalOrderPartitioner
-
- getPath() - 类 中的方法org.apache.hadoop.hbase.io.hfile.AbstractHFileReader
-
- getPath() - 类 中的方法org.apache.hadoop.hbase.io.hfile.AbstractHFileWriter
-
- getPath() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
- getPath() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Writer
-
- getPath() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
- getPath() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile.Writer
-
- getPath() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
- getPath(Path) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Return the 'path' component of a Path.
- getPath() - 类 中的方法org.apache.hadoop.hbase.zookeeper.lock.ZKInterProcessLockBase.AcquiredLock
-
- getPeerClusterId() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSource
-
- getPeerClusterId() - 接口 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSourceInterface
-
Get the id that the source is replicating to.
- getPeerClusterZnode() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSource
-
- getPeerClusterZnode() - 接口 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSourceInterface
-
Get the id that the source is replicating to
- getPeerConfig() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint.Context
-
- getPeerID() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.MetricsSource
-
Get the slave peer ID
- getPeerId() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint.Context
-
- getPeerUUID() - 类 中的方法org.apache.hadoop.hbase.replication.HBaseReplicationEndpoint
-
- getPeerUUID() - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint
-
Returns a UUID of the provided peer id.
- getPeerUUID() - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityReplicationEndpoint
-
- getPhase() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionMergeTransaction.JournalEntry
-
- getPhase() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionMergeTransactionImpl.JournalEntryImpl
-
- getPhase() - 接口 中的方法org.apache.hadoop.hbase.regionserver.SplitTransaction.JournalEntry
-
- getPhase() - 类 中的方法org.apache.hadoop.hbase.regionserver.SplitTransactionImpl.JournalEntryImpl
-
- getPid() - 类 中的静态方法org.apache.hadoop.hbase.util.ProcessUtils
-
- getPollCalls() - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureScheduler
-
- getPort() - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
已过时。
- getPort() - 类 中的方法org.apache.hadoop.hbase.http.InfoServer
-
已过时。
- getPos() - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReader
-
- getPos() - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReaderImpl
-
- getPos() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl.RecordReader
-
- getPosition() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- getPosition() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.SequenceFileLogReader
-
- getPosition() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.WALEntryStream
-
- getPosition() - 接口 中的方法org.apache.hadoop.hbase.wal.WAL.Reader
-
- getPrettyHistogramReport(Histogram) - 类 中的静态方法org.apache.hadoop.hbase.util.YammerHistogramUtils
-
- getPrevPtr() - 类 中的方法org.apache.hadoop.hbase.regionserver.LruHashMap.Entry
-
Returns the previous pointer for the entry in the LRU.
- getPrimaryEvictedCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getPrimaryEvictedCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getPrimaryHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getPrimaryHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getPrimaryHRIForDeployedReplica() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck.HbckInfo
-
- getPrimaryMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getPrimaryMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getPrincipalWithoutRealm(String) - 类 中的静态方法org.apache.hadoop.hbase.security.SecurityUtil
-
Get the user name from a principal
- getPriority() - 类 中的方法org.apache.hadoop.hbase.coprocessor.CoprocessorHost.Environment
-
- getPriority() - 类 中的方法org.apache.hadoop.hbase.executor.EventHandler
-
Get the priority level for this handler instance.
- getPriority() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruCachedBlock
-
- getPriority(RPCProtos.RequestHeader, Message, User) - 接口 中的方法org.apache.hadoop.hbase.ipc.PriorityFunction
-
Returns the 'priority type' of the specified request.
- getPriority() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer.Call
-
- getPriority() - 类 中的方法org.apache.hadoop.hbase.master.handler.ClosedRegionHandler
-
- getPriority() - 类 中的方法org.apache.hadoop.hbase.master.handler.OpenedRegionHandler
-
- getPriority(RPCProtos.RequestHeader, Message, User) - 类 中的方法org.apache.hadoop.hbase.master.MasterAnnotationReadingPriorityFunction
-
- getPriority(RPCProtos.RequestHeader, Message, User) - 类 中的方法org.apache.hadoop.hbase.regionserver.AnnotationReadingPriorityFunction
-
Returns a 'priority' based on the request type.
- getPriority() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionRequest
-
Gets the priority for the request
- getPriority() - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
- getPriority(RPCProtos.RequestHeader, Message, User) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
- getPriorityQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.FifoRpcScheduler
-
- getPriorityQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerWrapperImpl
-
- getPriorityQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcScheduler
-
Retrieves length of the priority queue for metrics.
- getPriorityQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.SimpleRpcScheduler
-
- getProcedure(String) - 类 中的方法org.apache.hadoop.hbase.procedure.ProcedureCoordinator
-
Returns the procedure.
- getProcedureExecutor() - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureUtil.NonceProcedureRunnable
-
- getProcedureManager(String) - 类 中的方法org.apache.hadoop.hbase.procedure.MasterProcedureManagerHost
-
- getProcedureManagers() - 类 中的方法org.apache.hadoop.hbase.procedure.ProcedureManagerHost
-
- getProcedureNames() - 类 中的方法org.apache.hadoop.hbase.procedure.ProcedureCoordinator
-
- getProcedureQueue() - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureEnv
-
- getProcedureResult(RpcController, MasterProtos.GetProcedureResultRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- getProcedureSignature() - 类 中的方法org.apache.hadoop.hbase.master.snapshot.SnapshotManager
-
- getProcedureSignature() - 类 中的方法org.apache.hadoop.hbase.procedure.flush.MasterFlushTableProcedureManager
-
- getProcedureSignature() - 类 中的方法org.apache.hadoop.hbase.procedure.flush.RegionServerFlushTableProcedureManager
-
- getProcedureSignature() - 类 中的方法org.apache.hadoop.hbase.procedure.ProcedureManager
-
Return the unique signature of the procedure.
- getProcedureSignature() - 类 中的方法org.apache.hadoop.hbase.regionserver.snapshot.RegionServerSnapshotManager
-
- getProcessName() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getProcessName() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getProcId() - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureUtil.NonceProcedureRunnable
-
- getProgress() - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReader
-
- getProgress() - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReaderImpl
-
- getProgress() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableRecordReader
-
The current progress of the record reader through its data.
- getProgress() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableRecordReaderImpl
-
The current progress of the record reader through its data.
- getProgress() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl.RecordReader
-
- getProgress() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.Compactor
-
- getProgressPct() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionProgress
-
getter for calculated percent complete
- getQualifiedPath() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
- getQualifier(int) - 类 中的方法org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser
-
- getQualifier() - 类 中的方法org.apache.hadoop.hbase.security.access.AuthResult
-
- getQualifier() - 类 中的方法org.apache.hadoop.hbase.TagRewriteCell
-
已过时。
- getQualifierArray() - 类 中的方法org.apache.hadoop.hbase.TagRewriteCell
-
- getQualifierLength() - 类 中的方法org.apache.hadoop.hbase.TagRewriteCell
-
- getQualifierOffset() - 类 中的方法org.apache.hadoop.hbase.TagRewriteCell
-
- getQuarantined() - 类 中的方法org.apache.hadoop.hbase.util.hbck.HFileCorruptionChecker
-
- getQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
Returns the length of the pending queue
- getQueues() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
Returns the list of request queues
- getQuota(UserGroupInformation, TableName) - 类 中的方法org.apache.hadoop.hbase.quotas.RegionServerQuotaManager
-
Returns the quota for an operation.
- getRack(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.RackManager
-
Get the name of the rack containing a server, according to the DNS to
switch mapping.
- getRack(List<ServerName>) - 类 中的方法org.apache.hadoop.hbase.master.RackManager
-
- getRackForRegion(int) - 类 中的方法org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer.Cluster
-
Maps region index to rack index
- getReachedBarrierNode(String) - 类 中的方法org.apache.hadoop.hbase.procedure.ZKProcedureUtil
-
- getReachedBarrierNode(ZKProcedureUtil, String) - 类 中的静态方法org.apache.hadoop.hbase.procedure.ZKProcedureUtil
-
Get the full znode path for the node used by the coordinator to trigger a global barrier
execution and release on each subprocedure.
- getReadAvailable() - 类 中的方法org.apache.hadoop.hbase.quotas.DefaultOperationQuota
-
- getReadAvailable() - 接口 中的方法org.apache.hadoop.hbase.quotas.OperationQuota
-
- getReadAvailable() - 接口 中的方法org.apache.hadoop.hbase.quotas.QuotaLimiter
-
- getReadAvailable() - 类 中的方法org.apache.hadoop.hbase.quotas.TimeBasedLimiter
-
- getReader() - 类 中的方法org.apache.hadoop.hbase.io.hfile.AbstractHFileReader.Scanner
-
- getReader() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFileScanner
-
- getReader() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
- getReader(FileStatus, boolean, CancelableProgressable) - 类 中的方法org.apache.hadoop.hbase.wal.WALSplitter
-
Create a new
WAL.Reader for reading logs to split.
- getReader(Path, CancelableProgressable) - 类 中的方法org.apache.hadoop.hbase.wal.WALSplitter
-
Create a new
WAL.Reader for reading logs to split.
- getReadFailureCount() - 接口 中的方法org.apache.hadoop.hbase.tool.CanaryTool.Sink
-
- getReadFailureCount() - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.StdOutSink
-
- getReadFailures() - 接口 中的方法org.apache.hadoop.hbase.tool.Canary
-
- getReadFailures() - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool
-
- getReadFailures() - 接口 中的方法org.apache.hadoop.hbase.tool.CanaryTool.Sink
-
- getReadFailures() - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.StdOutSink
-
- getReadLatency() - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.RegionTaskResult
-
- getReadLatencyMap() - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.RegionStdOutSink
-
- getReadPoint() - 接口 中的方法org.apache.hadoop.hbase.regionserver.ChangedReadersObserver
-
- getReadpoint(IsolationLevel) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getReadPoint() - 类 中的方法org.apache.hadoop.hbase.regionserver.MultiVersionConcurrencyControl
-
- getReadpoint(IsolationLevel) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- getReadPoint() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreScanner
-
- getReadQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.FifoRpcScheduler
-
- getReadQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerWrapperImpl
-
- getReadQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
- getReadQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcScheduler
-
Retrieves length of the read queue for metrics when use RWQueueRpcExecutor.
- getReadQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.RWQueueRpcExecutor
-
- getReadQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.SimpleRpcScheduler
-
- getReadRequestCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getReadRequestsCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getReadRequestsCount(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsTableWrapperAggregateImpl
-
- getReadRequestsCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- getReadRpcTimeout() - 类 中的方法org.apache.hadoop.hbase.client.HTableWrapper
-
- getReadSuccessCount() - 接口 中的方法org.apache.hadoop.hbase.tool.CanaryTool.Sink
-
- getReadSuccessCount() - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.StdOutSink
-
- getRealCacheSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketCache
-
- getReason() - 类 中的方法org.apache.hadoop.hbase.security.access.AuthResult
-
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.hbase.mapred.MultiTableSnapshotInputFormat
-
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.hbase.mapred.TableInputFormatBase
-
Builds a TableRecordReader.
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.hbase.mapred.TableSnapshotInputFormat
-
- getRecordWriter(FileSystem, JobConf, String, Progressable) - 类 中的方法org.apache.hadoop.hbase.mapred.TableOutputFormat
-
- getRecordWriter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.HFileOutputFormat
-
已过时。
- getRecordWriter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.HFileOutputFormat2
-
- getRecordWriter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MultiTableOutputFormat
-
- getRecordWriter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableOutputFormat
-
Creates a new record writer.
- getRecoveringRegions() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getRecoveringRegions() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
- getRecoveryMode() - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogManagerCoordination
-
Temporary function, mostly for UTs.
- getRecoveryMode() - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination
-
- getRecoveryMode() - 类 中的方法org.apache.hadoop.hbase.master.SplitLogManager
-
- getRefCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
- getReference() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
- getReferencedFileStatus(FileSystem) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
Get the FileStatus of the file referenced by this StoreFileInfo
- getReferencedHFileName(String) - 类 中的静态方法org.apache.hadoop.hbase.io.HFileLink
-
Get the HFile name of the referenced link
- getReferencedRegionName(String) - 类 中的静态方法org.apache.hadoop.hbase.io.HFileLink
-
Get the Region name of the referenced link
- getReferencedTableName(String) - 类 中的静态方法org.apache.hadoop.hbase.io.HFileLink
-
Get the Table name of the referenced link
- getReferenceFilePaths(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
- getReferredToFile(Path) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
- getRegion() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionCoprocessorEnvironment
-
- getRegion(byte[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
Protected utility method for safely obtaining an HRegion handle.
- getRegion() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices.PostOpenDeployContext
-
- getRegion(HBaseProtos.RegionSpecifier) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
Find the HRegion based on a region specifier
- getRegion() - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- getRegionArchiveDir(Path, TableName, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.HFileArchiveUtil
-
Get the archive directory for a given region under the specified table
- getRegionArchiveDir(Path, TableName, String) - 类 中的静态方法org.apache.hadoop.hbase.util.HFileArchiveUtil
-
Get the archive directory for a given region under the specified table
- getRegionAssignments() - 类 中的方法org.apache.hadoop.hbase.master.RegionStates
-
- getRegionAssignmentsByServer(Collection<HRegionInfo>) - 类 中的方法org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer
-
- getRegionAssignmentsByServer() - 类 中的方法org.apache.hadoop.hbase.master.RegionStates
-
Returns a clone of region assignments per server
- getRegionAssignmentSnapshot() - 类 中的方法org.apache.hadoop.hbase.master.RegionPlacementMaintainer
-
- getRegionBlockLocations(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getRegionByEncodedName(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getRegionByEncodedName(byte[], String) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getRegionByStateOfTable(TableName) - 类 中的方法org.apache.hadoop.hbase.master.RegionStates
-
Gets current state of all regions of the table.
- getRegionCountOfTable(TableName) - 类 中的方法org.apache.hadoop.hbase.namespace.NamespaceAuditor
-
Get region count for table
- getRegionCountOfTable(TableName) - 类 中的方法org.apache.hadoop.hbase.quotas.MasterQuotaManager
-
- getRegionDegreeLocalityMappingFromFS(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
This function is to scan the root path of the file system to get the
degree of locality for each region on each of the servers having at least
one block of that region.
- getRegionDegreeLocalityMappingFromFS(Configuration, String, int) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
This function is to scan the root path of the file system to get the
degree of locality for each region on each of the servers having at least
one block of that region.
- getRegionDir() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
- getRegionDirFromRootDir(Path, HRegionInfo) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
- getRegionDirFromTableDir(Path, HRegionInfo) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
- getRegionDirRecoveredEditsDir(Path) - 类 中的静态方法org.apache.hadoop.hbase.wal.WALSplitter
-
- getRegionDirs(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Given a particular table dir, return all the regiondirs inside it, excluding files such as
.tableinfo
- getRegionEventDescriptor(Cell) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.wal.WALEdit
-
- getRegionFileSystem() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getRegionFileSystem() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getRegionFlushedSequenceId(String, String) - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogWorkerCoordination
-
- getRegionFlushedSequenceId(String, String) - 类 中的方法org.apache.hadoop.hbase.coordination.ZkSplitLogWorkerCoordination
-
- getRegionFlushedSequenceId(ZooKeeperWatcher, String, String) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKSplitLog
-
This function is used in distributedLogReplay to fetch last flushed sequence id from ZK
- getRegionHashCode() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getRegionInfo() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionCoprocessorEnvironment
-
- getRegionInfo() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl.InputSplit
-
- getRegionInfo() - 类 中的方法org.apache.hadoop.hbase.master.normalizer.SplitNormalizationPlan
-
- getRegionInfo() - 类 中的方法org.apache.hadoop.hbase.master.RegionPlan
-
- getRegionInfo(byte[]) - 类 中的方法org.apache.hadoop.hbase.master.RegionStates
-
Get the HRegionInfo from cache, if not there, from the hbase:meta table
- getRegionInfo() - 类 中的方法org.apache.hadoop.hbase.regionserver.handler.CloseRegionHandler
-
- getRegionInfo() - 类 中的方法org.apache.hadoop.hbase.regionserver.handler.OpenRegionHandler
-
- getRegionInfo() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getRegionInfo() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
- getRegionInfo() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getRegionInfo() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- getRegionInfo() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionScanner
-
- getRegionInfo(RpcController, AdminProtos.GetRegionInfoRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
- getRegionInfo() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getRegionInfo() - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.RegionTaskResult
-
- getRegionInfoForFS() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
- getRegionInfoForFs(HRegionInfo) - 类 中的静态方法org.apache.hadoop.hbase.util.ServerRegionReplicaUtil
-
Returns the regionInfo object to use for interacting with the file system.
- getRegionInfosFromManifest(SnapshotManifest) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl
-
- getRegionLocation() - 类 中的方法org.apache.hadoop.hbase.mapred.TableSplit
-
- getRegionLocation() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSplit
-
Returns the region location.
- getRegionLocator() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
- getRegionLocator(byte[]) - 类 中的方法org.apache.hadoop.hbase.util.ConnectionCache
-
Retrieve a regionLocator for the table.
- getRegionManifests() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotManifest
-
Get all the Region Manifest from the snapshot
- getRegionManifestsMap() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotManifest
-
Get all the Region Manifest from the snapshot.
- getRegionMap() - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.RegionStdOutSink
-
- getRegionMergeCoordination() - 类 中的方法org.apache.hadoop.hbase.coordination.BaseCoordinatedStateManager
-
Method to retrieve coordination for region merge transaction
- getRegionMergeCoordination() - 类 中的方法org.apache.hadoop.hbase.coordination.ZkCoordinatedStateManager
-
- getRegionName() - 类 中的方法org.apache.hadoop.hbase.master.RegionPlan
-
Get the encoded region name for the region this plan is for.
- getRegionName() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getRegionName() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck.HbckInfo
-
- getRegionNameAsString() - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.RegionTaskResult
-
- getRegionNameAsString() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck.HbckInfo
-
- getRegionNameToRegionInfoMap() - 类 中的方法org.apache.hadoop.hbase.master.SnapshotOfRegionAssignmentFromMeta
-
Get the regioninfo for a region
- getRegionNormalizer(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.master.normalizer.RegionNormalizerFactory
-
Create a region normalizer from the given conf.
- getRegionNormalizerTracker() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getRegionReferenceFileCount(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
- getRegionReopenPlan(HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.master.AssignmentManager
-
- getRegionReplicaStoreFileRefreshMultiplier(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.ServerRegionReplicaUtil
-
- getRegionServer(int) - 类 中的方法org.apache.hadoop.hbase.LocalHBaseCluster
-
- getRegionServer() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSinkManager.SinkPeer
-
- getRegionServer() - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.RegionListTmpl.ImplData
-
- getRegionServer() - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.RSStatusTmpl.ImplData
-
- getRegionServer() - 类 中的方法org.apache.hadoop.hbase.util.JVMClusterUtil.RegionServerThread
-
- getRegionServerAccounting() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getRegionServerAccounting() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
- getRegionServerCoprocessorHost() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getRegionServerCoprocessors() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getRegionServerFatalLogBuffer() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getRegionServerInfo(ServerName) - 类 中的方法org.apache.hadoop.hbase.zookeeper.RegionServerTracker
-
- getRegionServerInfoPort(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getRegionServerMetrics() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getRegionServerOfRegion(HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.master.RegionStates
-
- getRegionServerQuotaManager() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getRegionServerQuotaManager() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
- getRegionServers() - 类 中的方法org.apache.hadoop.hbase.LocalHBaseCluster
-
- getRegionServers() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapperImpl
-
- getRegionServers() - 类 中的方法org.apache.hadoop.hbase.replication.HBaseReplicationEndpoint
-
Get a list of all the addresses of all the region servers
for this peer cluster
- getRegionServerServices() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionCoprocessorEnvironment
-
- getRegionServerServices() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionServerCoprocessorEnvironment
-
Gets the region server services.
- getRegionServerServices() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionMergeTransaction
-
Get the RegonServerServices of the server running the transaction or rollback
- getRegionServerServices() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionMergeTransactionImpl
-
- getRegionServerServices() - 接口 中的方法org.apache.hadoop.hbase.regionserver.SplitTransaction
-
Get the RegonServerServices of the server running the transaction or rollback
- getRegionServerServices() - 类 中的方法org.apache.hadoop.hbase.regionserver.SplitTransactionImpl
-
- getRegionServerToRegionMap() - 类 中的方法org.apache.hadoop.hbase.master.SnapshotOfRegionAssignmentFromMeta
-
Get regionserver to region map
- getRegionServerVersion(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getRegionServerVersion(ServerName) - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- getRegionServerWrapper() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServer
-
- getRegionsFromMeta(MasterProcedureEnv, TableName) - 类 中的静态方法org.apache.hadoop.hbase.master.procedure.ProcedureSyncWait
-
- getRegionsFromMeta(MasterProcedureEnv, TableName, boolean, boolean) - 类 中的静态方法org.apache.hadoop.hbase.master.procedure.ProcedureSyncWait
-
- getRegionsFromMeta() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck.TableInfo
-
- getRegionsInTransition() - 类 中的方法org.apache.hadoop.hbase.master.RegionStates
-
Get regions in transition and their states
- getRegionsInTransitionCount() - 类 中的方法org.apache.hadoop.hbase.master.RegionStates
-
Get the number of regions in transition.
- getRegionsInTransitionInRS() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getRegionsInTransitionInRS() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
Get the regions that are currently being opened or closed in the RS
- getRegionsInTransitionOrderedByTimestamp() - 类 中的方法org.apache.hadoop.hbase.master.RegionStates
-
- getRegionSize(byte[]) - 类 中的方法org.apache.hadoop.hbase.util.RegionSizeCalculator
-
Returns size of given region in bytes.
- getRegionSizeMap() - 类 中的方法org.apache.hadoop.hbase.util.RegionSizeCalculator
-
- getRegionSizeMB(int) - 类 中的方法org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer.Cluster
-
Returns the size in MB from the most recent RegionLoad for region
- getRegionsMovement(FavoredNodesPlan) - 类 中的方法org.apache.hadoop.hbase.master.RegionPlacementMaintainer
-
Return how many regions will move per table since their primary RS will
change
- getRegionsOfTable(TableName) - 类 中的方法org.apache.hadoop.hbase.master.RegionStates
-
Gets the online regions of the specified table.
- getRegionSplitLimit() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplitThread
-
- getRegionState(HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.master.RegionStates
-
- getRegionState(String) - 类 中的方法org.apache.hadoop.hbase.master.RegionStates
-
- getRegionStates() - 类 中的方法org.apache.hadoop.hbase.master.AssignmentManager
-
This SHOULD not be public.
- getRegionsToAdd() - 类 中的方法org.apache.hadoop.hbase.snapshot.RestoreSnapshotHelper.RestoreMetaChanges
-
Returns the list of new regions added during the on-disk restore.
- getRegionsToRemove() - 类 中的方法org.apache.hadoop.hbase.snapshot.RestoreSnapshotHelper.RestoreMetaChanges
-
Returns the list of regions removed during the on-disk restore.
- getRegionsToRestore() - 类 中的方法org.apache.hadoop.hbase.snapshot.RestoreSnapshotHelper.RestoreMetaChanges
-
Returns the list of 'restored regions' during the on-disk restore.
- getRegionToRegionServerMap() - 类 中的方法org.apache.hadoop.hbase.master.SnapshotOfRegionAssignmentFromMeta
-
Get region to region server map
- getRegionTransitionState(HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.master.RegionStates
-
Get region transition state
- getRegionTransitionState(String) - 类 中的方法org.apache.hadoop.hbase.master.RegionStates
-
Get region transition state
- getRegionWrapper() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegion
-
- getRemoteAddress() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCallContext
-
- getRemoteAddress() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer.Call
-
- getRemoteAddress() - 类 中的静态方法org.apache.hadoop.hbase.ipc.RpcServer
-
- getRemoteIp() - 类 中的静态方法org.apache.hadoop.hbase.ipc.RpcServer
-
Returns the remote side ip address when invoked inside an RPC
Returns null incase of an error.
- getRemotePort() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer.Connection
-
- getRemoteUser() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer.Call
-
- getRenewer() - 类 中的方法org.apache.hadoop.hbase.security.token.FsDelegationToken
-
- getReopenStatus(TableName) - 类 中的方法org.apache.hadoop.hbase.master.AssignmentManager
-
Used by the client to identify if all regions have the schema updates
- getReplicaId() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
Get the replica id of this region.
- getReplicaId() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck.HbckInfo
-
- getReplicasToClose() - 类 中的方法org.apache.hadoop.hbase.master.AssignmentManager
-
- getReplicationLoadSink() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationLoad
-
- getReplicationLoadSourceList() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationLoad
-
- getReplicationManager() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.Replication
-
Get the replication sources manager
- getReplicationPeer() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint.Context
-
- getReplicationPeerId() - 类 中的静态方法org.apache.hadoop.hbase.util.ServerRegionReplicaUtil
-
Return the peer id used for replicating to secondary region replicas
- getReplicationPeers() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSourceManager
-
Get the ReplicationPeers used by this ReplicationSourceManager
- getReplicationQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.FifoRpcScheduler
-
- getReplicationQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerWrapperImpl
-
- getReplicationQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcScheduler
-
Retrieves length of the replication queue for metrics.
- getReplicationQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.SimpleRpcScheduler
-
- getReplicationSink() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSinkManager
-
Get a randomly-chosen replication sink to replicate to.
- getReplicationSource(Configuration, FileSystem, ReplicationSourceManager, ReplicationQueues, ReplicationPeers, Server, String, UUID, ReplicationPeerConfig, ReplicationPeer) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSourceManager
-
Factory method to create a replication source
- getReplicationSourceService() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getRequest() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionContext
-
- getRequest() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.StripeCompactionPolicy.StripeCompactionRequest
-
- getRequest() - 类 中的方法org.apache.hadoop.hbase.security.access.AuthResult
-
- getRequestCachingCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getRequestCachingCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getRequestCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getRequestCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getRequestData() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RowProcessor
-
This method should return any additional data that is needed on the
server side to construct the RowProcessor.
- getRequestLog(String) - 类 中的静态方法org.apache.hadoop.hbase.http.HttpRequestLog
-
- getRequestURL() - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.QuotingInputFilter.RequestQuoter
-
Quote the url so that users specifying the HOST HTTP header
can't inject attacks.
- getRequestUser() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCallContext
-
Returns the user credentials associated with the current RPC request or
null if no credentials were provided.
- getRequestUser() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer.Call
-
- getRequestUser() - 类 中的静态方法org.apache.hadoop.hbase.ipc.RpcServer
-
Returns the user credentials associated with the current RPC request or
null if no credentials were provided.
- getRequestUser() - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureEnv
-
- getRequestUserName() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCallContext
-
- getRequestUserName() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer.Call
-
- getRequestUserName() - 类 中的静态方法org.apache.hadoop.hbase.ipc.RpcServer
-
Returns the username for any user associated with the current RPC
request or null if no user is set.
- getRescanNode(ZooKeeperWatcher) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKSplitLog
-
- getResponseBlockSize() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCallContext
-
- getResponseBlockSize() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer.Call
-
- getResponseCellSize() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCallContext
-
The size of response cells that have been accumulated so far.
- getResponseCellSize() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer.Call
-
- getResponseExceptionSize() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCallContext
-
- getResponseExceptionSize() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer.Call
-
- getRestoreDir() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl.InputSplit
-
- getResult() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion.FlushResultImpl
-
- getResult() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region.FlushResult
-
- getResult() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RowProcessor
-
Obtain the processing result.
- getRetainDays() - 类 中的方法org.apache.hadoop.hbase.http.HttpRequestLogAppender
-
- getRetCode() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- getRootBlockCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlockIndex.BlockIndexReader
-
- getRootBlockDataSize(int) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlockIndex.BlockIndexReader
-
- getRootBlockKey(int) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlockIndex.BlockIndexReader
-
- getRootBlockOffset(int) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlockIndex.BlockIndexReader
-
- getRootDir() - 类 中的方法org.apache.hadoop.hbase.master.MasterFileSystem
-
- getRootDir() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getRootDir(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
- getRootDirFileSystem(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
- getRootIndexHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getRootIndexHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getRootIndexMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getRootIndexMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getRootKeyZNode() - 类 中的方法org.apache.hadoop.hbase.security.token.ZKSecretWatcher
-
- getRow() - 类 中的方法org.apache.hadoop.hbase.TagRewriteCell
-
已过时。
- getRowArray() - 类 中的方法org.apache.hadoop.hbase.TagRewriteCell
-
- getRowForRegion(HRegionInfo) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.wal.WALEdit
-
- getRowKeyAtOrBefore(GetClosestRowBeforeTracker) - 类 中的方法org.apache.hadoop.hbase.regionserver.DefaultMemStore
-
- getRowKeyAtOrBefore(byte[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getRowKeyAtOrBefore(GetClosestRowBeforeTracker) - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStore
-
Find the key that matches row exactly, or the one that immediately precedes it.
- getRowKeyAtOrBefore(byte[]) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
Find the key that matches row exactly, or the one that immediately precedes it.
- getRowKeyColumnIndex() - 类 中的方法org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser
-
- getRowLength() - 类 中的方法org.apache.hadoop.hbase.TagRewriteCell
-
- getRowLock(byte[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Get an exclusive ( write lock ) lock on a given row.
- getRowLock(byte[], boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getRowLock(byte[], boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Get a row lock for the specified row.
- getRowLock(byte[], boolean) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Get a row lock for the specified row.
- getRowLockInternal(byte[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getRowLockInternal(byte[], boolean, boolean, Region.RowLock) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getRowNum(RpcController, AggregateProtos.AggregateRequest, RpcCallback<AggregateProtos.AggregateResponse>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.AggregateImplementation
-
Gives the row count for the given column family and column qualifier, in
the given row range as defined in the Scan object.
- getRowOffset() - 类 中的方法org.apache.hadoop.hbase.TagRewriteCell
-
- getRowOrBefore(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.client.HTableWrapper
-
已过时。
- getRowProcessorPB(RowProcessor<S, T>) - 类 中的静态方法org.apache.hadoop.hbase.client.coprocessor.RowProcessorClient
-
- getRowsToLock() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RowProcessor
-
Rows to lock while operation.
- getRPC() - 接口 中的方法org.apache.hadoop.hbase.monitoring.MonitoredRPCHandler
-
- getRPC(boolean) - 接口 中的方法org.apache.hadoop.hbase.monitoring.MonitoredRPCHandler
-
- getRPC() - 类 中的方法org.apache.hadoop.hbase.monitoring.MonitoredRPCHandlerImpl
-
Produces a string representation of the method currently being serviced
by this Handler.
- getRPC(boolean) - 类 中的方法org.apache.hadoop.hbase.monitoring.MonitoredRPCHandlerImpl
-
Produces a string representation of the method currently being serviced
by this Handler.
- getRPCPacketLength() - 接口 中的方法org.apache.hadoop.hbase.monitoring.MonitoredRPCHandler
-
- getRPCPacketLength() - 类 中的方法org.apache.hadoop.hbase.monitoring.MonitoredRPCHandlerImpl
-
Produces a string representation of the method currently being serviced
by this Handler.
- getRPCQueueTime() - 接口 中的方法org.apache.hadoop.hbase.monitoring.MonitoredRPCHandler
-
- getRPCQueueTime() - 类 中的方法org.apache.hadoop.hbase.monitoring.MonitoredRPCHandlerImpl
-
Accesses the queue time for the currently running RPC on the
monitored Handler.
- getRpcServer() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getRpcServer() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
Returns a reference to the region server's RPC server
- getRPCStartTime() - 接口 中的方法org.apache.hadoop.hbase.monitoring.MonitoredRPCHandler
-
- getRPCStartTime() - 类 中的方法org.apache.hadoop.hbase.monitoring.MonitoredRPCHandlerImpl
-
Accesses the start time for the currently running RPC on the
monitored Handler.
- getRpcTimeout() - 类 中的方法org.apache.hadoop.hbase.client.HTableWrapper
-
已过时。
- getRSRpcServices() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getSaslProps() - 类 中的静态方法org.apache.hadoop.hbase.security.HBaseSaslRpcServer
-
- getScan() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
Gets the scan defining the actual details like columns etc.
- getScan() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl.InputSplit
-
- getScan() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSplit
-
Returns a Scan object from the stored string representation.
- getScanDetailsWithId(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
- getScanInfo() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getScanInfo() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getScanLabelGenerators(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.security.visibility.VisibilityUtils
-
- getScanner(Scan) - 类 中的方法org.apache.hadoop.hbase.client.HTableWrapper
-
- getScanner(byte[]) - 类 中的方法org.apache.hadoop.hbase.client.HTableWrapper
-
- getScanner(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.client.HTableWrapper
-
- getScanner(boolean, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.io.HalfStoreFileReader
-
- getScanner(boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.AbstractHFileReader
-
Create a Scanner on this file.
- getScanner(boolean, boolean, boolean) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
- getScanner(boolean, boolean) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
- getScanner(boolean, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2
-
Create a Scanner on this file.
- getScanner(boolean, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV3
-
Create a Scanner on this file.
- getScanner() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl.RecordReader
-
- getScanner(Scan) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getScanner(Scan, List<KeyValueScanner>) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getScanner(Scan, NavigableSet<byte[]>, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getScanner() - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreSnapshot
-
- getScanner(Scan) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Return an iterator that scans over the HRegion, returning the indicated
columns and rows specified by the
Scan.
- getScanner(Scan, List<KeyValueScanner>) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Return an iterator that scans over the HRegion, returning the indicated columns and rows
specified by the
Scan.
- getScanner(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
- getScanner(Scan, NavigableSet<byte[]>, long) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
Return a scanner for both the memstore and the HStore files.
- getScanner(boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile.Reader
-
已过时。
Do not write further code which depends on this call. Instead
use getStoreFileScanner() which uses the StoreFileScanner class/interface
which is the preferred way to scan a store with higher level concepts.
- getScanner(boolean, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile.Reader
-
已过时。
Do not write further code which depends on this call. Instead
use getStoreFileScanner() which uses the StoreFileScanner class/interface
which is the preferred way to scan a store with higher level concepts.
- getScannerOrder() - 类 中的方法org.apache.hadoop.hbase.regionserver.DefaultMemStore.MemStoreScanner
-
MemStoreScanner returns Long.MAX_VALUE because it will always have the latest data among all
scanners.
- getScannerOrder() - 类 中的方法org.apache.hadoop.hbase.regionserver.KeyValueHeap
-
- getScannerOrder() - 接口 中的方法org.apache.hadoop.hbase.regionserver.KeyValueScanner
-
Get the order of this KeyValueScanner.
- getScannerOrder() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
- getScannerOrder() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreScanner
-
- getScannerOrder() - 类 中的方法org.apache.hadoop.hbase.util.CollectionBackedScanner
-
- getScanners(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.DefaultMemStore
-
- getScanners(boolean, boolean, boolean, boolean, ScanQueryMatcher, byte[], byte[], long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
Get all scanners with no filtering based on TTL (that happens further down
the line).
- getScanners(List<StoreFile>, boolean, boolean, boolean, boolean, ScanQueryMatcher, byte[], byte[], long, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getScanners(long) - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStore
-
- getScanners(boolean, boolean, boolean, boolean, ScanQueryMatcher, byte[], byte[], long) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
Get all scanners with no filtering based on TTL (that happens further down
the line).
- getScanners(List<StoreFile>, boolean, boolean, boolean, boolean, ScanQueryMatcher, byte[], byte[], long, boolean) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
Create scanners on the given files and if needed on the memstore with no filtering based on TTL
(that happens further down the line).
- getScannersForStoreFiles(Collection<StoreFile>, boolean, boolean, long) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
Return an array of scanners corresponding to the given
set of store files.
- getScannersForStoreFiles(Collection<StoreFile>, boolean, boolean, boolean, boolean, long) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
Return an array of scanners corresponding to the given set of store files.
- getScannersForStoreFiles(Collection<StoreFile>, boolean, boolean, boolean, boolean, ScanQueryMatcher, long, boolean) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
Return an array of scanners corresponding to the given set of store files, And set the
ScanQueryMatcher for each store file scanner for further optimization
- getScannersForStoreFiles(Collection<StoreFile>, boolean, boolean, boolean, boolean, ScanQueryMatcher, long) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
- getScannersNoCompaction() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreScanner
-
Get a filtered list of scanners.
- getScanQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.FifoRpcScheduler
-
- getScanQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerWrapperImpl
-
- getScanQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
- getScanQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcScheduler
-
Retrieves length of the scan queue for metrics when use RWQueueRpcExecutor.
- getScanQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.RWQueueRpcExecutor
-
- getScanQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.SimpleRpcScheduler
-
- getScans() - 类 中的方法org.apache.hadoop.hbase.mapreduce.MultiTableInputFormatBase
-
Allows subclasses to get the list of
Scan objects.
- getScanType(CompactionRequest) - 接口 中的方法org.apache.hadoop.hbase.regionserver.compactions.Compactor.InternalScannerFactory
-
- getScheduler() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer
-
- getScheduler() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcServerInterface
-
- getSchemaAlterStatus(RpcController, MasterProtos.GetSchemaAlterStatusRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
Get the number of regions of the table that have been updated by the alter.
- getScheme(HttpConfig.Policy) - 类 中的方法org.apache.hadoop.hbase.http.HttpConfig
-
- getSchemePrefix() - 类 中的方法org.apache.hadoop.hbase.http.HttpConfig
-
- getScopes() - 类 中的方法org.apache.hadoop.hbase.wal.WALKey
-
- getScopeWALEntryFilter() - 类 中的方法org.apache.hadoop.hbase.replication.BaseReplicationEndpoint
-
Returns a WALEntryFilter for checking the scope.
- getScopeWALEntryFilter() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.RegionReplicaReplicationEndpoint
-
- getSecretManager() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer
-
- getSecurityCapabilities(RpcController, MasterProtos.SecurityCapabilitiesRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
Returns the security capabilities in effect on the cluster
- getSelectionTime() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionRequest
-
- getSeqid() - 类 中的方法org.apache.hadoop.hbase.executor.EventHandler
-
- getSequenceId() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Do not change this sequence id.
- getSequenceId() - 接口 中的方法org.apache.hadoop.hbase.regionserver.SequenceId
-
- getSequenceID() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile.Reader
-
- getSequenceId() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ReplayHLogKey
-
Returns the original sequence id
- getSequenceId() - 类 中的方法org.apache.hadoop.hbase.TagRewriteCell
-
- getSequenceId() - 类 中的方法org.apache.hadoop.hbase.wal.WALKey
-
Wait for sequence number to be assigned & return the assigned value
- getSerializedLength() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.Cacheable
-
Returns the length of the ByteBuffer required to serialized the object.
- getSerializedLength() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlock
-
- getSerializer(Class<KeyValue>) - 类 中的方法org.apache.hadoop.hbase.mapreduce.KeyValueSerialization
-
- getSerializer(Class<Mutation>) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MutationSerialization
-
- getSerializer(Class<Result>) - 类 中的方法org.apache.hadoop.hbase.mapreduce.ResultSerialization
-
- getServer() - 接口 中的方法org.apache.hadoop.hbase.CoordinatedStateManager
-
- getServer() - 类 中的方法org.apache.hadoop.hbase.coordination.BaseCoordinatedStateManager
-
- getServer() - 类 中的方法org.apache.hadoop.hbase.coordination.ZkCoordinatedStateManager
-
- getServer() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionMergeTransaction
-
Get the Server running the transaction or rollback
- getServer() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionMergeTransactionImpl
-
- getServer() - 接口 中的方法org.apache.hadoop.hbase.regionserver.SplitTransaction
-
Get the Server running the transaction or rollback
- getServer() - 类 中的方法org.apache.hadoop.hbase.regionserver.SplitTransactionImpl
-
- getServerCrashProcessingEnabledEvent() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getServerInfo(RpcController, AdminProtos.GetServerInfoRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
Get some information of the region server.
- getServerManager() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getServerManager() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- getServerManager() - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl.ImplData
-
- getServerManager__IsNotDefault() - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl.ImplData
-
- getServerName() - 接口 中的方法org.apache.hadoop.hbase.coordination.OpenRegionCoordination.OpenRegionDetails
-
- getServerName() - 类 中的方法org.apache.hadoop.hbase.coordination.SplitLogManagerCoordination.SplitLogManagerDetails
-
- getServerName() - 类 中的方法org.apache.hadoop.hbase.coordination.ZkOpenRegionCoordination.ZkOpenRegionDetails
-
- getServerName() - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.QuotingInputFilter.RequestQuoter
-
Quote the server name so that users specifying the HOST HTTP header
can't inject attacks.
- getServerName() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getServerName() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapperImpl
-
- getServerName() - 类 中的方法org.apache.hadoop.hbase.master.procedure.ServerCrashProcedure
-
- getServerName() - 接口 中的方法org.apache.hadoop.hbase.master.procedure.ServerProcedureInterface
-
- getServerName() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getServerName() - 接口 中的方法org.apache.hadoop.hbase.Server
-
- getServerName() - 类 中的方法org.apache.hadoop.hbase.SplitLogTask
-
- getServerName() - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.RegionTaskResult
-
- getServerNameAsString() - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.RegionTaskResult
-
- getServerNameFromWALDirectoryName(Configuration, String) - 类 中的静态方法org.apache.hadoop.hbase.wal.DefaultWALProvider
-
Pulls a ServerName out of a Path generated according to our layout rules.
- getServerNameFromWALDirectoryName(Path) - 类 中的静态方法org.apache.hadoop.hbase.wal.DefaultWALProvider
-
This function returns region server name from a log file name which is in one of the following
formats:
hdfs://<name node>/hbase/.logs/<server name>-splitting/...
- getServerOperationType() - 类 中的方法org.apache.hadoop.hbase.master.procedure.ServerCrashProcedure
-
- getServerOperationType() - 接口 中的方法org.apache.hadoop.hbase.master.procedure.ServerProcedureInterface
-
Given an operation type we can take decisions about what to do with pending operations.
- getServerRegions(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.RegionStates
-
Get a copy of all regions assigned to a server
- getServers() - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl.ImplData
-
- getServers() - 类 中的方法org.apache.hadoop.hbase.tmpl.master.RegionServerListTmpl.ImplData
-
- getServers__IsNotDefault() - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl.ImplData
-
- getServers__IsNotDefault() - 类 中的方法org.apache.hadoop.hbase.tmpl.master.RegionServerListTmpl.ImplData
-
- getService() - 类 中的方法org.apache.hadoop.hbase.coprocessor.AggregateImplementation
-
- getService() - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRowProcessorEndpoint
-
- getService() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.CoprocessorService
-
- getService() - 类 中的方法org.apache.hadoop.hbase.coprocessor.MultiRowMutationEndpoint
-
- getService() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.SingletonCoprocessorService
-
- getService() - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- getService() - 类 中的方法org.apache.hadoop.hbase.security.access.SecureBulkLoadEndpoint
-
- getService() - 类 中的方法org.apache.hadoop.hbase.security.token.TokenProvider
-
- getService() - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityController
-
- getServiceInterface() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer.BlockingServiceAndInterface
-
- getServices() - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- getServices() - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
- getServices() - 类 中的方法org.apache.hadoop.hbase.security.HBasePolicyProvider
-
- getSharedData() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionCoprocessorEnvironment
-
- getSharedStoreFilePercentage() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotInfo.SnapshotStats
-
已过时。
- getSharedStoreFilesSize() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotInfo.SnapshotStats
-
已过时。
- getShortHistogramReport(Histogram) - 类 中的静态方法org.apache.hadoop.hbase.util.YammerHistogramUtils
-
- getSingleSourceSourceByTable() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.MetricsSource
-
- getSinkMetrics() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSink
-
Get replication Sink Metrics
- getSinksForTesting() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSinkManager
-
- getSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.BlockCacheUtil.CachedBlocksByFile
-
- getSize() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.CachedBlock
-
- getSize() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer.Call
-
- getSize() - 类 中的方法org.apache.hadoop.hbase.master.cleaner.DirScanPool
-
- getSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionRequest
-
Gets the total size of all StoreFiles in compaction
- getSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreSnapshot
-
- getSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getSize() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint.ReplicateContext
-
- getSizeOfLogQueue() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.MetricsSource
-
Get the sizeOfLogQueue
- getSizeToCheck(int) - 类 中的方法org.apache.hadoop.hbase.regionserver.IncreasingToUpperBoundRegionSplitPolicy
-
- getSizeToCheck(int) - 类 中的方法org.apache.hadoop.hbase.regionserver.SteppingSplitPolicy
-
- getSkipBadLines() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TextSortReducer
-
- getSkipBadLines() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TsvImporterMapper
-
- getSkipBadLines() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TsvImporterTextMapper
-
- getSkipReplayedEditsFilter() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.RegionReplicaReplicationEndpoint
-
- getSmallCompactionQueueSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplitThread
-
- getSmallCompactionThreadNum() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplitThread
-
- getSmallestReadPoint() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.Compactor
-
- getSmallestReadPoint() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getSmallestReadPoint() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getSmallestReadPoint() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getSmallQueueInitSize() - 类 中的方法org.apache.hadoop.hbase.master.cleaner.HFileCleaner
-
- getSnapshot() - 类 中的方法org.apache.hadoop.hbase.master.snapshot.CloneSnapshotHandler
-
- getSnapshot() - 类 中的方法org.apache.hadoop.hbase.master.snapshot.RestoreSnapshotHandler
-
- getSnapshot() - 类 中的方法org.apache.hadoop.hbase.master.snapshot.TakeSnapshotHandler
-
- getSnapshot() - 接口 中的方法org.apache.hadoop.hbase.master.SnapshotSentinel
-
- getSnapshotDescription() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotInfo.SnapshotStats
-
已过时。
- getSnapshotDescription() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotManifest
-
Get the SnapshotDescription
- getSnapshotDir() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotManifest
-
Get the current snapshot working dir
- getSnapshotDirs(Configuration) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MultiTableSnapshotInputFormatImpl
-
- getSnapshotList(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotInfo
-
已过时。
Returns the list of available snapshots in the specified location
- getSnapshotManager() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getSnapshotManager() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- getSnapshotManifest(Configuration, String, Path, FileSystem) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl
-
- getSnapShotOfAssignment(Collection<HRegionInfo>) - 类 中的方法org.apache.hadoop.hbase.master.AssignmentManager
-
- getSnapshotRootDir(Path) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils
-
Get the snapshot root directory.
- getSnapshotsDir(Path) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils
-
- getSnapshotsFilesMap(Configuration, AtomicLong, AtomicLong) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotInfo
-
已过时。
Returns the map of store files based on path for all snapshots
- getSnapshotSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.DefaultMemStore
-
- getSnapshotSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getSnapshotSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStore
-
Return the size of the snapshot(s) if any
- getSnapshotSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
Returns the memstore snapshot size
- getSnapshotStats(Configuration, HBaseProtos.SnapshotDescription) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotInfo
-
已过时。
Returns the snapshot stats
- getSnapshotStats(Configuration, HBaseProtos.SnapshotDescription, Map<Path, Integer>) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotInfo
-
已过时。
Returns the snapshot stats
- getSnapshotsToScans(Configuration) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MultiTableSnapshotInputFormatImpl
-
- getSocketAddress() - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
- getSource() - 异常错误 中的方法org.apache.hadoop.hbase.errorhandling.ForeignException
-
- getSource() - 类 中的方法org.apache.hadoop.hbase.master.RegionPlan
-
Get the source server for the plan for this region.
- getSource(String) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSourceManager
-
Get the normal source for a given peer
- getSourceMetrics() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSource
-
- getSourceMetrics() - 接口 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSourceInterface
-
Get the associated metrics.
- getSourceName() - 异常错误 中的方法org.apache.hadoop.hbase.errorhandling.TimeoutException
-
- getSources() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSourceManager
-
Get a list of all the normal sources of this rs
- getSplitAlgo(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl
-
- getSplitCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreConfig
-
- getSplitEditFilesSorted(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.wal.WALSplitter
-
Returns sorted set of edit files made by splitter, excluding files
with '.temp' suffix.
- getSplitKey() - 类 中的方法org.apache.hadoop.hbase.io.Reference
-
- getSplitKey(byte[], byte[], boolean) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
已过时。
- getSplitLogDir(Path, String) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKSplitLog
-
- getSplitLogDirTmpComponent(String, String) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKSplitLog
-
- getSplitLogManagerCoordination() - 类 中的方法org.apache.hadoop.hbase.coordination.BaseCoordinatedStateManager
-
Method to retrieve coordination for split log manager
- getSplitLogManagerCoordination() - 类 中的方法org.apache.hadoop.hbase.coordination.ZkCoordinatedStateManager
-
- getSplitLogWorkerCoordination() - 类 中的方法org.apache.hadoop.hbase.coordination.BaseCoordinatedStateManager
-
Method to retrieve coordination for split log worker
- getSplitLogWorkerCoordination() - 类 中的方法org.apache.hadoop.hbase.coordination.ZkCoordinatedStateManager
-
- getSplitOrMergeTracker() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getSplitPartSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreConfig
-
- getSplitPlanCount() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getSplitPlanCount() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapperImpl
-
- getSplitPoint() - 类 中的方法org.apache.hadoop.hbase.master.normalizer.SplitNormalizationPlan
-
- getSplitPoint() - 类 中的方法org.apache.hadoop.hbase.regionserver.DelimitedKeyPrefixRegionSplitPolicy
-
- getSplitPoint() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getSplitPoint() - 类 中的方法org.apache.hadoop.hbase.regionserver.KeyPrefixRegionSplitPolicy
-
- getSplitPoint() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionSplitPolicy
-
- getSplitPoint() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
Determines if Store should be split
- getSplitPoint() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFileManager
-
Gets the split point for the split of this set of store files (approx. middle).
- getSplitPoint() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- getSplitPolicy() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getSplitPolicyClass(HTableDescriptor, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.RegionSplitPolicy
-
- getSplitQueueSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplitThread
-
- getSplits(JobConf, int) - 类 中的方法org.apache.hadoop.hbase.mapred.MultiTableSnapshotInputFormat
-
- getSplits(JobConf, int) - 类 中的方法org.apache.hadoop.hbase.mapred.TableInputFormatBase
-
Calculates the splits that will serve as input for the map tasks.
- getSplits(JobConf, int) - 类 中的方法org.apache.hadoop.hbase.mapred.TableSnapshotInputFormat
-
- getSplits(JobContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.HLogInputFormat
-
已过时。
- getSplits(JobContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MultiTableInputFormatBase
-
Calculates the splits that will serve as input for the map tasks.
- getSplits(JobContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MultiTableSnapshotInputFormat
-
- getSplits(Configuration) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MultiTableSnapshotInputFormatImpl
-
- getSplits(JobContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
Calculates the splits that will serve as input for the map tasks.
- getSplits(JobContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
Calculates the splits that will serve as input for the map tasks.
- getSplits(JobContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormat
-
- getSplits(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl
-
- getSplits(Scan, SnapshotManifest, List<HRegionInfo>, Path, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl
-
- getSplits(Scan, SnapshotManifest, List<HRegionInfo>, Path, Configuration, RegionSplitter.SplitAlgorithm, int) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl
-
- getSplits(JobContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.WALInputFormat
-
- getSplits() - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitCalculator
-
- getSplitSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreConfig
-
- getSplitThreadNum() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplitThread
-
- getSplitTransactionCoordination() - 类 中的方法org.apache.hadoop.hbase.coordination.BaseCoordinatedStateManager
-
Method to retrieve coordination for split transaction.
- getSplitTransactionCoordination() - 类 中的方法org.apache.hadoop.hbase.coordination.ZkCoordinatedStateManager
-
- getStart() - 异常错误 中的方法org.apache.hadoop.hbase.errorhandling.TimeoutException
-
- getStartcode() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getStartEndKeys() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
- getStartEndKeys() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
- getStartKey() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
- getStartKey() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck.HbckInfo
-
- getStartKey() - 接口 中的方法org.apache.hadoop.hbase.util.KeyRange
-
- getStartRow() - 类 中的方法org.apache.hadoop.hbase.mapred.TableSplit
-
- getStartRow() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSplit
-
Returns the start row.
- getStartRow(int) - 接口 中的方法org.apache.hadoop.hbase.regionserver.compactions.StripeCompactionPolicy.StripeInformationProvider
-
Gets the start row for a given stripe.
- getStartRow(int) - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- getStarts() - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitCalculator
-
- getStartTime() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapperImpl
-
- getStartTime() - 接口 中的方法org.apache.hadoop.hbase.monitoring.MonitoredTask
-
- getState(int) - 类 中的方法org.apache.hadoop.hbase.master.procedure.AddColumnFamilyProcedure
-
- getState(int) - 类 中的方法org.apache.hadoop.hbase.master.procedure.CreateNamespaceProcedure
-
- getState(int) - 类 中的方法org.apache.hadoop.hbase.master.procedure.CreateTableProcedure
-
- getState(int) - 类 中的方法org.apache.hadoop.hbase.master.procedure.DeleteColumnFamilyProcedure
-
- getState(int) - 类 中的方法org.apache.hadoop.hbase.master.procedure.DeleteNamespaceProcedure
-
- getState(int) - 类 中的方法org.apache.hadoop.hbase.master.procedure.DeleteTableProcedure
-
- getState(int) - 类 中的方法org.apache.hadoop.hbase.master.procedure.DisableTableProcedure
-
- getState(int) - 类 中的方法org.apache.hadoop.hbase.master.procedure.EnableTableProcedure
-
- getState(int) - 类 中的方法org.apache.hadoop.hbase.master.procedure.ModifyColumnFamilyProcedure
-
- getState(int) - 类 中的方法org.apache.hadoop.hbase.master.procedure.ModifyNamespaceProcedure
-
- getState(int) - 类 中的方法org.apache.hadoop.hbase.master.procedure.ModifyTableProcedure
-
- getState(int) - 类 中的方法org.apache.hadoop.hbase.master.procedure.ServerCrashProcedure
-
- getState(int) - 类 中的方法org.apache.hadoop.hbase.master.procedure.TruncateTableProcedure
-
- getState() - 接口 中的方法org.apache.hadoop.hbase.monitoring.MonitoredTask
-
- getState(String) - 类 中的方法org.apache.hadoop.hbase.namespace.NamespaceAuditor
-
- getStateId(MasterProcedureProtos.AddColumnFamilyState) - 类 中的方法org.apache.hadoop.hbase.master.procedure.AddColumnFamilyProcedure
-
- getStateId(MasterProcedureProtos.CreateNamespaceState) - 类 中的方法org.apache.hadoop.hbase.master.procedure.CreateNamespaceProcedure
-
- getStateId(MasterProcedureProtos.CreateTableState) - 类 中的方法org.apache.hadoop.hbase.master.procedure.CreateTableProcedure
-
- getStateId(MasterProcedureProtos.DeleteColumnFamilyState) - 类 中的方法org.apache.hadoop.hbase.master.procedure.DeleteColumnFamilyProcedure
-
- getStateId(MasterProcedureProtos.DeleteNamespaceState) - 类 中的方法org.apache.hadoop.hbase.master.procedure.DeleteNamespaceProcedure
-
- getStateId(MasterProcedureProtos.DeleteTableState) - 类 中的方法org.apache.hadoop.hbase.master.procedure.DeleteTableProcedure
-
- getStateId(MasterProcedureProtos.DisableTableState) - 类 中的方法org.apache.hadoop.hbase.master.procedure.DisableTableProcedure
-
- getStateId(MasterProcedureProtos.EnableTableState) - 类 中的方法org.apache.hadoop.hbase.master.procedure.EnableTableProcedure
-
- getStateId(MasterProcedureProtos.ModifyColumnFamilyState) - 类 中的方法org.apache.hadoop.hbase.master.procedure.ModifyColumnFamilyProcedure
-
- getStateId(MasterProcedureProtos.ModifyNamespaceState) - 类 中的方法org.apache.hadoop.hbase.master.procedure.ModifyNamespaceProcedure
-
- getStateId(MasterProcedureProtos.ModifyTableState) - 类 中的方法org.apache.hadoop.hbase.master.procedure.ModifyTableProcedure
-
- getStateId(MasterProcedureProtos.ServerCrashState) - 类 中的方法org.apache.hadoop.hbase.master.procedure.ServerCrashProcedure
-
- getStateId(MasterProcedureProtos.TruncateTableState) - 类 中的方法org.apache.hadoop.hbase.master.procedure.TruncateTableProcedure
-
- getStateTime() - 接口 中的方法org.apache.hadoop.hbase.monitoring.MonitoredTask
-
- getStats() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.BlockCache
-
Get the statistics for this block cache.
- getStats() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketCache
-
- getStats() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache
-
- getStats() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
Get counter statistics for this cache.
- getStats() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WALEditsReplaySink
-
Get a string representation of this sink's metrics
- getStats() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSink
-
Get a string representation of this sink's metrics
- getStats() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSource
-
- getStats() - 接口 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSourceInterface
-
Get a string representation of the current statistics
for this source
- getStats() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSourceManager
-
Get a string representation of all the sources' metrics
- getStatus() - 类 中的方法org.apache.hadoop.hbase.monitoring.MonitoredRPCHandlerImpl
-
Gets the status of this handler; if it is currently servicing an RPC,
this status will include the RPC information.
- getStatus() - 接口 中的方法org.apache.hadoop.hbase.monitoring.MonitoredTask
-
- getStatus() - 接口 中的方法org.apache.hadoop.hbase.monitoring.MonitoredTask.StatusJournalEntry
-
- getStatus() - 类 中的方法org.apache.hadoop.hbase.procedure.Procedure
-
- getStatusJournal() - 接口 中的方法org.apache.hadoop.hbase.monitoring.MonitoredTask
-
- getStatusTime() - 接口 中的方法org.apache.hadoop.hbase.monitoring.MonitoredTask
-
- getStd(RpcController, AggregateProtos.AggregateRequest, RpcCallback<AggregateProtos.AggregateResponse>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.AggregateImplementation
-
Gives a Pair with first object a List containing Sum and sum of squares,
and the second object as row count.
- getStealFromQueue() - 类 中的方法org.apache.hadoop.hbase.util.StealJobQueue
-
Get a queue whose job might be stolen by the consumer of this original queue
- getStore(byte[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getStore(byte[]) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Return the Store for the given family
Use with caution.
- getStoreArchivePath(Configuration, TableName, String, String) - 类 中的静态方法org.apache.hadoop.hbase.util.HFileArchiveUtil
-
Get the directory to archive a store directory
- getStoreArchivePath(Configuration, HRegionInfo, Path, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.util.HFileArchiveUtil
-
Get the directory to archive a store directory
- getStoreCompactionPriority() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFileManager
-
- getStoreCompactionPriority() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- getStoreDir(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
Returns the directory path of the specified family
- getStoreEngine() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
Returns the StoreEngine that is backing this concrete implementation of Store.
- getStoreFile(RpcController, AdminProtos.GetStoreFileRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
- getStoreFileComparator() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFileManager
-
- getStoreFileComparator() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- getStorefileCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFileManager
-
Returns the number of files currently in use.
- getStorefileCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- getStoreFileInfo(Configuration, FileSystem, HRegionInfo, HRegionInfo, String, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.ServerRegionReplicaUtil
-
Returns a StoreFileInfo from the given FileStatus.
- getStoreFileList(byte[][]) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getStoreFileList(byte[][]) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- getStoreFileManager() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreEngine
-
- getStoreFileOpenAndCloseThreadPool(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getStorefiles() - 接口 中的方法org.apache.hadoop.hbase.regionserver.compactions.StripeCompactionPolicy.StripeInformationProvider
-
- getStoreFiles(byte[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
Returns the store files available for the family.
- getStoreFiles(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
- getStoreFiles(String, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
Returns the store files available for the family.
- getStorefiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getStorefiles() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getStorefiles() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFileManager
-
Gets the snapshot of the store files currently in use.
- getStorefiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- getStoreFileScanner(boolean, boolean, boolean, long, long, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile.Reader
-
Get a scanner to scan over this StoreFile.
- getStorefilesCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getStorefilesCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getStoreFilesCount() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotInfo.SnapshotStats
-
已过时。
- getStorefilesIndexSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getStorefilesIndexSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getStoreFileSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getStoreFilesLocatedStatus(HRegionFileSystem, String, boolean) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
Returns the store files' LocatedFileStatus which available for the family.
- getStorefilesSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getStoreFilesSize(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsTableWrapperAggregateImpl
-
- getStorefilesSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getStoreFilesSize() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotInfo.SnapshotStats
-
已过时。
- getStoreFileTtl() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getStoreFileTtl() - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreConfigInformation
-
- getStoreFlusher() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreEngine
-
- getStoreHomedir(Path, HRegionInfo, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HStore
-
已过时。
- getStoreHomedir(Path, String, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HStore
-
已过时。
- getStoreOpenAndCloseThreadPool(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getStores() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getStores() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Return the list of Stores managed by this region
Use with caution.
- getStoreSizeUncompressed() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getStoreSizeUncompressed() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getStream(boolean) - 类 中的方法org.apache.hadoop.hbase.io.FSDataInputStreamWrapper
-
Get the stream to use.
- getStream() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogWriter
-
- getStripeBoundaries() - 接口 中的方法org.apache.hadoop.hbase.regionserver.compactions.StripeCompactionPolicy.StripeInformationProvider
-
- getStripeBoundaries() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- getStripeCompactMaxFiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreConfig
-
- getStripeCompactMinFiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreConfig
-
- getStripeCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.compactions.StripeCompactionPolicy.StripeInformationProvider
-
- getStripeCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- getStripes() - 接口 中的方法org.apache.hadoop.hbase.regionserver.compactions.StripeCompactionPolicy.StripeInformationProvider
-
- getStripes() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- getSum(RpcController, AggregateProtos.AggregateRequest, RpcCallback<AggregateProtos.AggregateResponse>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.AggregateImplementation
-
Gives the sum for a given combination of column qualifier and column
family, in the given row range as defined in the Scan object.
- getSumHitCachingCountsPastNPeriods() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getSumHitCachingCountsPastNPeriods() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getSumHitCountsPastNPeriods() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getSumHitCountsPastNPeriods() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getSumRequestCachingCountsPastNPeriods() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getSumRequestCachingCountsPastNPeriods() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getSumRequestCountsPastNPeriods() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getSumRequestCountsPastNPeriods() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getSupportedCompressionAlgorithms() - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.HFile
-
Get names of supported compression algorithms.
- getTable(TableName) - 类 中的方法org.apache.hadoop.hbase.coprocessor.CoprocessorHost.Environment
-
Open a table from within the Coprocessor environment
- getTable(TableName, ExecutorService) - 类 中的方法org.apache.hadoop.hbase.coprocessor.CoprocessorHost.Environment
-
Open a table from within the Coprocessor environment
- getTable() - 类 中的方法org.apache.hadoop.hbase.mapred.TableInputFormatBase
-
Allows subclasses to get the
Table.
- getTable() - 类 中的方法org.apache.hadoop.hbase.mapred.TableSplit
-
- getTable() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
Allows subclasses to get the
Table.
- getTable() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSplit
-
Returns the table name.
- getTable(String) - 类 中的方法org.apache.hadoop.hbase.util.ConnectionCache
-
Caller closes the table afterwards.
- getTableArchivePath(Path, TableName) - 类 中的静态方法org.apache.hadoop.hbase.util.HFileArchiveUtil
-
Get the path to the table archive directory based on the configured archive directory.
- getTableArchivePath(Configuration, TableName) - 类 中的静态方法org.apache.hadoop.hbase.util.HFileArchiveUtil
-
Get the path to the table archive directory based on the configured archive directory.
- getTableCfWALEntryFilter() - 类 中的方法org.apache.hadoop.hbase.replication.BaseReplicationEndpoint
-
Returns a WALEntryFilter for checking replication per table and CF.
- getTableDesc() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getTableDesc() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- getTableDescriptor() - 类 中的方法org.apache.hadoop.hbase.client.HTableWrapper
-
- getTableDescriptor() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl.InputSplit
-
- getTableDescriptor() - 类 中的方法org.apache.hadoop.hbase.master.handler.TableEventHandler
-
Gets a TableDescriptor from the masterServices.
- getTableDescriptor() - 类 中的方法org.apache.hadoop.hbase.snapshot.RestoreSnapshotHelper.RestoreMetaChanges
-
- getTableDescriptor() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotManifest
-
Get the table descriptor from the Snapshot
- getTableDescriptorFromFs(FileSystem, Path, TableName) - 类 中的静态方法org.apache.hadoop.hbase.util.FSTableDescriptors
-
Returns the latest table descriptor for the given table directly from the file system
if it exists, bypassing the local cache.
- getTableDescriptorFromFs(FileSystem, Path, TableName, boolean) - 类 中的静态方法org.apache.hadoop.hbase.util.FSTableDescriptors
-
Returns the latest table descriptor for the table located at the given directory
directly from the file system if it exists.
- getTableDescriptorFromFs(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.FSTableDescriptors
-
Returns the latest table descriptor for the table located at the given directory
directly from the file system if it exists.
- getTableDescriptorFromFs(FileSystem, Path, boolean) - 类 中的静态方法org.apache.hadoop.hbase.util.FSTableDescriptors
-
Returns the latest table descriptor for the table located at the given directory
directly from the file system if it exists.
- getTableDescriptors() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getTableDescriptors(RpcController, MasterProtos.GetTableDescriptorsRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
Get list of TableDescriptors for requested tables.
- getTableDescriptors() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- getTableDescriptors() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getTableDescriptors() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint.Context
-
- getTableDir() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
- getTableDir(Path, TableName) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Returns the Path object representing the table directory under
path rootdir
- getTableDirs(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
- getTableFragmentation(HMaster) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Runs through the HBase rootdir and checks how many stores for each table
have more than one file in them.
- getTableFragmentation(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Runs through the HBase rootdir and checks how many stores for each table
have more than one file in them.
- getTableInfo() - 接口 中的方法org.apache.hadoop.hbase.util.hbck.TableIntegrityErrorHandler
-
- getTableInfo() - 类 中的方法org.apache.hadoop.hbase.util.hbck.TableIntegrityErrorHandlerImpl
- getTableInfoPath(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.FSTableDescriptors
-
Find the most current table info file for the table located in the given table directory.
- getTableLimiter(TableName) - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaCache
-
Returns the limiter associated to the specified table.
- getTableLimiter(TableName) - 类 中的方法org.apache.hadoop.hbase.quotas.UserQuotaState
-
Return the limiter for the specified table associated with this quota.
- getTableLockManager() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- getTableLockManager() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getTableLockManager() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
- getTableName() - 类 中的方法org.apache.hadoop.hbase.client.HTableWrapper
-
- getTableName() - 类 中的方法org.apache.hadoop.hbase.mapred.TableSplit
-
- getTableName() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSplit
-
Returns the table name converted to a byte array.
- getTableName() - 类 中的方法org.apache.hadoop.hbase.master.procedure.AddColumnFamilyProcedure
-
- getTableName() - 类 中的方法org.apache.hadoop.hbase.master.procedure.CreateNamespaceProcedure
-
- getTableName() - 类 中的方法org.apache.hadoop.hbase.master.procedure.CreateTableProcedure
-
- getTableName() - 类 中的方法org.apache.hadoop.hbase.master.procedure.DeleteColumnFamilyProcedure
-
- getTableName() - 类 中的方法org.apache.hadoop.hbase.master.procedure.DeleteNamespaceProcedure
-
- getTableName() - 类 中的方法org.apache.hadoop.hbase.master.procedure.DeleteTableProcedure
-
- getTableName() - 类 中的方法org.apache.hadoop.hbase.master.procedure.DisableTableProcedure
-
- getTableName() - 类 中的方法org.apache.hadoop.hbase.master.procedure.EnableTableProcedure
-
- getTableName() - 类 中的方法org.apache.hadoop.hbase.master.procedure.ModifyColumnFamilyProcedure
-
- getTableName() - 类 中的方法org.apache.hadoop.hbase.master.procedure.ModifyNamespaceProcedure
-
- getTableName() - 类 中的方法org.apache.hadoop.hbase.master.procedure.ModifyTableProcedure
-
- getTableName() - 接口 中的方法org.apache.hadoop.hbase.master.procedure.TableProcedureInterface
-
- getTableName() - 类 中的方法org.apache.hadoop.hbase.master.procedure.TruncateTableProcedure
-
- getTableName() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getTableName() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getTableName() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- getTableName() - 类 中的方法org.apache.hadoop.hbase.security.access.AuthResult
-
- getTableName() - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.RegionTaskResult
-
- getTableName(Path) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Returns the
TableName object representing
the table directory under
path rootdir
- getTableName() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck.HbckInfo
-
- getTablename() - 类 中的方法org.apache.hadoop.hbase.wal.WALKey
-
- getTableName() - 类 中的方法org.apache.hadoop.hbase.wal.WALSplitter.RegionEntryBuffer
-
- getTableNameAsString() - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.RegionTaskResult
-
- getTableNames(RpcController, MasterProtos.GetTableNamesRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
Get list of userspace table names
- getTableNamespaceManager() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getTableNamespaceManager() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- getTableOperationType() - 类 中的方法org.apache.hadoop.hbase.master.procedure.AddColumnFamilyProcedure
-
- getTableOperationType() - 类 中的方法org.apache.hadoop.hbase.master.procedure.CreateNamespaceProcedure
-
- getTableOperationType() - 类 中的方法org.apache.hadoop.hbase.master.procedure.CreateTableProcedure
-
- getTableOperationType() - 类 中的方法org.apache.hadoop.hbase.master.procedure.DeleteColumnFamilyProcedure
-
- getTableOperationType() - 类 中的方法org.apache.hadoop.hbase.master.procedure.DeleteNamespaceProcedure
-
- getTableOperationType() - 类 中的方法org.apache.hadoop.hbase.master.procedure.DeleteTableProcedure
-
- getTableOperationType() - 类 中的方法org.apache.hadoop.hbase.master.procedure.DisableTableProcedure
-
- getTableOperationType() - 类 中的方法org.apache.hadoop.hbase.master.procedure.EnableTableProcedure
-
- getTableOperationType() - 类 中的方法org.apache.hadoop.hbase.master.procedure.ModifyColumnFamilyProcedure
-
- getTableOperationType() - 类 中的方法org.apache.hadoop.hbase.master.procedure.ModifyNamespaceProcedure
-
- getTableOperationType() - 类 中的方法org.apache.hadoop.hbase.master.procedure.ModifyTableProcedure
-
- getTableOperationType() - 接口 中的方法org.apache.hadoop.hbase.master.procedure.TableProcedureInterface
-
Given an operation type we can take decisions about what to do with pending operations.
- getTableOperationType() - 类 中的方法org.apache.hadoop.hbase.master.procedure.TruncateTableProcedure
-
- getTablePermissions(Configuration, TableName) - 类 中的静态方法org.apache.hadoop.hbase.security.access.AccessControlLists
-
- getTableSet() - 类 中的方法org.apache.hadoop.hbase.master.SnapshotOfRegionAssignmentFromMeta
-
Get the table set
- getTablesInStates(ZooKeeperProtos.Table.State...) - 接口 中的方法org.apache.hadoop.hbase.TableStateManager
-
- getTablesInStates(ZooKeeperProtos.Table.State...) - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKTableStateManager
-
Gets a list of all the tables set as disabling in zookeeper.
- getTableSize(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsTableWrapperAggregateImpl
-
- getTablesOnMaster(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer
-
- getTableSourceAgg() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsTable
-
- getTableStateManager() - 接口 中的方法org.apache.hadoop.hbase.CoordinatedStateManager
-
Returns implementation of TableStateManager.
- getTableStateManager() - 类 中的方法org.apache.hadoop.hbase.coordination.BaseCoordinatedStateManager
-
- getTableStateManager() - 类 中的方法org.apache.hadoop.hbase.coordination.ZkCoordinatedStateManager
-
- getTableStateManager() - 类 中的方法org.apache.hadoop.hbase.master.AssignmentManager
-
- getTableStoreFilePathMap(Map<String, Path>, FileSystem, Path, TableName) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Runs through the HBase rootdir/tablename and creates a reverse lookup map for
table StoreFile names to the full Path.
- getTableStoreFilePathMap(Map<String, Path>, FileSystem, Path, TableName, PathFilter, ExecutorService, HBaseFsck.ErrorReporter) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Runs through the HBase rootdir/tablename and creates a reverse lookup map for
table StoreFile names to the full Path.
- getTableStoreFilePathMap(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Runs through the HBase rootdir and creates a reverse lookup map for
table StoreFile names to the full Path.
- getTableStoreFilePathMap(FileSystem, Path, PathFilter, ExecutorService, HBaseFsck.ErrorReporter) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Runs through the HBase rootdir and creates a reverse lookup map for
table StoreFile names to the full Path.
- getTableToRegionMap() - 类 中的方法org.apache.hadoop.hbase.master.SnapshotOfRegionAssignmentFromMeta
-
Get regions for tables
- getTableWrapperAgg() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsTable
-
- getTagsArray() - 类 中的方法org.apache.hadoop.hbase.TagRewriteCell
-
- getTagsLength() - 类 中的方法org.apache.hadoop.hbase.TagRewriteCell
-
- getTagsOffset() - 类 中的方法org.apache.hadoop.hbase.TagRewriteCell
-
- getTailKbParam(HttpServletRequest) - 类 中的方法org.apache.hadoop.hbase.monitoring.StateDumpServlet
-
- getTailPtr() - 类 中的方法org.apache.hadoop.hbase.regionserver.LruHashMap
-
Get the tail of the linked list (most recently used).
- getTakingSnapshotLock() - 类 中的方法org.apache.hadoop.hbase.master.snapshot.SnapshotManager
-
- getTaskMonitor() - 类 中的方法org.apache.hadoop.hbase.tmpl.common.TaskMonitorTmpl.ImplData
-
- getTaskMonitor__IsNotDefault() - 类 中的方法org.apache.hadoop.hbase.tmpl.common.TaskMonitorTmpl.ImplData
-
- getTaskNode() - 类 中的方法org.apache.hadoop.hbase.coordination.ZkSplitLogWorkerCoordination.ZkSplitTaskDetails
-
- getTaskReadySeq() - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogWorkerCoordination
-
Used by unit tests to check how many tasks were processed
- getTaskReadySeq() - 类 中的方法org.apache.hadoop.hbase.coordination.ZkSplitLogWorkerCoordination
-
- getTaskReadySeq() - 类 中的方法org.apache.hadoop.hbase.regionserver.SplitLogWorker
-
Returns the number of tasks processed by coordination.
- getTasks() - 类 中的方法org.apache.hadoop.hbase.coordination.SplitLogManagerCoordination.SplitLogManagerDetails
-
- getTasks() - 类 中的方法org.apache.hadoop.hbase.monitoring.TaskMonitor
-
Produces a list containing copies of the current state of all non-expired
MonitoredTasks handled by this TaskMonitor.
- getTempDir() - 类 中的方法org.apache.hadoop.hbase.master.MasterFileSystem
-
- getThreadCount() - 类 中的方法org.apache.hadoop.hbase.master.BulkAssigner
-
- getThreadCount() - 类 中的方法org.apache.hadoop.hbase.master.BulkReOpen
-
Configuration knobs "hbase.bulk.reopen.threadpool.size" number of regions
that can be reopened concurrently.
- getThreadInfo(Thread) - 类 中的静态方法org.apache.hadoop.hbase.monitoring.ThreadMonitoring
-
- getThreadNamePrefix() - 类 中的方法org.apache.hadoop.hbase.master.BulkAssigner
-
- getThreadNamePrefix() - 类 中的方法org.apache.hadoop.hbase.master.GeneralBulkAssigner
-
- getThreadWakeFrequency() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
Interval at which threads should run
- getThrottlePoint() - 类 中的方法org.apache.hadoop.hbase.master.cleaner.HFileCleaner
-
- getThrottlePoint() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionConfiguration
-
- getThroughputControllerClass(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.throttle.CompactionThroughputControllerFactory
-
- getThroughputControllerClass(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.throttle.FlushThroughputControllerFactory
-
- getTimeOfDeath(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.DeadServer
-
Get the time when a server died
- getTimeoutOnRIT() - 类 中的方法org.apache.hadoop.hbase.master.BulkAssigner
-
- getTimeoutOnRIT() - 类 中的方法org.apache.hadoop.hbase.master.GeneralBulkAssigner
-
- getTimeRangeTracker() - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreSnapshot
-
- getTimeRangeTracker(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.TimeRangeTracker
-
- getTimeStamp() - 接口 中的方法org.apache.hadoop.hbase.monitoring.MonitoredTask.StatusJournalEntry
-
- getTimeStamp() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionMergeTransaction.JournalEntry
-
- getTimeStamp() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionMergeTransactionImpl.JournalEntryImpl
-
- getTimeStamp() - 接口 中的方法org.apache.hadoop.hbase.regionserver.SplitTransaction.JournalEntry
-
- getTimeStamp() - 类 中的方法org.apache.hadoop.hbase.regionserver.SplitTransactionImpl.JournalEntryImpl
-
- getTimestamp() - 类 中的方法org.apache.hadoop.hbase.TagRewriteCell
-
- getTimestampKeyColumnIndex() - 类 中的方法org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser
-
- getTimeStampOfLastAppliedOp() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.MetricsSink
-
Get the TimeStampOfLastAppliedOp.
- getTimeStampOfLastShippedOp() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.MetricsSource
-
Get the timeStampsOfLastShippedOp, if there are multiple groups, return the latest one
- getTimeToPurgeDeletes() - 类 中的方法org.apache.hadoop.hbase.regionserver.ScanInfo
-
- getTimeUnitInMillis() - 类 中的方法org.apache.hadoop.hbase.quotas.RateLimiter
-
- getTopHosts() - 类 中的方法org.apache.hadoop.hbase.HDFSBlocksDistribution
-
return the sorted list of hosts in terms of their weights
- getTopHostsWithWeights() - 类 中的方法org.apache.hadoop.hbase.HDFSBlocksDistribution
-
return the sorted list of hosts in terms of their weights
- getTotalBloomSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile.Reader
-
- getTotalCompactedSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionProgress
-
- getTotalCompactingKvs() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionProgress
-
- getTotalExpectedRegions() - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.RegionStdOutSink
-
- getTotalFileSize(Collection<StoreFile>) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.compactions.StripeCompactionPolicy
-
- getTotalQueueSize() - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerWrapperImpl
-
- getTotalRefCount() - 类 中的静态方法org.apache.hadoop.hbase.security.access.TableAuthManager
-
- getTotalRequestsCount(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsTableWrapperAggregateImpl
-
- getTotalSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketAllocator
-
- getTotalStaticBloomSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getTotalStaticBloomSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
Returns the total byte size of all Bloom filter bit arrays.
- getTotalStaticIndexSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- getTotalStaticIndexSize() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
Returns the total size of all index blocks in the data block indexes, including the root level,
intermediate levels, and the leaf level for multi-level indexes, or just the root level for
single-level indexes.
- getTotalTableFragmentation(HMaster) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Returns the total overall fragmentation percentage.
- getTotalUncompressedBytes() - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- getTotalUncompressedBytes() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile.Reader
-
- getTotalUncompressedSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlockIndex.BlockIndexWriter
-
The total uncompressed size of the root index block, intermediate-level
index blocks, and leaf-level index blocks.
- getTrailer() - 类 中的方法org.apache.hadoop.hbase.io.hfile.AbstractHFileReader
-
- getTrailer() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
- getTrailerHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getTrailerHitCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getTrailerMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- getTrailerMissCount() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- getTrailerSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- getTs() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TextSortReducer
-
- getTs() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TsvImporterMapper
-
- getTtl() - 类 中的方法org.apache.hadoop.hbase.regionserver.ScanInfo
-
- getType() - 类 中的方法org.apache.hadoop.hbase.master.normalizer.EmptyNormalizationPlan
-
- getType() - 类 中的方法org.apache.hadoop.hbase.master.normalizer.MergeNormalizationPlan
-
- getType() - 接口 中的方法org.apache.hadoop.hbase.master.normalizer.NormalizationPlan
-
- getType() - 类 中的方法org.apache.hadoop.hbase.master.normalizer.SplitNormalizationPlan
-
- getTypeByte() - 类 中的方法org.apache.hadoop.hbase.TagRewriteCell
-
- getUnblockedFlushCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerContext
-
- getUncaughtExceptionHandler() - 类 中的方法org.apache.hadoop.hbase.master.BulkAssigner
-
- getUncaughtExceptionHandler() - 类 中的方法org.apache.hadoop.hbase.master.GeneralBulkAssigner
-
- getUncompressedDataIndexSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- getUncompressedSizeWithoutHeader() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlock
-
- getUnDeletedHFileRefsQueues() - 类 中的方法org.apache.hadoop.hbase.master.cleaner.ReplicationZKNodeCleaner
-
- getUnDeletedQueues() - 类 中的方法org.apache.hadoop.hbase.master.cleaner.ReplicationZKNodeCleaner
-
- getUniqueBlocksTotalWeight() - 类 中的方法org.apache.hadoop.hbase.HDFSBlocksDistribution
-
- getUniqueFile(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.StoreFile
-
- getUnneededFiles(long, List<StoreFile>) - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFileManager
-
- getUnneededFiles(long, List<StoreFile>) - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- getUnreferencedFiles(Iterable<FileStatus>, SnapshotManager) - 类 中的方法org.apache.hadoop.hbase.master.snapshot.SnapshotFileCache
-
Check to see if any of the passed file names is contained in any of the snapshots.
- getUsage() - 类 中的方法org.apache.hadoop.hbase.master.HMasterCommandLine
-
- getUsage() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServerCommandLine
-
- getUsage() - 类 中的方法org.apache.hadoop.hbase.util.ServerCommandLine
-
Implementing subclasses should return a usage string to print out.
- getUsedBytes() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketAllocator.Bucket
-
- getUsedSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketAllocator
-
- getUser() - 类 中的方法org.apache.hadoop.hbase.security.access.AuthResult
-
- getUserAuths(byte[], boolean) - 类 中的方法org.apache.hadoop.hbase.security.visibility.DefaultVisibilityLabelServiceImpl
-
- getUserAuths(String) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityLabelsCache
-
- getUserAuths(byte[], boolean) - 接口 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityLabelService
-
Retrieve the visibility labels for the user.
- getUserAuthsAsOrdinals(String) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityLabelsCache
-
Returns the list of ordinals of labels associated with the user
- getUserAuthsDataToWriteToZooKeeper(Map<String, List<Integer>>) - 类 中的静态方法org.apache.hadoop.hbase.security.visibility.VisibilityUtils
-
Creates the user auth data to be written to zookeeper.
- getUserFromPrincipal(String) - 类 中的静态方法org.apache.hadoop.hbase.security.SecurityUtil
-
Get the user name from a principal
- getUserLimiter(UserGroupInformation, TableName) - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaCache
-
Returns the limiter associated to the specified user/table.
- getUserPermissions(RpcController, AccessControlProtos.GetUserPermissionsRequest, RpcCallback<AccessControlProtos.GetUserPermissionsResponse>) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- getUserProvider() - 类 中的方法org.apache.hadoop.hbase.security.token.FsDelegationToken
-
- getUserQuotaState(UserGroupInformation) - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaCache
-
Returns the QuotaState associated to the specified user.
- getUserToken() - 类 中的方法org.apache.hadoop.hbase.security.token.FsDelegationToken
-
- getValue() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2.EncodedScannerV2
-
- getValue() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2.ScannerV2
-
- getValue() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFileScanner
-
Gets a buffer view to the current value.
- getValue() - 类 中的方法org.apache.hadoop.hbase.regionserver.LruHashMap.Entry
-
Get the value of this entry.
- getValue() - 类 中的方法org.apache.hadoop.hbase.TagRewriteCell
-
已过时。
- getValueArray() - 类 中的方法org.apache.hadoop.hbase.TagRewriteCell
-
- getValueLength() - 类 中的方法org.apache.hadoop.hbase.TagRewriteCell
-
- getValueOffset() - 类 中的方法org.apache.hadoop.hbase.TagRewriteCell
-
- getValueString() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2.EncodedScannerV2
-
- getValueString() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2.ScannerV2
-
- getValueString() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFileScanner
-
Convenience method to get a copy of the value as a string - interpreting
the bytes as UTF8.
- getVersion() - 类 中的方法org.apache.hadoop.hbase.coordination.ZkOpenRegionCoordination.ZkOpenRegionDetails
-
- getVersion() - 类 中的方法org.apache.hadoop.hbase.coprocessor.CoprocessorHost.Environment
-
- getVersion(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Verifies current version of file system
- getVersion() - 类 中的方法org.apache.hadoop.hbase.zookeeper.lock.ZKInterProcessLockBase.AcquiredLock
-
- getVersionInfo() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer.Connection
-
- getVersionOfOfflineNode() - 类 中的方法org.apache.hadoop.hbase.coordination.ZkOpenRegionCoordination.ZkOpenRegionDetails
-
- getVisibilityExpEvaluator(Authorizations) - 类 中的方法org.apache.hadoop.hbase.security.visibility.DefaultVisibilityLabelServiceImpl
-
- getVisibilityExpEvaluator(Authorizations) - 接口 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityLabelService
-
Creates VisibilityExpEvaluator corresponding to given Authorizations.
- getVisibilityExpressionResolver() - 类 中的方法org.apache.hadoop.hbase.mapreduce.CellCreator
-
- getVisibilityLabelService(Configuration) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityLabelServiceManager
-
- getVisibilityLabelService() - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityLabelServiceManager
-
- getWaitInterval(long, long, long) - 类 中的方法org.apache.hadoop.hbase.quotas.AverageIntervalRateLimiter
-
- getWaitInterval(long, long, long) - 类 中的方法org.apache.hadoop.hbase.quotas.FixedIntervalRateLimiter
-
- getWAL() - 接口 中的方法org.apache.hadoop.hbase.coprocessor.WALCoprocessorEnvironment
-
- getWAL() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getWAL(HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getWAL(HRegionInfo) - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
- getWAL(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.wal.DefaultWALProvider
-
- getWAL(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.wal.RegionGroupingProvider
-
- getWAL(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.wal.WALFactory
-
- getWAL(byte[], byte[]) - 接口 中的方法org.apache.hadoop.hbase.wal.WALProvider
-
- getWALActionsListener() - 接口 中的方法org.apache.hadoop.hbase.regionserver.ReplicationSourceService
-
Returns a WALObserver for the service.
- getWALActionsListener() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.Replication
-
- getWALArchivePath(Path, Path) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
- getWALArchivePath(Path, Path) - 类 中的静态方法org.apache.hadoop.hbase.wal.DefaultWALProvider
-
- getWALCellCodecClass(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.wal.WALCellCodec
-
- getWALDirectoryName(String) - 类 中的静态方法org.apache.hadoop.hbase.wal.DefaultWALProvider
-
Construct the directory name for all WALs on a given server.
- getWalEdit(int) - 类 中的方法org.apache.hadoop.hbase.regionserver.MiniBatchOperationInProgress
-
- getWALEntryfilter() - 类 中的方法org.apache.hadoop.hbase.replication.BaseReplicationEndpoint
-
Returns a default set of filters
- getWALEntryfilter() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.RegionReplicaReplicationEndpoint
-
- getWALEntryfilter() - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint
-
Returns a WALEntryFilter to use for filtering out WALEntries from the log.
- getWALEntryfilter() - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityReplicationEndpoint
-
- getWALFile() - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogWorkerCoordination.SplitTaskDetails
-
- getWALFile() - 类 中的方法org.apache.hadoop.hbase.coordination.ZkSplitLogWorkerCoordination.ZkSplitTaskDetails
-
- getWALFileSystem() - 类 中的方法org.apache.hadoop.hbase.master.MasterFileSystem
-
- getWALFileSystem() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getWALFileSystem(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
- getWalGroupId() - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint.ReplicateContext
-
- getWALPrefixFromWALName(String) - 类 中的静态方法org.apache.hadoop.hbase.wal.DefaultWALProvider
-
- getWalProcedureStore() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getWALProvider() - 类 中的方法org.apache.hadoop.hbase.wal.WALFactory
-
- getWALRegionDir() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getWALRegionDir(Configuration, HRegionInfo) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Returns the WAL region directory based on the region info
- getWALRegionDir(Configuration, TableName, String) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Returns the WAL region directory based on the region info
- getWALRootDir() - 类 中的方法org.apache.hadoop.hbase.master.MasterFileSystem
-
- getWALRootDir() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getWALRootDir(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
- getWALs() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getWALs() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSourceManager
-
Get a copy of the wals of the first source on this rs
- getWALs() - 类 中的方法org.apache.hadoop.hbase.wal.DefaultWALProvider
-
- getWALs() - 类 中的方法org.apache.hadoop.hbase.wal.RegionGroupingProvider
-
- getWALs() - 类 中的方法org.apache.hadoop.hbase.wal.WALFactory
-
- getWALs() - 接口 中的方法org.apache.hadoop.hbase.wal.WALProvider
-
- getWalsByIdRecoveredQueues() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSourceManager
-
Get a copy of the wals of the recovered sources on this rs
- getWALTableDir(Configuration, TableName) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Returns the Table directory under the WALRootDir for the specified table name
- getWarnTime() - 接口 中的方法org.apache.hadoop.hbase.monitoring.MonitoredTask
-
- getWatcher() - 类 中的方法org.apache.hadoop.hbase.procedure.ZKProcedureUtil
-
- getWebAppContext() - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
- getWebAppsPath(String) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
- getWebAppsPath(String, String) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
Get the pathname to the webapps files.
- getWeight(String) - 类 中的方法org.apache.hadoop.hbase.HDFSBlocksDistribution
-
return the weight for a specific host, that will be the total bytes of all
blocks on the host
- getWeight() - 类 中的方法org.apache.hadoop.hbase.HDFSBlocksDistribution.HostAndWeight
-
- getWorkerState() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSource.ReplicationSourceShipperThread
-
Get the current state of this worker.
- getWorkingSnapshotDir(Path, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils
-
Get the general working directory for snapshots - where they are built, where they are
temporarily copied on export, etc.
- getWorkingSnapshotDir(HBaseProtos.SnapshotDescription, Path, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils
-
Get the directory to build a snapshot, before it is finalized
- getWorkingSnapshotDir(String, Path, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils
-
Get the directory to build a snapshot, before it is finalized
- getWrapper() - 类 中的方法org.apache.hadoop.hbase.io.MetricsIO
-
- getWritableSize() - 接口 中的方法org.apache.hadoop.hbase.io.WritableWithSize
-
Provide a size hint to the caller. write() should ideally
not go beyond this if at all possible.
- getWriteAvailable() - 类 中的方法org.apache.hadoop.hbase.quotas.DefaultOperationQuota
-
- getWriteAvailable() - 接口 中的方法org.apache.hadoop.hbase.quotas.OperationQuota
-
- getWriteAvailable() - 接口 中的方法org.apache.hadoop.hbase.quotas.QuotaLimiter
-
- getWriteAvailable() - 类 中的方法org.apache.hadoop.hbase.quotas.TimeBasedLimiter
-
- getWriteBufferSize() - 类 中的方法org.apache.hadoop.hbase.client.HTableWrapper
-
- getWriteEntry() - 类 中的方法org.apache.hadoop.hbase.wal.WALKey
-
Will block until a write entry has been assigned by they WAL subsystem.
- getWriteFailureCount() - 接口 中的方法org.apache.hadoop.hbase.tool.CanaryTool.Sink
-
- getWriteFailureCount() - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.StdOutSink
-
- getWriteFailures() - 接口 中的方法org.apache.hadoop.hbase.tool.Canary
-
- getWriteFailures() - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool
-
- getWriteFailures() - 接口 中的方法org.apache.hadoop.hbase.tool.CanaryTool.Sink
-
- getWriteFailures() - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.StdOutSink
-
- getWriteLatency() - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.RegionStdOutSink
-
- getWriteLatency() - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.RegionTaskResult
-
- getWriteNumber() - 类 中的方法org.apache.hadoop.hbase.regionserver.MultiVersionConcurrencyControl.WriteEntry
-
- getWritePoint() - 类 中的方法org.apache.hadoop.hbase.regionserver.MultiVersionConcurrencyControl
-
- getWriteQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.FifoRpcScheduler
-
- getWriteQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.MetricsHBaseServerWrapperImpl
-
- getWriteQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
- getWriteQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcScheduler
-
Retrieves length of the write queue for metrics when use RWQueueRpcExecutor.
- getWriteQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.RWQueueRpcExecutor
-
- getWriteQueueLength() - 类 中的方法org.apache.hadoop.hbase.ipc.SimpleRpcScheduler
-
- getWriterClsNames() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- getWriterClsNames() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.SecureProtobufLogReader
-
- getWriteRequestCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- getWriteRequestsCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- getWriteRequestsCount(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsTableWrapperAggregateImpl
-
- getWriteRequestsCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- getWriterFactory(Configuration, CacheConfig) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.HFile
-
Returns the factory to be used to create
HFile writers
- getWriterFactoryNoCache(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.HFile
-
Returns the factory to be used to create
HFile writers.
- getWriteRpcTimeout() - 类 中的方法org.apache.hadoop.hbase.client.HTableWrapper
-
- getWriteSuccessCount() - 接口 中的方法org.apache.hadoop.hbase.tool.CanaryTool.Sink
-
- getWriteSuccessCount() - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.StdOutSink
-
- getWriteTime() - 类 中的方法org.apache.hadoop.hbase.wal.WALKey
-
- getWrongWALRegionDir(Configuration, TableName, String) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
已过时。
For compatibility, will be removed in 4.0.0.
- getZkController() - 类 中的方法org.apache.hadoop.hbase.procedure.ZKProcedureMemberRpcs
-
- getZKPermissionWatcher() - 类 中的方法org.apache.hadoop.hbase.security.access.TableAuthManager
-
- getZkw() - 类 中的方法org.apache.hadoop.hbase.replication.HBaseReplicationEndpoint
-
Get the ZK connection to this peer
- getZnodeVersion() - 类 中的方法org.apache.hadoop.hbase.coordination.ZkRegionMergeCoordination.ZkRegionMergeDetails
-
- getZnodeVersion() - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitTransactionCoordination.ZkSplitTransactionDetails
-
- getZooKeeper() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- getZooKeeper() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- getZooKeeper() - 接口 中的方法org.apache.hadoop.hbase.Server
-
Gets the ZooKeeper instance for this server.
- getZookeeperQuorum() - 类 中的方法org.apache.hadoop.hbase.master.MetricsMasterWrapperImpl
-
- getZooKeeperServerNum() - 类 中的方法org.apache.hadoop.hbase.zookeeper.MiniZooKeeperCluster
-
- getZooKeeperWatcher() - 类 中的方法org.apache.hadoop.hbase.backup.example.TableHFileArchiveTracker
-
- grabQuota(long, long, long, long) - 接口 中的方法org.apache.hadoop.hbase.quotas.QuotaLimiter
-
Removes the specified write and read amount from the quota.
- grabQuota(long, long, long, long) - 类 中的方法org.apache.hadoop.hbase.quotas.TimeBasedLimiter
-
- grant(RpcController, AccessControlProtos.GrantRequest, RpcCallback<AccessControlProtos.GrantResponse>) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- group(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.wal.BoundedGroupingStrategy
-
- group(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.wal.NamespaceGroupingStrategy
-
- group(byte[], byte[]) - 接口 中的方法org.apache.hadoop.hbase.wal.RegionGroupingProvider.RegionGroupingStrategy
-
Given an identifier and a namespace, pick a group.
- GROUP_COLUMNS - 类 中的静态变量org.apache.hadoop.hbase.mapred.GroupingTableMap
-
JobConf parameter to specify the columns used to produce the key passed to
collect from the map phase
- GROUP_COLUMNS - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.GroupingTableMapper
-
JobConf parameter to specify the columns used to produce the key passed to
collect from the map phase.
- groupHasAccess(String, TableName, Permission.Action) - 类 中的方法org.apache.hadoop.hbase.security.access.TableAuthManager
-
Checks if the user has access to the full table or at least a family/qualifier
for the specified action.
- GroupingTableMap - org.apache.hadoop.hbase.mapred中的类
-
Extract grouping columns from input record
- GroupingTableMap() - 类 的构造器org.apache.hadoop.hbase.mapred.GroupingTableMap
-
- GroupingTableMapper - org.apache.hadoop.hbase.mapreduce中的类
-
Extract grouping columns from input record.
- GroupingTableMapper() - 类 的构造器org.apache.hadoop.hbase.mapreduce.GroupingTableMapper
-
- groupOrSplit(Multimap<ByteBuffer, LoadIncrementalHFiles.LoadQueueItem>, LoadIncrementalHFiles.LoadQueueItem, Table, Pair<byte[][], byte[][]>) - 类 中的方法org.apache.hadoop.hbase.mapreduce.LoadIncrementalHFiles
-
Attempt to assign the given load queue item into its target region group.
- GSON - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcServer
-
- HalfStoreFileReader - org.apache.hadoop.hbase.io中的类
-
A facade for a
HFile.Reader that serves up
either the top or bottom half of a HFile where 'bottom' is the first half
of the file containing the keys that sort lowest and 'top' is the second half
of the file with keys that sort greater than those of the bottom half.
- HalfStoreFileReader(FileSystem, Path, CacheConfig, Reference, Configuration) - 类 的构造器org.apache.hadoop.hbase.io.HalfStoreFileReader
-
Creates a half file reader for a normal hfile.
- HalfStoreFileReader(FileSystem, Path, FSDataInputStreamWrapper, long, CacheConfig, Reference, Configuration) - 类 的构造器org.apache.hadoop.hbase.io.HalfStoreFileReader
-
Creates a half file reader for a hfile referred to by an hfilelink.
- handle(Callback[]) - 类 中的方法org.apache.hadoop.hbase.security.HBaseSaslRpcServer.SaslDigestCallbackHandler
- handle(Callback[]) - 类 中的方法org.apache.hadoop.hbase.security.HBaseSaslRpcServer.SaslGssCallbackHandler
- handleCoprocessorThrowable(CoprocessorEnvironment, Throwable) - 类 中的方法org.apache.hadoop.hbase.coprocessor.CoprocessorHost
-
This is used by coprocessor hooks which are declared to throw IOException
(or its subtypes).
- handleCreateHdfsRegions(Path, TableName) - 类 中的方法org.apache.hadoop.hbase.master.handler.CreateTableHandler
-
Create the on-disk structure for the table, and returns the regions info.
- handleCreateHdfsRegions(Path, TableName) - 类 中的方法org.apache.hadoop.hbase.master.snapshot.CloneSnapshotHandler
-
Create the on-disk regions, using the tableRootDir provided by the CreateTableHandler.
- handleDegenerateRegion(HBaseFsck.HbckInfo) - 接口 中的方法org.apache.hadoop.hbase.util.hbck.TableIntegrityErrorHandler
-
Callback for handling a region that has the same start and end key.
- handleDegenerateRegion(HBaseFsck.HbckInfo) - 类 中的方法org.apache.hadoop.hbase.util.hbck.TableIntegrityErrorHandlerImpl
-
Callback for handling a region that has the same start and end key.
- handleDuplicateStartKeys(HBaseFsck.HbckInfo, HBaseFsck.HbckInfo) - 接口 中的方法org.apache.hadoop.hbase.util.hbck.TableIntegrityErrorHandler
-
Callback for handling two regions that have the same start key.
- handleDuplicateStartKeys(HBaseFsck.HbckInfo, HBaseFsck.HbckInfo) - 类 中的方法org.apache.hadoop.hbase.util.hbck.TableIntegrityErrorHandlerImpl
-
Callback for handling two regions that have the same start key.
- handleException(Throwable) - 类 中的方法org.apache.hadoop.hbase.executor.EventHandler
-
Event exception handler, may be overridden
- handleException(Throwable) - 类 中的方法org.apache.hadoop.hbase.regionserver.handler.RegionReplicaFlushHandler
-
- handleHoleInRegionChain(byte[], byte[]) - 接口 中的方法org.apache.hadoop.hbase.util.hbck.TableIntegrityErrorHandler
-
Callback for handling a region hole between two keys.
- handleHoleInRegionChain(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.util.hbck.TableIntegrityErrorHandlerImpl
-
Callback for handling a region hole between two keys.
- handleLockMetadata(String) - 类 中的方法org.apache.hadoop.hbase.zookeeper.lock.ZKInterProcessLockBase
-
Process metadata stored in a ZNode using a callback
- handleLockMetadata(String, InterProcessLock.MetadataHandler) - 类 中的方法org.apache.hadoop.hbase.zookeeper.lock.ZKInterProcessLockBase
-
Process metadata stored in a ZNode using a callback object passed to
this instance.
- handleMetadata(byte[]) - 接口 中的方法org.apache.hadoop.hbase.InterProcessLock.MetadataHandler
-
Called after lock metadata is successfully read from a distributed
lock service.
- handleOverlapGroup(Collection<HBaseFsck.HbckInfo>) - 接口 中的方法org.apache.hadoop.hbase.util.hbck.TableIntegrityErrorHandler
-
Callback for handling an group of regions that overlap.
- handleOverlapGroup(Collection<HBaseFsck.HbckInfo>) - 类 中的方法org.apache.hadoop.hbase.util.hbck.TableIntegrityErrorHandlerImpl
-
Callback for handling an group of regions that overlap.
- handleOverlapInRegionChain(HBaseFsck.HbckInfo, HBaseFsck.HbckInfo) - 接口 中的方法org.apache.hadoop.hbase.util.hbck.TableIntegrityErrorHandler
-
Callback for handling two reigons that overlap in some arbitrary way.
- handleOverlapInRegionChain(HBaseFsck.HbckInfo, HBaseFsck.HbckInfo) - 类 中的方法org.apache.hadoop.hbase.util.hbck.TableIntegrityErrorHandlerImpl
-
Callback for handling two reigons that overlap in some arbitrary way.
- handler - 类 中的变量org.apache.hadoop.hbase.zookeeper.lock.ZKInterProcessLockBase
-
- handleRegionEndKeyNotEmpty(byte[]) - 接口 中的方法org.apache.hadoop.hbase.util.hbck.TableIntegrityErrorHandler
-
Callback for handling case where a Table has a last region that does not
have an empty end key.
- handleRegionEndKeyNotEmpty(byte[]) - 类 中的方法org.apache.hadoop.hbase.util.hbck.TableIntegrityErrorHandlerImpl
-
Callback for handling case where a Table has a last region that does not
have an empty end key.
- handleRegionStartKeyNotEmpty(HBaseFsck.HbckInfo) - 接口 中的方法org.apache.hadoop.hbase.util.hbck.TableIntegrityErrorHandler
-
Callback for handling case where a Table has a first region that does not
have an empty start key.
- handleRegionStartKeyNotEmpty(HBaseFsck.HbckInfo) - 类 中的方法org.apache.hadoop.hbase.util.hbck.TableIntegrityErrorHandlerImpl
-
Callback for handling case where a Table has a first region that does not
have an empty start key.
- handleReportForDutyResponse(RegionServerStatusProtos.RegionServerStartupResponse) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- handleSplit(HBaseFsck.HbckInfo, HBaseFsck.HbckInfo) - 接口 中的方法org.apache.hadoop.hbase.util.hbck.TableIntegrityErrorHandler
-
Callback for handling two regions that have the same regionID
a specific case of a split
- handleTableOperation(List<HRegionInfo>) - 类 中的方法org.apache.hadoop.hbase.master.handler.TableEventHandler
-
- handleTableOperation(List<HRegionInfo>) - 类 中的方法org.apache.hadoop.hbase.master.snapshot.RestoreSnapshotHandler
-
The restore table is executed in place
- has(HTableDescriptor, Class<? extends Constraint>) - 类 中的静态方法org.apache.hadoop.hbase.constraint.Constraints
-
Check to see if the Constraint is currently set.
- HAS_LARGE_RESULT - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.Import
-
- hasAccess(User, TableName, Permission.Action) - 类 中的方法org.apache.hadoop.hbase.security.access.TableAuthManager
-
- hasAdministratorAccess(ServletContext, HttpServletRequest, HttpServletResponse) - 类 中的静态方法org.apache.hadoop.hbase.http.HttpServer
-
Does the user sending the HttpServletRequest has the administrator ACLs?
- hasAttributes() - 类 中的方法org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser
-
- hasBypassGlobals() - 类 中的方法org.apache.hadoop.hbase.quotas.UserQuotaState
-
- hasCellTTL() - 类 中的方法org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser
-
- hasCellVisibility() - 类 中的方法org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser
-
- hasCompression - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- hasCompression() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- hasCompression() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ReaderBase
-
- hasCompression() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.SequenceFileLogReader
-
- hasError() - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.Monitor
-
- hasException() - 类 中的方法org.apache.hadoop.hbase.errorhandling.ForeignExceptionDispatcher
-
- hasException() - 接口 中的方法org.apache.hadoop.hbase.errorhandling.ForeignExceptionSnare
-
- hasException() - 类 中的方法org.apache.hadoop.hbase.master.snapshot.TakeSnapshotHandler
-
- hasException() - 类 中的方法org.apache.hadoop.hbase.zookeeper.DeletionListener
-
Check if an exception has occurred when re-setting the watch.
- hasFamilyStamp - 类 中的变量org.apache.hadoop.hbase.regionserver.querymatcher.ScanDeleteTracker
-
- hasFreeSpace() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketAllocator.Bucket
-
- hash - 类 中的变量org.apache.hadoop.hbase.regionserver.LruHashMap.Entry
-
The hash value for this entries key
- hash - 类 中的变量org.apache.hadoop.hbase.util.ByteBloomFilter
-
Hash Function
- HASH_NONCE_GRACE_PERIOD_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.ServerNonceManager
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.io.FileLink
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.io.hfile.BlockCacheKey
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFile.FileInfo
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlock
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruCachedBlock
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.io.Reference
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.mapred.TableSplit
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSplit
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.master.balancer.FavoredNodesPlan
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.master.RegionPlan
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.procedure.ProcedureManager
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionRequest
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.regionserver.LruHashMap.Entry
-
Returns the hash code of the entry by xor'ing the hash values
of the key and value of this entry.
- hashCode() - 类 中的方法org.apache.hadoop.hbase.regionserver.LruHashMap
-
Intentionally unimplemented.
- hashCode() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.security.token.AuthenticationKey
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.security.visibility.expression.LeafExpressionNode
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.SplitLogTask
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.util.HashedBytes
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.wal.WALKey
-
- hashCode() - 类 中的方法org.apache.hadoop.hbase.wal.WALSplitter.MutationReplay
-
- hashCount - 类 中的变量org.apache.hadoop.hbase.util.ByteBloomFilter
-
Number of hash functions
- HashedBytes - org.apache.hadoop.hbase.util中的类
-
This class encapsulates a byte array and overrides hashCode and equals so
that it's identity is based on the data rather than the array instance.
- HashedBytes(byte[]) - 类 的构造器org.apache.hadoop.hbase.util.HashedBytes
-
- HashTable - org.apache.hadoop.hbase.mapreduce中的类
-
- HashTable(Configuration) - 类 的构造器org.apache.hadoop.hbase.mapreduce.HashTable
-
- HashTable.HashMapper - org.apache.hadoop.hbase.mapreduce中的类
-
- HashTable.HashMapper() - 类 的构造器org.apache.hadoop.hbase.mapreduce.HashTable.HashMapper
-
- HashTable.TableHash - org.apache.hadoop.hbase.mapreduce中的类
-
- HashTable.TableHash() - 类 的构造器org.apache.hadoop.hbase.mapreduce.HashTable.TableHash
-
- HashTable.TableHash.Reader - org.apache.hadoop.hbase.mapreduce中的类
-
- hashType - 类 中的变量org.apache.hadoop.hbase.util.ByteBloomFilter
-
Hash type
- hashType - 类 中的变量org.apache.hadoop.hbase.util.CompoundBloomFilterBase
-
Hash function type to use, as defined in
Hash
- hasMetaTableRegion() - 类 中的方法org.apache.hadoop.hbase.master.procedure.ServerCrashProcedure
-
- hasMetaTableRegion() - 接口 中的方法org.apache.hadoop.hbase.master.procedure.ServerProcedureInterface
-
- hasMinimumVersion(HBaseProtos.VersionInfo, int, int) - 类 中的静态方法org.apache.hadoop.hbase.client.VersionInfoUtil
-
- hasMoreValues() - 枚举 中的方法org.apache.hadoop.hbase.regionserver.ScannerContext.NextState
-
- hasMoreValues(ScannerContext.NextState) - 枚举 中的静态方法org.apache.hadoop.hbase.regionserver.ScannerContext.NextState
-
- hasMVCCInfo() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
- hasMVCCInfo() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2
-
- hasNext() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.WALEntryStream
-
- hasNullColumn - 类 中的变量org.apache.hadoop.hbase.regionserver.querymatcher.UserScanQueryMatcher
-
- hasNullColumnInQuery() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.CompactionScanQueryMatcher
-
- hasNullColumnInQuery() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.LegacyScanQueryMatcher
-
已过时。
- hasNullColumnInQuery() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
- hasNullColumnInQuery() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.UserScanQueryMatcher
-
- hasPriority() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer.Call
-
- hasProcedureSupport() - 类 中的静态方法org.apache.hadoop.hbase.master.procedure.ProcedurePrepareLatch
-
- hasReferences() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- hasReferences(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
Returns true if the specified family has reference files
- hasReferences(HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
Check whether region has Reference file
- hasReferences() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- hasReferences() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- hasReferences(Collection<StoreFile>) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.StoreUtils
-
Determines whether any files in the collection are references.
- hasRegionsToAdd() - 类 中的方法org.apache.hadoop.hbase.snapshot.RestoreSnapshotHelper.RestoreMetaChanges
-
- hasRegionsToRemove() - 类 中的方法org.apache.hadoop.hbase.snapshot.RestoreSnapshotHelper.RestoreMetaChanges
-
- hasRegionsToRestore() - 类 中的方法org.apache.hadoop.hbase.snapshot.RestoreSnapshotHelper.RestoreMetaChanges
-
- hasSelection() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionContext
-
- hasTagCompression - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- hasTagCompression() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- hasTagCompression() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ReaderBase
-
- hasTagCompression() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.SequenceFileLogReader
-
- hasTimestamp() - 类 中的方法org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser
-
- hasTooManyStoreFiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- hasTooManyStoreFiles() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- hasUnDeletedQueues() - 类 中的方法org.apache.hadoop.hbase.util.hbck.ReplicationChecker
-
- havingSystemAuth(byte[]) - 类 中的方法org.apache.hadoop.hbase.security.visibility.DefaultVisibilityLabelServiceImpl
-
已过时。
- havingSystemAuth(User) - 类 中的方法org.apache.hadoop.hbase.security.visibility.DefaultVisibilityLabelServiceImpl
-
- havingSystemAuth(byte[]) - 接口 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityLabelService
-
- havingSystemAuth(User) - 接口 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityLabelService
-
System checks for user auth during admin operations.
- HBASE_CANARY_FAIL_ON_ERROR - 类 中的静态变量org.apache.hadoop.hbase.tool.CanaryTool
-
- HBASE_CANARY_REGION_READ_TABLE_TIMEOUT - 类 中的静态变量org.apache.hadoop.hbase.tool.CanaryTool
-
- HBASE_CANARY_REGION_WRITE_SNIFFING - 类 中的静态变量org.apache.hadoop.hbase.tool.CanaryTool
-
- HBASE_CANARY_REGION_WRITE_TABLE_NAME - 类 中的静态变量org.apache.hadoop.hbase.tool.CanaryTool
-
- HBASE_CANARY_REGION_WRITE_TABLE_TIMEOUT - 类 中的静态变量org.apache.hadoop.hbase.tool.CanaryTool
-
- HBASE_CANARY_REGIONSERVER_ALL_REGIONS - 类 中的静态变量org.apache.hadoop.hbase.tool.CanaryTool
-
- HBASE_CANARY_TIMEOUT - 类 中的静态变量org.apache.hadoop.hbase.tool.CanaryTool
-
- HBASE_CANARY_USE_REGEX - 类 中的静态变量org.apache.hadoop.hbase.tool.CanaryTool
-
- HBASE_CANARY_ZOOKEEPER_PERMITTED_FAILURES - 类 中的静态变量org.apache.hadoop.hbase.tool.CanaryTool
-
- HBASE_CELLS_SCANNED_PER_HEARTBEAT_CHECK - 类 中的静态变量org.apache.hadoop.hbase.regionserver.StoreScanner
-
The number of cells scanned in between timeout checks.
- HBASE_DIR_PERMS - 类 中的静态变量org.apache.hadoop.hbase.master.MasterFileSystem
-
Parameter name for HBase instance root directory permission
- HBASE_FLUSH_POLICY_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.FlushPolicyFactory
-
- HBASE_FLUSH_THROUGHPUT_CONTROLLER_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.throttle.FlushThroughputControllerFactory
-
- HBASE_HFILE_COMPACTION_DISCHARGER_INTERVAL - 类 中的静态变量org.apache.hadoop.hbase.regionserver.compactions.CompactionConfiguration
-
- HBASE_HFILE_COMPACTION_DISCHARGER_THREAD_COUNT - 类 中的静态变量org.apache.hadoop.hbase.regionserver.compactions.CompactionConfiguration
-
- HBASE_HSTORE_COMPACTION_DISCHARGER_THREAD_COUNT - 类 中的静态变量org.apache.hadoop.hbase.regionserver.compactions.CompactionConfiguration
-
- HBASE_HSTORE_COMPACTION_MAX_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.compactions.CompactionConfiguration
-
- HBASE_HSTORE_COMPACTION_MAX_SIZE_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.compactions.CompactionConfiguration
-
- HBASE_HSTORE_COMPACTION_MAX_SIZE_OFFPEAK_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.compactions.CompactionConfiguration
-
- HBASE_HSTORE_COMPACTION_MAX_THROUGHPUT_HIGHER_BOUND - 类 中的静态变量org.apache.hadoop.hbase.regionserver.throttle.PressureAwareCompactionThroughputController
-
- HBASE_HSTORE_COMPACTION_MAX_THROUGHPUT_LOWER_BOUND - 类 中的静态变量org.apache.hadoop.hbase.regionserver.throttle.PressureAwareCompactionThroughputController
-
- HBASE_HSTORE_COMPACTION_MAX_THROUGHPUT_OFFPEAK - 类 中的静态变量org.apache.hadoop.hbase.regionserver.throttle.PressureAwareCompactionThroughputController
-
- HBASE_HSTORE_COMPACTION_MIN_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.compactions.CompactionConfiguration
-
- HBASE_HSTORE_COMPACTION_MIN_SIZE_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.compactions.CompactionConfiguration
-
- HBASE_HSTORE_COMPACTION_RATIO_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.compactions.CompactionConfiguration
-
- HBASE_HSTORE_COMPACTION_RATIO_OFFPEAK_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.compactions.CompactionConfiguration
-
- HBASE_HSTORE_COMPACTION_THROUGHPUT_TUNE_PERIOD - 类 中的静态变量org.apache.hadoop.hbase.regionserver.throttle.PressureAwareCompactionThroughputController
-
- HBASE_HSTORE_FLUSH_MAX_THROUGHPUT_LOWER_BOUND - 类 中的静态变量org.apache.hadoop.hbase.regionserver.throttle.PressureAwareFlushThroughputController
-
- HBASE_HSTORE_FLUSH_MAX_THROUGHPUT_UPPER_BOUND - 类 中的静态变量org.apache.hadoop.hbase.regionserver.throttle.PressureAwareFlushThroughputController
-
- HBASE_HSTORE_FLUSH_THROUGHPUT_CONTROL_CHECK_INTERVAL - 类 中的静态变量org.apache.hadoop.hbase.regionserver.throttle.PressureAwareFlushThroughputController
-
- HBASE_HSTORE_FLUSH_THROUGHPUT_TUNE_PERIOD - 类 中的静态变量org.apache.hadoop.hbase.regionserver.throttle.PressureAwareFlushThroughputController
-
- HBASE_HSTORE_MIN_LOCALITY_TO_SKIP_MAJOR_COMPACT - 类 中的静态变量org.apache.hadoop.hbase.regionserver.compactions.CompactionConfiguration
-
- HBASE_HSTORE_OFFPEAK_END_HOUR - 类 中的静态变量org.apache.hadoop.hbase.regionserver.compactions.CompactionConfiguration
-
- HBASE_HSTORE_OFFPEAK_START_HOUR - 类 中的静态变量org.apache.hadoop.hbase.regionserver.compactions.CompactionConfiguration
-
- HBASE_HTTP_STATIC_USER - 接口 中的静态变量org.apache.hadoop.hbase.http.ServerConfigurationKeys
-
- HBASE_JETTY_LOGS_SERVE_ALIASES - 接口 中的静态变量org.apache.hadoop.hbase.http.ServerConfigurationKeys
-
Enable/Disable aliases serving from jetty
- HBASE_MAX_CELL_SIZE_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HRegion
-
- HBASE_RS_HEAP_MEMORY_TUNER_CLASS - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HeapMemoryManager
-
- HBASE_RS_HEAP_MEMORY_TUNER_DEFAULT_PERIOD - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HeapMemoryManager
-
- HBASE_RS_HEAP_MEMORY_TUNER_PERIOD - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HeapMemoryManager
-
- HBASE_SNAPSHOT_ENABLED - 类 中的静态变量org.apache.hadoop.hbase.master.snapshot.SnapshotManager
-
Enable or disable snapshot support
- HBASE_SNAPSHOT_SENTINELS_CLEANUP_TIMEOUT_MILLIS - 类 中的静态变量org.apache.hadoop.hbase.master.snapshot.SnapshotManager
-
Wait time before removing a finished sentinel from the in-progress map
NOTE: This is used as a safety auto cleanup.
- HBASE_SSL_ENABLED_DEFAULT - 接口 中的静态变量org.apache.hadoop.hbase.http.ServerConfigurationKeys
-
- HBASE_SSL_ENABLED_KEY - 接口 中的静态变量org.apache.hadoop.hbase.http.ServerConfigurationKeys
-
Enable/Disable ssl for http server
- HBASE_THROUGHPUT_CONTROLLER_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.throttle.CompactionThroughputControllerFactory
-
- HBASE_WAL_DIR - 类 中的静态变量org.apache.hadoop.hbase.fs.HFileSystem
-
Parameter name for HBase WAL directory
- HBASE_WAL_DIR_PERMS - 类 中的静态变量org.apache.hadoop.hbase.master.MasterFileSystem
-
Parameter name for HBase WAL directory permission
- HBaseConfTool - org.apache.hadoop.hbase.util中的类
-
Tool that prints out a configuration.
- HBaseConfTool() - 类 的构造器org.apache.hadoop.hbase.util.HBaseConfTool
-
- HBaseFsck - org.apache.hadoop.hbase.util中的类
-
HBaseFsck (hbck) is a tool for checking and repairing region consistency and
table integrity problems in a corrupted HBase.
- HBaseFsck(Configuration) - 类 的构造器org.apache.hadoop.hbase.util.HBaseFsck
-
Constructor
- HBaseFsck(Configuration, ExecutorService) - 类 的构造器org.apache.hadoop.hbase.util.HBaseFsck
-
Constructor
- HBaseFsck.ErrorReporter - org.apache.hadoop.hbase.util中的接口
-
- HBaseFsck.ErrorReporter.ERROR_CODE - org.apache.hadoop.hbase.util中的枚举
-
- HBaseFsck.HbckInfo - org.apache.hadoop.hbase.util中的类
-
Maintain information about a particular region.
- HBaseFsck.RegionRepairException - org.apache.hadoop.hbase.util中的异常错误
-
Exception thrown when a integrity repair operation fails in an
unresolvable way.
- HBaseFsck.RegionRepairException(String, IOException) - 异常错误 的构造器org.apache.hadoop.hbase.util.HBaseFsck.RegionRepairException
-
- HBaseFsck.TableInfo - org.apache.hadoop.hbase.util中的类
-
Maintain information about a particular table.
- HBaseFsckRepair - org.apache.hadoop.hbase.util中的类
-
This class contains helper methods that repair parts of hbase's filesystem
contents.
- HBaseFsckRepair() - 类 的构造器org.apache.hadoop.hbase.util.HBaseFsckRepair
-
- HBaseInterClusterReplicationEndpoint - org.apache.hadoop.hbase.replication.regionserver中的类
-
- HBaseInterClusterReplicationEndpoint() - 类 的构造器org.apache.hadoop.hbase.replication.regionserver.HBaseInterClusterReplicationEndpoint
-
- HBaseInterClusterReplicationEndpoint.Replicator - org.apache.hadoop.hbase.replication.regionserver中的类
-
- HBaseInterClusterReplicationEndpoint.Replicator(List<WAL.Entry>, int) - 类 的构造器org.apache.hadoop.hbase.replication.regionserver.HBaseInterClusterReplicationEndpoint.Replicator
-
- HBasePolicyProvider - org.apache.hadoop.hbase.security中的类
-
Implementation of secure Hadoop policy provider for mapping
protocol interfaces to hbase-policy.xml entries.
- HBasePolicyProvider() - 类 的构造器org.apache.hadoop.hbase.security.HBasePolicyProvider
-
- HBaseReplicationEndpoint - org.apache.hadoop.hbase.replication中的类
-
- HBaseReplicationEndpoint() - 类 的构造器org.apache.hadoop.hbase.replication.HBaseReplicationEndpoint
-
- HBaseReplicationEndpoint.PeerRegionServerListener - org.apache.hadoop.hbase.replication中的类
-
Tracks changes to the list of region servers in a peer's cluster.
- HBaseReplicationEndpoint.PeerRegionServerListener(HBaseReplicationEndpoint) - 类 的构造器org.apache.hadoop.hbase.replication.HBaseReplicationEndpoint.PeerRegionServerListener
-
- HBaseRPCErrorHandler - org.apache.hadoop.hbase.ipc中的接口
-
An interface for calling out of RPC for error conditions.
- HBaseSaslRpcServer - org.apache.hadoop.hbase.security中的类
-
A utility class for dealing with SASL on RPC server
- HBaseSaslRpcServer() - 类 的构造器org.apache.hadoop.hbase.security.HBaseSaslRpcServer
-
- HBaseSaslRpcServer.SaslDigestCallbackHandler - org.apache.hadoop.hbase.security中的类
-
CallbackHandler for SASL DIGEST-MD5 mechanism
- HBaseSaslRpcServer.SaslDigestCallbackHandler(SecretManager<TokenIdentifier>, RpcServer.Connection) - 类 的构造器org.apache.hadoop.hbase.security.HBaseSaslRpcServer.SaslDigestCallbackHandler
-
- HBaseSaslRpcServer.SaslGssCallbackHandler - org.apache.hadoop.hbase.security中的类
-
CallbackHandler for SASL GSSAPI Kerberos mechanism
- HBaseSaslRpcServer.SaslGssCallbackHandler() - 类 的构造器org.apache.hadoop.hbase.security.HBaseSaslRpcServer.SaslGssCallbackHandler
-
- HBCK_CODE_SERVERNAME - 类 中的静态变量org.apache.hadoop.hbase.master.AssignmentManager
-
- HDFSBlocksDistribution - org.apache.hadoop.hbase中的类
-
Data structure to describe the distribution of HDFS blocks among hosts.
- HDFSBlocksDistribution() - 类 的构造器org.apache.hadoop.hbase.HDFSBlocksDistribution
-
Constructor
- HDFSBlocksDistribution.HostAndWeight - org.apache.hadoop.hbase中的类
-
Stores the hostname and weight for that hostname.
- HDFSBlocksDistribution.HostAndWeight(String, long) - 类 的构造器org.apache.hadoop.hbase.HDFSBlocksDistribution.HostAndWeight
-
Constructor
- HDFSBlocksDistribution.HostAndWeight.WeightComparator - org.apache.hadoop.hbase中的类
-
comparator used to sort hosts based on weight
- HDFSBlocksDistribution.HostAndWeight.WeightComparator() - 类 的构造器org.apache.hadoop.hbase.HDFSBlocksDistribution.HostAndWeight.WeightComparator
-
- header - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer.Call
-
- headerSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlock
-
Returns the size of this block header.
- headerSize(boolean) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.HFileBlock
-
Maps a minor version to the size of the header.
- headMap(byte[]) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFile.FileInfo
-
- headSet(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSkipListSet
-
- headSet(Cell, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSkipListSet
-
- headSet(E) - 类 中的方法org.apache.hadoop.hbase.util.SortedCopyOnWriteSet
-
- HealthCheckChore - org.apache.hadoop.hbase中的类
-
The Class HealthCheckChore for running health checker regularly.
- HealthCheckChore(int, Stoppable, Configuration) - 类 的构造器org.apache.hadoop.hbase.HealthCheckChore
-
- heap - 类 中的变量org.apache.hadoop.hbase.regionserver.KeyValueHeap
-
- heap - 类 中的变量org.apache.hadoop.hbase.regionserver.StoreScanner
-
- HEAP_OCCUPANCY_ERROR_VALUE - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HeapMemoryManager
-
- HeapMemoryManager - org.apache.hadoop.hbase.regionserver中的类
-
Manages tuning of Heap memory using HeapMemoryTuner.
- HeapMemoryManager.TunerContext - org.apache.hadoop.hbase.regionserver中的类
-
POJO to pass all the relevant information required to do the heap memory tuning.
- HeapMemoryManager.TunerContext() - 类 的构造器org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerContext
-
- HeapMemoryManager.TunerResult - org.apache.hadoop.hbase.regionserver中的类
-
POJO which holds the result of memory tuning done by HeapMemoryTuner implementation.
- HeapMemoryManager.TunerResult(boolean) - 类 的构造器org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerResult
-
- HeapMemoryTuner - org.apache.hadoop.hbase.regionserver中的接口
-
Makes the decision regarding proper sizing of the heap memory.
- HeapMemStoreLAB - org.apache.hadoop.hbase.regionserver中的类
-
A memstore-local allocation buffer.
- HeapMemStoreLAB() - 类 的构造器org.apache.hadoop.hbase.regionserver.HeapMemStoreLAB
-
- HeapMemStoreLAB(Configuration) - 类 的构造器org.apache.hadoop.hbase.regionserver.HeapMemStoreLAB
-
- heapSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.BlockCacheKey
-
Strings have two bytes per character due to default Java Unicode encoding
(hence length times 2).
- heapSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketCache
-
- heapSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache
-
- heapSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlock
-
- heapSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlockIndex.BlockIndexReader
-
- heapSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
- heapSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruCachedBlock
-
- heapSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruCachedBlockQueue
-
Total size of all elements in this queue.
- heapSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.DefaultMemStore
-
Get the entire heap usage for this MemStore not including keys in the
snapshot.
- heapSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- heapSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- heapSize - 类 中的变量org.apache.hadoop.hbase.regionserver.LruHashMap.Entry
-
The precomputed heap size of this entry
- heapSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.LruHashMap.Entry
-
Returns the pre-computed and "deep" size of the Entry
- heapSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.LruHashMap
-
The total memory usage of this map
- heapSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WALEdit
-
- heapSize() - 类 中的方法org.apache.hadoop.hbase.TagRewriteCell
-
- heapSize() - 类 中的方法org.apache.hadoop.hbase.wal.WALSplitter.RegionEntryBuffer
-
- heartbeat(long, int, ServerName) - 类 中的方法org.apache.hadoop.hbase.master.SplitLogManager.Task
-
- heartbeatNoDetails(long) - 类 中的方法org.apache.hadoop.hbase.master.SplitLogManager.Task
-
- HFile - org.apache.hadoop.hbase.io.hfile中的类
-
File format for hbase.
- HFile() - 类 的构造器org.apache.hadoop.hbase.io.hfile.HFile
-
- HFile.CachingBlockReader - org.apache.hadoop.hbase.io.hfile中的接口
-
An abstraction used by the block index.
- HFile.FileInfo - org.apache.hadoop.hbase.io.hfile中的类
-
Metadata for this file.
- HFile.FileInfo() - 类 的构造器org.apache.hadoop.hbase.io.hfile.HFile.FileInfo
-
- HFile.Reader - org.apache.hadoop.hbase.io.hfile中的接口
-
An interface used by clients to open and iterate an
HFile.
- HFile.Writer - org.apache.hadoop.hbase.io.hfile中的接口
-
API required to write an
HFile
- HFile.WriterFactory - org.apache.hadoop.hbase.io.hfile中的类
-
This variety of ways to construct writers is used throughout the code, and
we want to be able to swap writer implementations.
- HFILE_ARCHIVE_ZNODE_PARENT - 类 中的静态变量org.apache.hadoop.hbase.backup.example.TableHFileArchiveTracker
-
- HFILE_CACHE_REFRESH_PERIOD_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.master.snapshot.SnapshotHFileCleaner
-
Conf key for the frequency to attempt to refresh the cache of hfiles currently used in
snapshots (ms)
- HFILE_DELETE_THREAD_CHECK_INTERVAL_MSEC - 类 中的静态变量org.apache.hadoop.hbase.master.cleaner.HFileCleaner
-
- HFILE_DELETE_THREAD_TIMEOUT_MSEC - 类 中的静态变量org.apache.hadoop.hbase.master.cleaner.HFileCleaner
-
- HFILE_DELETE_THROTTLE_THRESHOLD - 类 中的静态变量org.apache.hadoop.hbase.master.cleaner.HFileCleaner
-
- HFILE_NAME_REGEX - 类 中的静态变量org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
A non-capture group, for hfiles, so that this can be embedded.
- HFileArchiver - org.apache.hadoop.hbase.backup中的类
-
Utility class to handle the removal of HFiles (or the respective
StoreFiles)
for a HRegion from the
FileSystem.
- HFileArchiveTableMonitor - org.apache.hadoop.hbase.backup.example中的类
-
Monitor the actual tables for which HFiles are archived for long-term retention (always kept
unless ZK state changes).
- HFileArchiveTableMonitor() - 类 的构造器org.apache.hadoop.hbase.backup.example.HFileArchiveTableMonitor
-
- HFileArchiveUtil - org.apache.hadoop.hbase.util中的类
-
Helper class for all utilities related to archival/retrieval of HFiles
- HFileBlock - org.apache.hadoop.hbase.io.hfile中的类
-
Reads
HFile version 2 blocks to HFiles and via
Cacheable Interface to caches.
- HFileBlock(BlockType, int, int, long, ByteBuffer, boolean, long, int, int, HFileContext) - 类 的构造器org.apache.hadoop.hbase.io.hfile.HFileBlock
-
Creates a new
HFile block from the given fields.
- HFileBlock.Writer - org.apache.hadoop.hbase.io.hfile中的类
-
Unified version 2
HFile block writer.
- HFileBlock.Writer(HFileDataBlockEncoder, HFileContext) - 类 的构造器org.apache.hadoop.hbase.io.hfile.HFileBlock.Writer
-
- HFileBlockIndex - org.apache.hadoop.hbase.io.hfile中的类
-
- HFileBlockIndex() - 类 的构造器org.apache.hadoop.hbase.io.hfile.HFileBlockIndex
-
- HFileBlockIndex.BlockIndexReader - org.apache.hadoop.hbase.io.hfile中的类
-
The reader will always hold the root level index in the memory.
- HFileBlockIndex.BlockIndexReader(KeyValue.KVComparator, int, HFile.CachingBlockReader) - 类 的构造器org.apache.hadoop.hbase.io.hfile.HFileBlockIndex.BlockIndexReader
-
- HFileBlockIndex.BlockIndexReader(KeyValue.KVComparator, int) - 类 的构造器org.apache.hadoop.hbase.io.hfile.HFileBlockIndex.BlockIndexReader
-
- HFileBlockIndex.BlockIndexWriter - org.apache.hadoop.hbase.io.hfile中的类
-
Writes the block index into the output stream.
- HFileBlockIndex.BlockIndexWriter() - 类 的构造器org.apache.hadoop.hbase.io.hfile.HFileBlockIndex.BlockIndexWriter
-
Creates a single-level block index writer
- HFileBlockIndex.BlockIndexWriter(HFileBlock.Writer, CacheConfig, String) - 类 的构造器org.apache.hadoop.hbase.io.hfile.HFileBlockIndex.BlockIndexWriter
-
Creates a multi-level block index writer.
- HFileCleaner - org.apache.hadoop.hbase.master.cleaner中的类
-
This Chore, every time it runs, will clear the HFiles in the hfile archive
folder that are deletable for each HFile cleaner in the chain.
- HFileCleaner(int, Stoppable, Configuration, FileSystem, Path, DirScanPool) - 类 的构造器org.apache.hadoop.hbase.master.cleaner.HFileCleaner
-
- HFileCleaner(int, Stoppable, Configuration, FileSystem, Path, DirScanPool, Map<String, Object>) - 类 的构造器org.apache.hadoop.hbase.master.cleaner.HFileCleaner
-
- hFileContext - 类 中的变量org.apache.hadoop.hbase.io.hfile.AbstractHFileWriter
-
- HFileCorruptionChecker - org.apache.hadoop.hbase.util.hbck中的类
-
This class marches through all of the region's hfiles and verifies that
they are all valid files.
- HFileCorruptionChecker(Configuration, ExecutorService, boolean) - 类 的构造器org.apache.hadoop.hbase.util.hbck.HFileCorruptionChecker
-
- HFileDataBlockEncoder - org.apache.hadoop.hbase.io.hfile中的接口
-
Controls what kind of data block encoding is used.
- HFileDataBlockEncoderImpl - org.apache.hadoop.hbase.io.hfile中的类
-
Do different kinds of data block encoding according to column family
options.
- HFileDataBlockEncoderImpl(DataBlockEncoding) - 类 的构造器org.apache.hadoop.hbase.io.hfile.HFileDataBlockEncoderImpl
-
Do data block encoding with specified options.
- HFileLink - org.apache.hadoop.hbase.io中的类
-
HFileLink describes a link to an hfile.
- HFileLink(Path, Path, Path) - 类 的构造器org.apache.hadoop.hbase.io.HFileLink
-
Dead simple hfile link constructor
- HFileLinkCleaner - org.apache.hadoop.hbase.master.cleaner中的类
-
HFileLink cleaner that determines if a hfile should be deleted.
- HFileLinkCleaner() - 类 的构造器org.apache.hadoop.hbase.master.cleaner.HFileLinkCleaner
-
- HFileOutputFormat - org.apache.hadoop.hbase.mapreduce中的类
-
- HFileOutputFormat() - 类 的构造器org.apache.hadoop.hbase.mapreduce.HFileOutputFormat
-
已过时。
- HFileOutputFormat2 - org.apache.hadoop.hbase.mapreduce中的类
-
Writes HFiles.
- HFileOutputFormat2() - 类 的构造器org.apache.hadoop.hbase.mapreduce.HFileOutputFormat2
-
- HFilePrettyPrinter - org.apache.hadoop.hbase.io.hfile中的类
-
Implements pretty-printing functionality for
HFiles.
- HFilePrettyPrinter() - 类 的构造器org.apache.hadoop.hbase.io.hfile.HFilePrettyPrinter
-
- HFilePrettyPrinter(Configuration) - 类 的构造器org.apache.hadoop.hbase.io.hfile.HFilePrettyPrinter
-
- HFileReaderV2 - org.apache.hadoop.hbase.io.hfile中的类
-
HFile reader for version 2.
- HFileReaderV2(Path, FixedFileTrailer, FSDataInputStreamWrapper, long, CacheConfig, HFileSystem, Configuration) - 类 的构造器org.apache.hadoop.hbase.io.hfile.HFileReaderV2
-
Opens a HFile.
- HFileReaderV2.AbstractScannerV2 - org.apache.hadoop.hbase.io.hfile中的类
-
- HFileReaderV2.AbstractScannerV2(HFileReaderV2, boolean, boolean, boolean) - 类 的构造器org.apache.hadoop.hbase.io.hfile.HFileReaderV2.AbstractScannerV2
-
- HFileReaderV2.EncodedScannerV2 - org.apache.hadoop.hbase.io.hfile中的类
-
ScannerV2 that operates on encoded data blocks.
- HFileReaderV2.EncodedScannerV2(HFileReaderV2, boolean, boolean, boolean, HFileContext) - 类 的构造器org.apache.hadoop.hbase.io.hfile.HFileReaderV2.EncodedScannerV2
-
- HFileReaderV2.ScannerV2 - org.apache.hadoop.hbase.io.hfile中的类
-
- HFileReaderV2.ScannerV2(HFileReaderV2, boolean, boolean, boolean) - 类 的构造器org.apache.hadoop.hbase.io.hfile.HFileReaderV2.ScannerV2
-
- HFileReaderV3 - org.apache.hadoop.hbase.io.hfile中的类
-
HFile reader for version 3.
- HFileReaderV3(Path, FixedFileTrailer, FSDataInputStreamWrapper, long, CacheConfig, HFileSystem, Configuration) - 类 的构造器org.apache.hadoop.hbase.io.hfile.HFileReaderV3
-
Opens a HFile.
- HFileReaderV3.EncodedScannerV3 - org.apache.hadoop.hbase.io.hfile中的类
-
ScannerV3 that operates on encoded data blocks.
- HFileReaderV3.EncodedScannerV3(HFileReaderV3, boolean, boolean, boolean, HFileContext) - 类 的构造器org.apache.hadoop.hbase.io.hfile.HFileReaderV3.EncodedScannerV3
-
- HFileReaderV3.ScannerV3 - org.apache.hadoop.hbase.io.hfile中的类
-
- HFileReaderV3.ScannerV3(HFileReaderV3, boolean, boolean, boolean) - 类 的构造器org.apache.hadoop.hbase.io.hfile.HFileReaderV3.ScannerV3
-
- HFileReplicator - org.apache.hadoop.hbase.replication.regionserver中的类
-
It is used for replicating HFile entries.
- HFileReplicator(Configuration, String, String, Map<String, List<Pair<byte[], List<String>>>>, Configuration, Connection, List<String>) - 类 的构造器org.apache.hadoop.hbase.replication.regionserver.HFileReplicator
-
- HFileScanner - org.apache.hadoop.hbase.io.hfile中的接口
-
A scanner allows you to position yourself within a HFile and
scan through it.
- HFileSystem - org.apache.hadoop.hbase.fs中的类
-
An encapsulation for the FileSystem object that hbase uses to access
data.
- HFileSystem(Configuration, boolean) - 类 的构造器org.apache.hadoop.hbase.fs.HFileSystem
-
Create a FileSystem object for HBase regionservers.
- HFileSystem(FileSystem) - 类 的构造器org.apache.hadoop.hbase.fs.HFileSystem
-
Wrap a FileSystem object within a HFileSystem.
- HFileV1Detector - org.apache.hadoop.hbase.util中的类
-
Tool to detect presence of any HFileV1 in the given directory.
- HFileV1Detector() - 类 的构造器org.apache.hadoop.hbase.util.HFileV1Detector
-
- HFileWriterV2 - org.apache.hadoop.hbase.io.hfile中的类
-
Writes HFile format version 2.
- HFileWriterV2(Configuration, CacheConfig, FileSystem, Path, FSDataOutputStream, KeyValue.KVComparator, HFileContext) - 类 的构造器org.apache.hadoop.hbase.io.hfile.HFileWriterV2
-
Constructor that takes a path, creates and closes the output stream.
- HFileWriterV3 - org.apache.hadoop.hbase.io.hfile中的类
-
HFile writer for version 3.
- HFileWriterV3(Configuration, CacheConfig, FileSystem, Path, FSDataOutputStream, KeyValue.KVComparator, HFileContext) - 类 的构造器org.apache.hadoop.hbase.io.hfile.HFileWriterV3
-
Constructor that takes a path, creates and closes the output stream.
- hfs - 类 中的变量org.apache.hadoop.hbase.io.hfile.AbstractHFileReader
-
The filesystem used for accesing data
- higher(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSkipListSet
-
- hit(boolean, boolean, BlockType) - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- HLogInputFormat - org.apache.hadoop.hbase.mapreduce中的类
-
- HLogInputFormat() - 类 的构造器org.apache.hadoop.hbase.mapreduce.HLogInputFormat
-
已过时。
- HLogKey - org.apache.hadoop.hbase.regionserver.wal中的类
-
- HLogKey() - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.HLogKey
-
已过时。
- HLogKey(byte[], TableName, long, long, UUID) - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.HLogKey
-
已过时。
- HLogKey(byte[], TableName) - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.HLogKey
-
已过时。
- HLogKey(byte[], TableName, long) - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.HLogKey
-
已过时。
- HLogKey(byte[], TableName, long, MultiVersionConcurrencyControl) - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.HLogKey
-
已过时。
- HLogKey(byte[], TableName, long, long, List<UUID>, long, long, MultiVersionConcurrencyControl) - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.HLogKey
-
已过时。
Create the log key for writing to somewhere.
- HLogKey(byte[], TableName, long, List<UUID>, long, long, MultiVersionConcurrencyControl) - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.HLogKey
-
已过时。
Create the log key for writing to somewhere.
- HLogKey(byte[], TableName, long, long, long, MultiVersionConcurrencyControl) - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.HLogKey
-
已过时。
Create the log key for writing to somewhere.
- HLogPrettyPrinter - org.apache.hadoop.hbase.regionserver.wal中的类
-
已过时。
use the "hbase wal" command
- HLogPrettyPrinter() - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.HLogPrettyPrinter
-
已过时。
Basic constructor that simply initializes values to reasonable defaults.
- HLogPrettyPrinter(boolean, boolean, long, String, String, boolean, PrintStream) - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.HLogPrettyPrinter
-
已过时。
Fully specified constructor.
- HMaster - org.apache.hadoop.hbase.master中的类
-
HMaster is the "master server" for HBase.
- HMaster(Configuration, CoordinatedStateManager) - 类 的构造器org.apache.hadoop.hbase.master.HMaster
-
Initializes the HMaster.
- HMaster.RedirectServlet - org.apache.hadoop.hbase.master中的类
-
- HMaster.RedirectServlet(InfoServer, String) - 类 的构造器org.apache.hadoop.hbase.master.HMaster.RedirectServlet
-
- HMasterCommandLine - org.apache.hadoop.hbase.master中的类
-
- HMasterCommandLine(Class<? extends HMaster>) - 类 的构造器org.apache.hadoop.hbase.master.HMasterCommandLine
-
- HMasterCommandLine.LocalHMaster - org.apache.hadoop.hbase.master中的类
-
- HMasterCommandLine.LocalHMaster(Configuration, CoordinatedStateManager) - 类 的构造器org.apache.hadoop.hbase.master.HMasterCommandLine.LocalHMaster
-
- hMemManager - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
- hostAddress - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer.Connection
-
- hostName(String) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.Builder
-
Set the hostname of the http server.
- HRegion - org.apache.hadoop.hbase.regionserver中的类
-
- HRegion(Path, WAL, FileSystem, Configuration, HRegionInfo, HTableDescriptor, RegionServerServices) - 类 的构造器org.apache.hadoop.hbase.regionserver.HRegion
-
已过时。
Use other constructors.
- HRegion(HRegionFileSystem, WAL, Configuration, HTableDescriptor, RegionServerServices) - 类 的构造器org.apache.hadoop.hbase.regionserver.HRegion
-
HRegion constructor.
- HRegion.FlushResultImpl - org.apache.hadoop.hbase.regionserver中的类
-
Objects from this class are created when flushing to describe all the different states that
that method ends up in.
- HRegion.RowLockImpl - org.apache.hadoop.hbase.regionserver中的类
-
Class used to represent a lock on a row.
- HRegion.RowLockImpl(HRegion.RowLockContext, Lock) - 类 的构造器org.apache.hadoop.hbase.regionserver.HRegion.RowLockImpl
-
- HREGION_COLUMNFAMILY_FLUSH_SIZE_LOWER_BOUND - 类 中的静态变量org.apache.hadoop.hbase.regionserver.FlushLargeStoresPolicy
-
- HREGION_MVCC_PRE_ASSIGN - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HRegion
-
Config key for using mvcc pre-assign feature for put
- HRegionFileSystem - org.apache.hadoop.hbase.regionserver中的类
-
View to an on-disk Region.
- HRegionPartitioner<K2,V2> - org.apache.hadoop.hbase.mapred中的类
-
This is used to partition the output keys into groups of keys.
- HRegionPartitioner() - 类 的构造器org.apache.hadoop.hbase.mapred.HRegionPartitioner
-
- HRegionPartitioner<KEY,VALUE> - org.apache.hadoop.hbase.mapreduce中的类
-
This is used to partition the output keys into groups of keys.
- HRegionPartitioner() - 类 的构造器org.apache.hadoop.hbase.mapreduce.HRegionPartitioner
-
- HRegionServer - org.apache.hadoop.hbase.regionserver中的类
-
HRegionServer makes a set of HRegions available to clients.
- HRegionServer(Configuration) - 类 的构造器org.apache.hadoop.hbase.regionserver.HRegionServer
-
Starts a HRegionServer at the default location.
- HRegionServer(Configuration, CoordinatedStateManager) - 类 的构造器org.apache.hadoop.hbase.regionserver.HRegionServer
-
Starts a HRegionServer at the default location
- HRegionServer.MovedRegionsCleaner - org.apache.hadoop.hbase.regionserver中的类
-
Creates a Chore thread to clean the moved region cache.
- HRegionServerCommandLine - org.apache.hadoop.hbase.regionserver中的类
-
Class responsible for parsing the command line and starting the
RegionServer.
- HRegionServerCommandLine(Class<? extends HRegionServer>) - 类 的构造器org.apache.hadoop.hbase.regionserver.HRegionServerCommandLine
-
- HStore - org.apache.hadoop.hbase.regionserver中的类
-
A Store holds a column family in a Region.
- HStore(HRegion, HColumnDescriptor, Configuration) - 类 的构造器org.apache.hadoop.hbase.regionserver.HStore
-
Constructor
- hTableDescriptor - 类 中的变量org.apache.hadoop.hbase.master.handler.CreateTableHandler
-
- HTableWrapper - org.apache.hadoop.hbase.client中的类
-
A wrapper for HTable.
- htd - 类 中的变量org.apache.hadoop.hbase.master.snapshot.TakeSnapshotHandler
-
- HtmlQuoting - org.apache.hadoop.hbase.http中的类
-
This class is responsible for quoting HTML characters.
- HtmlQuoting() - 类 的构造器org.apache.hadoop.hbase.http.HtmlQuoting
-
- HTTP_AUTHENTICATION_SIGNATURE_SECRET_FILE_KEY - 类 中的静态变量org.apache.hadoop.hbase.http.HttpServer
-
- HTTP_SPNEGO_AUTHENTICATION_KEYTAB_KEY - 类 中的静态变量org.apache.hadoop.hbase.http.HttpServer
-
- HTTP_SPNEGO_AUTHENTICATION_KRB_NAME_KEY - 类 中的静态变量org.apache.hadoop.hbase.http.HttpServer
-
- HTTP_SPNEGO_AUTHENTICATION_PRINCIPAL_KEY - 类 中的静态变量org.apache.hadoop.hbase.http.HttpServer
-
- HTTP_UI_AUTHENTICATION - 类 中的静态变量org.apache.hadoop.hbase.http.HttpServer
-
- HttpConfig - org.apache.hadoop.hbase.http中的类
-
Statics to get access to Http related configuration.
- HttpConfig(Configuration) - 类 的构造器org.apache.hadoop.hbase.http.HttpConfig
-
- HttpConfig.Policy - org.apache.hadoop.hbase.http中的枚举
-
- HttpRequestLog - org.apache.hadoop.hbase.http中的类
-
RequestLog object for use with Http
- HttpRequestLog() - 类 的构造器org.apache.hadoop.hbase.http.HttpRequestLog
-
- HttpRequestLogAppender - org.apache.hadoop.hbase.http中的类
-
Log4j Appender adapter for HttpRequestLog
- HttpRequestLogAppender() - 类 的构造器org.apache.hadoop.hbase.http.HttpRequestLogAppender
-
- HttpServer - org.apache.hadoop.hbase.http中的类
-
Create a Jetty embedded server to answer http requests.
- HttpServer(String, String, int, boolean) - 类 的构造器org.apache.hadoop.hbase.http.HttpServer
-
已过时。
- HttpServer(String, String, int, boolean, Configuration, Connector) - 类 的构造器org.apache.hadoop.hbase.http.HttpServer
-
已过时。
- HttpServer(String, String, int, boolean, Configuration, String[]) - 类 的构造器org.apache.hadoop.hbase.http.HttpServer
-
已过时。
- HttpServer(String, String, int, boolean, Configuration) - 类 的构造器org.apache.hadoop.hbase.http.HttpServer
-
已过时。
- HttpServer(String, String, int, boolean, Configuration, AccessControlList) - 类 的构造器org.apache.hadoop.hbase.http.HttpServer
-
已过时。
- HttpServer(String, String, int, boolean, Configuration, AccessControlList, Connector) - 类 的构造器org.apache.hadoop.hbase.http.HttpServer
-
已过时。
- HttpServer(String, String, int, boolean, Configuration, AccessControlList, Connector, String[]) - 类 的构造器org.apache.hadoop.hbase.http.HttpServer
-
已过时。
- HttpServer.Builder - org.apache.hadoop.hbase.http中的类
-
Class to construct instances of HTTP server with specific options.
- HttpServer.Builder() - 类 的构造器org.apache.hadoop.hbase.http.HttpServer.Builder
-
- HttpServer.QuotingInputFilter - org.apache.hadoop.hbase.http中的类
-
A Servlet input filter that quotes all HTML active characters in the
parameter names and values.
- HttpServer.QuotingInputFilter() - 类 的构造器org.apache.hadoop.hbase.http.HttpServer.QuotingInputFilter
-
- HttpServer.QuotingInputFilter.RequestQuoter - org.apache.hadoop.hbase.http中的类
-
- HttpServer.QuotingInputFilter.RequestQuoter(HttpServletRequest) - 类 的构造器org.apache.hadoop.hbase.http.HttpServer.QuotingInputFilter.RequestQuoter
-
- HttpServer.StackServlet - org.apache.hadoop.hbase.http中的类
-
A very simple servlet to serve up a text representation of the current
stack traces.
- HttpServer.StackServlet() - 类 的构造器org.apache.hadoop.hbase.http.HttpServer.StackServlet
-
- HttpServerUtil - org.apache.hadoop.hbase.util中的类
-
HttpServer utility.
- HttpServerUtil() - 类 的构造器org.apache.hadoop.hbase.util.HttpServerUtil
-
- id - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer.Call
-
- idealMaxKeys(long, double) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBloomFilter
-
The maximum number of keys we can put into a Bloom filter of a certain
size to maintain the given error rate, assuming the number of hash
functions is chosen optimally and does not even have to be an integer
(hence the "ideal" in the function name).
- IdentityTableMap - org.apache.hadoop.hbase.mapred中的类
-
Pass the given key and record as-is to reduce
- IdentityTableMap() - 类 的构造器org.apache.hadoop.hbase.mapred.IdentityTableMap
-
constructor
- IdentityTableMapper - org.apache.hadoop.hbase.mapreduce中的类
-
Pass the given key and record as-is to the reduce phase.
- IdentityTableMapper() - 类 的构造器org.apache.hadoop.hbase.mapreduce.IdentityTableMapper
-
- IdentityTableReduce - org.apache.hadoop.hbase.mapred中的类
-
Write to table each key, record pair
- IdentityTableReduce() - 类 的构造器org.apache.hadoop.hbase.mapred.IdentityTableReduce
-
- IdentityTableReducer - org.apache.hadoop.hbase.mapreduce中的类
-
Convenience class that simply writes all values (which must be
Put or
Delete instances)
passed to it out to the configured HBase table.
- IdentityTableReducer() - 类 的构造器org.apache.hadoop.hbase.mapreduce.IdentityTableReducer
-
- IdLock - org.apache.hadoop.hbase.util中的类
-
Allows multiple concurrent clients to lock on a numeric id with a minimal
memory overhead.
- IdLock() - 类 的构造器org.apache.hadoop.hbase.util.IdLock
-
- IdLock.Entry - org.apache.hadoop.hbase.util中的类
-
An entry returned to the client as a lock object
- IdReadWriteLock - org.apache.hadoop.hbase.util中的类
-
Allows multiple concurrent clients to lock on a numeric id with ReentrantReadWriteLock.
- IdReadWriteLock() - 类 的构造器org.apache.hadoop.hbase.util.IdReadWriteLock
-
- ignoreZKDeleteForTesting - 类 中的变量org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination
-
- immediateAssignment(List<HRegionInfo>, List<ServerName>) - 类 中的方法org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer
-
Generates an immediate assignment plan to be used by a new master for
regions in transition that do not have an already known destination.
- immediateAssignment(List<HRegionInfo>, List<ServerName>) - 接口 中的方法org.apache.hadoop.hbase.master.LoadBalancer
-
Sync assign a region
- impl - 类 中的变量org.apache.hadoop.hbase.coprocessor.CoprocessorHost.Environment
-
The coprocessor
- Import - org.apache.hadoop.hbase.mapreduce中的类
-
Import data written by
Export.
- Import() - 类 的构造器org.apache.hadoop.hbase.mapreduce.Import
-
- Import.Importer - org.apache.hadoop.hbase.mapreduce中的类
-
Write table content out to files in hdfs.
- Import.Importer() - 类 的构造器org.apache.hadoop.hbase.mapreduce.Import.Importer
-
- Import.KeyValueImporter - org.apache.hadoop.hbase.mapreduce中的类
-
A mapper that just writes out KeyValues.
- Import.KeyValueImporter() - 类 的构造器org.apache.hadoop.hbase.mapreduce.Import.KeyValueImporter
-
- Import.KeyValueReducer - org.apache.hadoop.hbase.mapreduce中的类
-
- Import.KeyValueReducer() - 类 的构造器org.apache.hadoop.hbase.mapreduce.Import.KeyValueReducer
-
- Import.KeyValueSortImporter - org.apache.hadoop.hbase.mapreduce中的类
-
- Import.KeyValueSortImporter() - 类 的构造器org.apache.hadoop.hbase.mapreduce.Import.KeyValueSortImporter
-
- Import.KeyValueWritableComparable - org.apache.hadoop.hbase.mapreduce中的类
-
- Import.KeyValueWritableComparable() - 类 的构造器org.apache.hadoop.hbase.mapreduce.Import.KeyValueWritableComparable
-
- Import.KeyValueWritableComparable(KeyValue) - 类 的构造器org.apache.hadoop.hbase.mapreduce.Import.KeyValueWritableComparable
-
- Import.KeyValueWritableComparable.KeyValueWritableComparator - org.apache.hadoop.hbase.mapreduce中的类
-
- Import.KeyValueWritableComparable.KeyValueWritableComparator() - 类 的构造器org.apache.hadoop.hbase.mapreduce.Import.KeyValueWritableComparable.KeyValueWritableComparator
-
- Import.KeyValueWritableComparablePartitioner - org.apache.hadoop.hbase.mapreduce中的类
-
- Import.KeyValueWritableComparablePartitioner() - 类 的构造器org.apache.hadoop.hbase.mapreduce.Import.KeyValueWritableComparablePartitioner
-
- IMPORT_FORMAT_VER - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.ResultSerialization
-
- ImportTsv - org.apache.hadoop.hbase.mapreduce中的类
-
Tool to import data from a TSV file.
- ImportTsv() - 类 的构造器org.apache.hadoop.hbase.mapreduce.ImportTsv
-
- ImportTsv.TsvParser - org.apache.hadoop.hbase.mapreduce中的类
-
- ImportTsv.TsvParser(String, String) - 类 的构造器org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser
-
- ImportTsv.TsvParser.BadTsvLineException - org.apache.hadoop.hbase.mapreduce中的异常错误
-
- ImportTsv.TsvParser.BadTsvLineException(String) - 异常错误 的构造器org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser.BadTsvLineException
-
- incarnation - 类 中的变量org.apache.hadoop.hbase.master.SplitLogManager.Task
-
- incCounters(String, long) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.MetricsSource
-
- incGauge(String, long) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.MetricsSource
-
- includeRegionInSplit(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MultiTableInputFormatBase
-
Test if the given region is to be included in the InputSplit while
splitting the regions of a table.
- includeRegionInSplit(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
Test if the given region is to be included in the InputSplit while splitting
the regions of a table.
- includesTimeRange(TimeRange) - 类 中的方法org.apache.hadoop.hbase.regionserver.TimeRangeTracker
-
Check if the range has ANY overlap with TimeRange
- includeTable(TableName) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- includeTimestamp(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.TimeRangeTracker
-
Update the current TimestampRange to include the timestamp from cell.
- InclusiveCombinedBlockCache - org.apache.hadoop.hbase.io.hfile中的类
-
- InclusiveCombinedBlockCache(LruBlockCache, BlockCache) - 类 的构造器org.apache.hadoop.hbase.io.hfile.InclusiveCombinedBlockCache
-
- incrBytesSkippedInUncleanlyClosedWALs(long) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.MetricsSource
-
- incrCompletedRecoveryQueue() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.MetricsSource
-
- incrCompletedWAL() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.MetricsSource
-
- incReadFailureCount() - 接口 中的方法org.apache.hadoop.hbase.tool.CanaryTool.Sink
-
- incReadFailureCount() - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.StdOutSink
-
- incReadSuccessCount() - 接口 中的方法org.apache.hadoop.hbase.tool.CanaryTool.Sink
-
- incReadSuccessCount() - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.StdOutSink
-
- IncreasingToUpperBoundRegionSplitPolicy - org.apache.hadoop.hbase.regionserver中的类
-
Split size is the number of regions that are on this server that all are
of the same table, cubed, times 2x the region flush size OR the maximum
region split size, whichever is smaller.
- IncreasingToUpperBoundRegionSplitPolicy() - 类 的构造器org.apache.hadoop.hbase.regionserver.IncreasingToUpperBoundRegionSplitPolicy
-
- increment(Increment) - 类 中的方法org.apache.hadoop.hbase.client.HTableWrapper
-
- increment(Increment) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- increment(Increment, long, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- increment(Increment, long, long) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Perform one or more increment operations on a row.
- incrementBadLineCount(int) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TextSortReducer
-
- incrementBadLineCount(int) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TsvImporterMapper
-
- incrementBadLineCount(int) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TsvImporterTextMapper
-
- incrementColumnValue(byte[], byte[], byte[], long) - 类 中的方法org.apache.hadoop.hbase.client.HTableWrapper
-
- incrementColumnValue(byte[], byte[], byte[], long, Durability) - 类 中的方法org.apache.hadoop.hbase.client.HTableWrapper
-
- incrementColumnValue(byte[], byte[], byte[], long, boolean) - 类 中的方法org.apache.hadoop.hbase.client.HTableWrapper
-
- incrementCompactionsQueuedCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- incrementFlushesQueuedCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- incrementRequests(long) - 类 中的方法org.apache.hadoop.hbase.master.MetricsMaster
-
- incrementResponseBlockSize(long) - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCallContext
-
- incrementResponseBlockSize(long) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer.Call
-
- incrementResponseCellSize(long) - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCallContext
-
Add on the given amount to the retained cell size.
- incrementResponseCellSize(long) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer.Call
-
- incrementResponseExceptionSize(long) - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCallContext
-
- incrementResponseExceptionSize(long) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer.Call
-
- incrFailedRecoveryQueue() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.MetricsSource
-
- incrLogEditsFiltered(long) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.MetricsSource
-
Add on the number of log edits filtered
- incrLogEditsFiltered() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.MetricsSource
-
The number of log edits filtered out.
- incrLogEditsRead() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.MetricsSource
-
Increment the number of log edits read by one.
- incrLogReadInBytes(long) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.MetricsSource
-
increase the byte number read by source from log file
- incrMiscInvocations() - 类 中的方法org.apache.hadoop.hbase.master.balancer.MetricsBalancer
-
- incrMiscInvocations() - 类 中的方法org.apache.hadoop.hbase.master.balancer.MetricsStochasticBalancer
-
- incRpcCount() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer.Connection
-
- incrRepeatedFileBytes(long) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.MetricsSource
-
- incrRestartedWALReading() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.MetricsSource
-
- incrSizeOfHFileRefsQueue(long) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.MetricsSource
-
- incrSizeOfLogQueue() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.MetricsSource
-
Increment size of the log queue.
- incrSplitRequest() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServer
-
- incrSplitSuccess() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionServer
-
- incrUncleanlyClosedWALs() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.MetricsSource
-
- incrUnknownFileLengthForClosedWAL() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.MetricsSource
-
- incScannerCount() - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemStoreLAB
-
Called when opening a scanner on the data of this MemStoreLAB
- incScannerCount() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStoreLAB
-
Called when opening a scanner on the data of this MemStoreLAB
- incValue(long) - 类 中的方法org.apache.hadoop.hbase.util.ManualEnvironmentEdge
-
- incWriteFailureCount() - 接口 中的方法org.apache.hadoop.hbase.tool.CanaryTool.Sink
-
- incWriteFailureCount() - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.StdOutSink
-
- incWriteSuccessCount() - 接口 中的方法org.apache.hadoop.hbase.tool.CanaryTool.Sink
-
- incWriteSuccessCount() - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.StdOutSink
-
- indexOf(Object) - 类 中的方法org.apache.hadoop.hbase.util.SortedList
-
- indexSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.AbstractHFileReader
-
- indexSize() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
- indexSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile.Reader
-
- inferBoundaries(TreeMap<byte[], Integer>) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.LoadIncrementalHFiles
-
- INFO_THRESHOLD_KEY - 类 中的静态变量org.apache.hadoop.hbase.util.JvmPauseMonitor
-
- InfoServer - org.apache.hadoop.hbase.http中的类
-
Create a Jetty embedded server to answer http requests.
- InfoServer(String, String, int, boolean, Configuration) - 类 的构造器org.apache.hadoop.hbase.http.InfoServer
-
Create a status server on the given port.
- infoServer - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
- init() - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogManagerCoordination
-
Support method to init constants such as timeout.
- init(RegionServerServices, Configuration, SplitLogWorker.TaskExecutor, SplitLogWorker) - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogWorkerCoordination
-
Initialize internal values.
- init() - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination
-
- init(RegionServerServices, Configuration, SplitLogWorker.TaskExecutor, SplitLogWorker) - 类 中的方法org.apache.hadoop.hbase.coordination.ZkSplitLogWorkerCoordination
-
- init(FilterConfig) - 类 中的方法org.apache.hadoop.hbase.http.ClickjackingPreventionFilter
-
- init(FilterConfig) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.QuotingInputFilter
-
- init() - 类 中的方法org.apache.hadoop.hbase.http.jmx.JMXJsonServlet
-
Initialize this servlet.
- init(FilterConfig) - 类 中的方法org.apache.hadoop.hbase.http.lib.StaticUserWebFilter.StaticUserFilter
-
- init(FilterConfig) - 类 中的方法org.apache.hadoop.hbase.http.NoCacheFilter
-
- init(RpcScheduler.Context) - 类 中的方法org.apache.hadoop.hbase.ipc.FifoRpcScheduler
-
- init(RpcScheduler.Context) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcScheduler
-
Does some quick initialization.
- init(RpcScheduler.Context) - 类 中的方法org.apache.hadoop.hbase.ipc.SimpleRpcScheduler
-
- init() - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReader
-
Build the scanner.
- init() - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReaderImpl
-
Build the scanner.
- init() - 类 中的方法org.apache.hadoop.hbase.mapreduce.DefaultVisibilityExpressionResolver
-
- init() - 接口 中的方法org.apache.hadoop.hbase.mapreduce.VisibilityExpressionResolver
-
Giving a chance for the initialization.
- init(Map<String, Object>) - 类 中的方法org.apache.hadoop.hbase.master.cleaner.BaseFileCleanerDelegate
-
- init(Map<String, Object>) - 接口 中的方法org.apache.hadoop.hbase.master.cleaner.FileCleanerDelegate
-
this method is used to pass some instance into subclass
- init(Map<String, Object>) - 类 中的方法org.apache.hadoop.hbase.master.snapshot.SnapshotHFileCleaner
-
- init() - 类 中的方法org.apache.hadoop.hbase.migration.NamespaceUpgrade
-
- init(StoreScanner, AbstractMultiFileWriter.WriterFactory) - 类 中的方法org.apache.hadoop.hbase.regionserver.AbstractMultiFileWriter
-
Initializes multi-writer before usage.
- init(FileSystem, Path, Configuration, FSDataInputStream) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- init(FileSystem, Path, Configuration, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogWriter
-
- init(FileSystem, Path, Configuration, FSDataInputStream) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ReaderBase
-
- init(FileSystem, Path, Configuration, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WriterBase
-
- init(ReplicationEndpoint.Context) - 类 中的方法org.apache.hadoop.hbase.replication.BaseReplicationEndpoint
-
- init(ReplicationEndpoint.Context) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.HBaseInterClusterReplicationEndpoint
-
- init() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.MetricsSource
-
- init(ReplicationEndpoint.Context) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.RegionReplicaReplicationEndpoint
-
- init(Configuration, FileSystem, ReplicationSourceManager, ReplicationQueues, ReplicationPeers, Stoppable, String, UUID, ReplicationEndpoint, MetricsSource) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSource
-
Instantiation method used by region servers
- init(Configuration, FileSystem, ReplicationSourceManager, ReplicationQueues, ReplicationPeers, Stoppable, String, UUID, ReplicationEndpoint, MetricsSource) - 接口 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSourceInterface
-
Initializer for the source
- init() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSourceManager
-
Adds a normal source per registered peer cluster and tries to process all
old region server wal queues
- init(ReplicationEndpoint.Context) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint
-
Initialize the replication endpoint with the given context.
- init(Configuration, ServiceAuthorizationManager) - 类 中的静态方法org.apache.hadoop.hbase.security.HBasePolicyProvider
-
- init(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.security.HBaseSaslRpcServer
-
- init(RegionCoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.security.visibility.DefaultVisibilityLabelServiceImpl
-
- init(RegionCoprocessorEnvironment) - 接口 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityLabelService
-
System calls this after opening of regions.
- init(ReplicationEndpoint.Context) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityReplicationEndpoint
-
- init(Configuration, String) - 类 中的方法org.apache.hadoop.hbase.wal.BoundedGroupingStrategy
-
- init(WALFactory, Configuration, List<WALActionsListener>, String) - 类 中的方法org.apache.hadoop.hbase.wal.DefaultWALProvider
-
- init(FileSystem, Path, Configuration, FSDataInputStream) - 接口 中的方法org.apache.hadoop.hbase.wal.DefaultWALProvider.Reader
-
- init(FileSystem, Path, Configuration, boolean) - 接口 中的方法org.apache.hadoop.hbase.wal.DefaultWALProvider.Writer
-
- init(Configuration, String) - 类 中的方法org.apache.hadoop.hbase.wal.NamespaceGroupingStrategy
-
- init(WALFactory, Configuration, List<WALActionsListener>, String) - 类 中的方法org.apache.hadoop.hbase.wal.RegionGroupingProvider
-
- init(Configuration, String) - 接口 中的方法org.apache.hadoop.hbase.wal.RegionGroupingProvider.RegionGroupingStrategy
-
- init(byte[], TableName, long, long, List<UUID>, long, long, MultiVersionConcurrencyControl) - 类 中的方法org.apache.hadoop.hbase.wal.WALKey
-
- init(WALFactory, Configuration, List<WALActionsListener>, String) - 接口 中的方法org.apache.hadoop.hbase.wal.WALProvider
-
Set up the provider to create wals.
- initAdmin() - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.Monitor
-
- initAfterCompression() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- initAfterCompression(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- initAfterCompression() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ReaderBase
-
Initializes the compression after the shared stuff has been initialized.
- initAfterCompression(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ReaderBase
-
Initializes the compression after the shared stuff has been initialized.
- initAfterCompression(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.SecureProtobufLogReader
-
- initAfterCompression(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.SequenceFileLogReader
-
- initAfterCompression() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.SequenceFileLogReader
-
- initAfterHeader(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogWriter
-
- initAfterHeader(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.SecureProtobufLogWriter
-
- initCellFilters() - 类 中的方法org.apache.hadoop.hbase.replication.ChainWALEntryFilter
-
- initCosts(BaseLoadBalancer.Cluster) - 类 中的方法org.apache.hadoop.hbase.master.balancer.StochasticLoadBalancer
-
- initCredentials(JobConf) - 类 中的静态方法org.apache.hadoop.hbase.mapred.TableMapReduceUtil
-
- initCredentials(Job) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
- initCredentialsForCluster(Job, String) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
- initCredentialsForCluster(Job, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Obtain an authentication token, for the specified cluster, on behalf of the current user
and add it to the credentials for the given map reduce job.
- initFilter(FilterContainer, Configuration) - 类 中的方法org.apache.hadoop.hbase.http.FilterInitializer
-
Initialize a Filter to a FilterContainer.
- initFilter(FilterContainer, Configuration) - 类 中的方法org.apache.hadoop.hbase.http.lib.StaticUserWebFilter
-
- INITIAL_STRIPE_COUNT_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.StripeStoreConfig
-
The initial stripe count to create.
- initialChore() - 类 中的方法org.apache.hadoop.hbase.master.CatalogJanitor
-
- initialize(Server) - 接口 中的方法org.apache.hadoop.hbase.CoordinatedStateManager
-
Initialize coordinated state management service.
- initialize(Server) - 类 中的方法org.apache.hadoop.hbase.coordination.BaseCoordinatedStateManager
-
- initialize(Server) - 类 中的方法org.apache.hadoop.hbase.coordination.ZkCoordinatedStateManager
-
- initialize(JobConf) - 类 中的方法org.apache.hadoop.hbase.mapred.TableInputFormat
-
- initialize(JobConf) - 类 中的方法org.apache.hadoop.hbase.mapred.TableInputFormatBase
-
Handle subclass specific set up.
- initialize(JobContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
- initialize(JobContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
Handle subclass specific set up.
- initialize(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableRecordReader
-
Initializes the reader.
- initialize(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableRecordReaderImpl
-
Build the scanner.
- initialize(TableSnapshotInputFormatImpl.InputSplit, Configuration) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl.RecordReader
-
- initialize() - 类 中的方法org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer
-
- initialize() - 类 中的方法org.apache.hadoop.hbase.master.balancer.FavoredNodeAssignmentHelper
-
- initialize() - 接口 中的方法org.apache.hadoop.hbase.master.LoadBalancer
-
Initialize the load balancer.
- initialize(MasterServices, MetricsMaster) - 类 中的方法org.apache.hadoop.hbase.master.snapshot.SnapshotManager
-
- initialize() - 类 中的方法org.apache.hadoop.hbase.master.SnapshotOfRegionAssignmentFromMeta
-
Initialize the region assignment snapshot by scanning the hbase:meta table
- initialize(MasterServices, MetricsMaster) - 类 中的方法org.apache.hadoop.hbase.procedure.flush.MasterFlushTableProcedureManager
-
- initialize(RegionServerServices) - 类 中的方法org.apache.hadoop.hbase.procedure.flush.RegionServerFlushTableProcedureManager
-
Initialize this region server flush procedure manager
Uses a zookeeper based member controller.
- initialize(MasterServices, MetricsMaster) - 类 中的方法org.apache.hadoop.hbase.procedure.MasterProcedureManager
-
Initialize a globally barriered procedure for master.
- initialize(MasterServices, MetricsMaster) - 类 中的方法org.apache.hadoop.hbase.procedure.MasterProcedureManagerHost
-
- initialize(RegionServerServices) - 类 中的方法org.apache.hadoop.hbase.procedure.RegionServerProcedureManager
-
Initialize a globally barriered procedure for region servers.
- initialize(RegionServerServices) - 类 中的方法org.apache.hadoop.hbase.procedure.RegionServerProcedureManagerHost
-
- initialize() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
已过时。
use HRegion.createHRegion() or HRegion.openHRegion()
- initialize(Server, FileSystem, Path, Path) - 接口 中的方法org.apache.hadoop.hbase.regionserver.ReplicationService
-
Initializes the replication service object.
- initialize(S) - 接口 中的方法org.apache.hadoop.hbase.regionserver.RowProcessor
-
This method should initialize any field(s) of the RowProcessor with
a parsing of the passed message bytes (used on the server side).
- initialize(RegionServerServices) - 类 中的方法org.apache.hadoop.hbase.regionserver.snapshot.RegionServerSnapshotManager
-
Create a default snapshot handler - uses a zookeeper based member controller.
- initialize(Server, FileSystem, Path, Path) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.Replication
-
- initializeAndGetReadLatencyForTable(String) - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.RegionStdOutSink
-
- initializeCompressionContext(Configuration, Path) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WriterBase
-
- initialized - 类 中的变量org.apache.hadoop.hbase.tool.CanaryTool.Monitor
-
- initializeQueues(int, Class<? extends BlockingQueue>, Object...) - 类 中的方法org.apache.hadoop.hbase.ipc.BalancedQueueRpcExecutor
-
已过时。
- initializeQueues(int) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
- initializeTable(Connection, TableName) - 类 中的方法org.apache.hadoop.hbase.mapred.TableInputFormatBase
-
Allows subclasses to initialize the table information.
- initializeTable(Connection, TableName) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
Allows subclasses to initialize the table information.
- initializeWriteLatency() - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.RegionStdOutSink
-
- initialSize - 类 中的变量org.apache.hadoop.hbase.regionserver.IncreasingToUpperBoundRegionSplitPolicy
-
- initJob(String, String, String, Class<? extends TableMap>, JobConf) - 类 中的静态方法org.apache.hadoop.hbase.mapred.GroupingTableMap
-
Use this before submitting a TableMap job.
- initJob(String, String, Class<? extends TableMap>, JobConf) - 类 中的静态方法org.apache.hadoop.hbase.mapred.IdentityTableMap
-
Use this before submitting a TableMap job.
- initJob(String, Scan, String, Class<? extends TableMapper>, Job) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.GroupingTableMapper
-
Use this before submitting a TableMap job.
- initJob(String, Scan, Class<? extends TableMapper>, Job) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.IdentityTableMapper
-
Use this before submitting a TableMap job.
- initLatch - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
- initMultiTableSnapshotMapperJob(Map<String, Collection<Scan>>, Class<? extends TableMap>, Class<?>, Class<?>, JobConf, boolean, Path) - 类 中的静态方法org.apache.hadoop.hbase.mapred.TableMapReduceUtil
-
Sets up the job for reading from one or more multiple table snapshots, with one or more scans
per snapshot.
- initMultiTableSnapshotMapperJob(Map<String, Collection<Scan>>, Class<? extends TableMapper>, Class<?>, Class<?>, Job, boolean, Path) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Sets up the job for reading from one or more table snapshots, with one or more scans
per snapshot.
- initMultiWriter(AbstractMultiFileWriter, InternalScanner, Compactor.FileDetails, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.AbstractMultiOutputCompactor
-
- initReader(FSDataInputStream) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- initReader(FSDataInputStream) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ReaderBase
-
Initializes the log reader with a particular stream (may be null).
- initReader(FSDataInputStream) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.SequenceFileLogReader
-
- initSource() - 类 中的方法org.apache.hadoop.hbase.master.balancer.MetricsBalancer
-
A function to instantiate the metrics source.
- initSource() - 类 中的方法org.apache.hadoop.hbase.master.balancer.MetricsStochasticBalancer
-
This function overrides the initSource in the MetricsBalancer, use
MetricsStochasticBalancerSource instead of the MetricsBalancerSource.
- initTableMapJob(String, String, Class<? extends TableMap>, Class<?>, Class<?>, JobConf) - 类 中的静态方法org.apache.hadoop.hbase.mapred.TableMapReduceUtil
-
Use this before submitting a TableMap job.
- initTableMapJob(String, String, Class<? extends TableMap>, Class<?>, Class<?>, JobConf, boolean) - 类 中的静态方法org.apache.hadoop.hbase.mapred.TableMapReduceUtil
-
- initTableMapJob(String, String, Class<? extends TableMap>, Class<?>, Class<?>, JobConf, boolean, Class<? extends InputFormat>) - 类 中的静态方法org.apache.hadoop.hbase.mapred.TableMapReduceUtil
-
Use this before submitting a TableMap job.
- initTableMapperJob(String, Scan, Class<? extends TableMapper>, Class<?>, Class<?>, Job) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Use this before submitting a TableMap job.
- initTableMapperJob(TableName, Scan, Class<? extends TableMapper>, Class<?>, Class<?>, Job) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Use this before submitting a TableMap job.
- initTableMapperJob(byte[], Scan, Class<? extends TableMapper>, Class<?>, Class<?>, Job) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Use this before submitting a TableMap job.
- initTableMapperJob(String, Scan, Class<? extends TableMapper>, Class<?>, Class<?>, Job, boolean, Class<? extends InputFormat>) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Use this before submitting a TableMap job.
- initTableMapperJob(String, Scan, Class<? extends TableMapper>, Class<?>, Class<?>, Job, boolean, boolean, Class<? extends InputFormat>) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Use this before submitting a TableMap job.
- initTableMapperJob(byte[], Scan, Class<? extends TableMapper>, Class<?>, Class<?>, Job, boolean, Class<? extends InputFormat>) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Use this before submitting a TableMap job.
- initTableMapperJob(byte[], Scan, Class<? extends TableMapper>, Class<?>, Class<?>, Job, boolean) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Use this before submitting a TableMap job.
- initTableMapperJob(String, Scan, Class<? extends TableMapper>, Class<?>, Class<?>, Job, boolean) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Use this before submitting a TableMap job.
- initTableMapperJob(List<Scan>, Class<? extends TableMapper>, Class<?>, Class<?>, Job) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Use this before submitting a Multi TableMap job.
- initTableMapperJob(List<Scan>, Class<? extends TableMapper>, Class<?>, Class<?>, Job, boolean) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Use this before submitting a Multi TableMap job.
- initTableMapperJob(List<Scan>, Class<? extends TableMapper>, Class<?>, Class<?>, Job, boolean, boolean) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Use this before submitting a Multi TableMap job.
- initTableReduceJob(String, Class<? extends TableReduce>, JobConf) - 类 中的静态方法org.apache.hadoop.hbase.mapred.TableMapReduceUtil
-
Use this before submitting a TableReduce job.
- initTableReduceJob(String, Class<? extends TableReduce>, JobConf, Class) - 类 中的静态方法org.apache.hadoop.hbase.mapred.TableMapReduceUtil
-
Use this before submitting a TableReduce job.
- initTableReduceJob(String, Class<? extends TableReduce>, JobConf, Class, boolean) - 类 中的静态方法org.apache.hadoop.hbase.mapred.TableMapReduceUtil
-
Use this before submitting a TableReduce job.
- initTableReducerJob(String, Class<? extends TableReducer>, Job) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Use this before submitting a TableReduce job.
- initTableReducerJob(String, Class<? extends TableReducer>, Job, Class) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Use this before submitting a TableReduce job.
- initTableReducerJob(String, Class<? extends TableReducer>, Job, Class, String, String, String) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Use this before submitting a TableReduce job.
- initTableReducerJob(String, Class<? extends TableReducer>, Job, Class, String, String, String, boolean) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Use this before submitting a TableReduce job.
- initTableSnapshotMapJob(String, String, Class<? extends TableMap>, Class<?>, Class<?>, JobConf, boolean, Path) - 类 中的静态方法org.apache.hadoop.hbase.mapred.TableMapReduceUtil
-
Sets up the job for reading from a table snapshot.
- initTableSnapshotMapJob(String, String, Class<? extends TableMap>, Class<?>, Class<?>, JobConf, boolean, Path, RegionSplitter.SplitAlgorithm, int) - 类 中的静态方法org.apache.hadoop.hbase.mapred.TableMapReduceUtil
-
Sets up the job for reading from a table snapshot.
- initTableSnapshotMapperJob(String, Scan, Class<? extends TableMapper>, Class<?>, Class<?>, Job, boolean, Path) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Sets up the job for reading from a table snapshot.
- initTableSnapshotMapperJob(String, Scan, Class<? extends TableMapper>, Class<?>, Class<?>, Job, boolean, Path, RegionSplitter.SplitAlgorithm, int) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Sets up the job for reading from a table snapshot.
- InlineBlockWriter - org.apache.hadoop.hbase.io.hfile中的接口
-
A way to write "inline" blocks into an
HFile.
- INPUT_AUTOBALANCE_MAXSKEWRATIO - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
已过时。
- INPUT_TABLE - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
Job parameter that specifies the input table.
- inputStream - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- insertDataValue(long) - 类 中的方法org.apache.hadoop.hbase.util.RollingStatCalculator
-
Inserts given data value to array of data values to be considered for statistics calculation
- insertIntoNSTable(MasterProcedureEnv, NamespaceDescriptor) - 类 中的静态方法org.apache.hadoop.hbase.master.procedure.CreateNamespaceProcedure
-
Insert the row into ns table
- insertIntoNSTable(NamespaceDescriptor) - 类 中的方法org.apache.hadoop.hbase.master.TableNamespaceManager
-
- insertNewFiles(Collection<StoreFile>) - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFileManager
-
Adds new files, either for from MemStore flush or bulk insert, into the structure.
- insertNewFiles(Collection<StoreFile>) - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- insideBarrier() - 类 中的方法org.apache.hadoop.hbase.procedure.flush.FlushTableSubprocedure
-
- insideBarrier() - 类 中的方法org.apache.hadoop.hbase.procedure.Subprocedure
-
The implementation of this method should act with the assumption that the barrier condition
has been satisfied.
- insideBarrier() - 类 中的方法org.apache.hadoop.hbase.procedure.Subprocedure.SubprocedureImpl
-
- insideBarrier() - 类 中的方法org.apache.hadoop.hbase.regionserver.snapshot.FlushSnapshotSubprocedure
-
do a flush snapshot of every region on this rs from the target table.
- install(Configuration, FileSystem, Stoppable, Thread) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.ShutdownHook
-
Install a shutdown hook that calls stop on the passed Stoppable
and then thread joins against the passed threadToJoin.
- installed - 类 中的变量org.apache.hadoop.hbase.master.SplitLogManager.TaskBatch
-
- INSTANCE - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.NoOpDataBlockEncoder
-
- INSTANCE - 类 中的静态变量org.apache.hadoop.hbase.regionserver.throttle.NoLimitThroughputController
-
- instantiateBlockCache(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
Returns the block cache or null in case none should be used.
- instantiateDeleteTracker(RegionCoprocessorHost) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
- instantiateFilter(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.Import
-
Create a
Filter to apply to all incoming keys (
KeyValues) to
optionally not include in the job output
- instantiateHStore(HColumnDescriptor) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- instantiateRegionScanner(Scan, List<KeyValueScanner>) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- instantiateRegionScanner(Scan, List<KeyValueScanner>, long, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- internalClose() - 类 中的方法org.apache.hadoop.hbase.client.HTableWrapper
-
- internalFlushcache(WAL, long, Collection<Store>, MonitoredTask, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Flush the memstore.
- internalFlushCacheAndCommit(WAL, MonitoredTask, HRegion.PrepareFlushResult, Collection<Store>) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- internalPrepareFlushCache(WAL, long, Collection<Store>, MonitoredTask, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- InternalScan - org.apache.hadoop.hbase.regionserver中的类
-
Special scanner, currently used for increment operations to
allow additional server-side arguments for Scan operations.
- InternalScan(Get) - 类 的构造器org.apache.hadoop.hbase.regionserver.InternalScan
-
- InternalScan(Scan) - 类 的构造器org.apache.hadoop.hbase.regionserver.InternalScan
-
- InternalScanner - org.apache.hadoop.hbase.regionserver中的接口
-
Internal scanners differ from client-side scanners in that they operate on
HStoreKeys and byte[] instead of RowResults.
- InterProcessLock - org.apache.hadoop.hbase中的接口
-
An interface for an application-specific lock.
- InterProcessLock.MetadataHandler - org.apache.hadoop.hbase中的接口
-
An interface for objects that process lock metadata.
- InterProcessReadWriteLock - org.apache.hadoop.hbase中的接口
-
An interface for a distributed reader-writer lock.
- interrupt() - 类 中的方法org.apache.hadoop.hbase.regionserver.LogRoller
-
- InvalidHFileException - org.apache.hadoop.hbase.io.hfile中的异常错误
-
Thrown when an invalid HFile format is detected
- InvalidHFileException() - 异常错误 的构造器org.apache.hadoop.hbase.io.hfile.InvalidHFileException
-
constructor
- InvalidHFileException(String) - 异常错误 的构造器org.apache.hadoop.hbase.io.hfile.InvalidHFileException
-
Constructor
- invert(float[][]) - 类 中的方法org.apache.hadoop.hbase.master.RegionPlacementMaintainer.RandomizedMatrix
-
Copy a given matrix into a new matrix, transforming each row index and
each column index according to the inverse of the randomization scheme
that was created at construction time.
- invertIndices(int[]) - 类 中的方法org.apache.hadoop.hbase.master.RegionPlacementMaintainer.RandomizedMatrix
-
Given an array where each element indices[i] represents the
randomized column index corresponding to randomized row index i,
create a new array with the corresponding inverted indices.
- invokeAssign(HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.master.AssignmentManager
-
- invokeAssign(HRegionInfo, boolean) - 类 中的方法org.apache.hadoop.hbase.master.AssignmentManager
-
- IO_STOREFILE_BLOOM_BLOCK_SIZE - 类 中的静态变量org.apache.hadoop.hbase.util.BloomFilterFactory
-
Target Bloom block size.
- IO_STOREFILE_BLOOM_ENABLED - 类 中的静态变量org.apache.hadoop.hbase.util.BloomFilterFactory
-
Master switch to enable Bloom filters
- IO_STOREFILE_BLOOM_ERROR_RATE - 类 中的静态变量org.apache.hadoop.hbase.util.BloomFilterFactory
-
Specifies the target error rate to use when selecting the number of keys
per Bloom filter.
- IO_STOREFILE_BLOOM_MAX_FOLD - 类 中的静态变量org.apache.hadoop.hbase.util.BloomFilterFactory
-
Maximum folding factor allowed.
- IO_STOREFILE_BLOOM_MAX_KEYS - 类 中的静态变量org.apache.hadoop.hbase.util.BloomFilterFactory
-
For default (single-block) Bloom filters this specifies the maximum number
of keys.
- IO_STOREFILE_DELETEFAMILY_BLOOM_ENABLED - 类 中的静态变量org.apache.hadoop.hbase.util.BloomFilterFactory
-
Master switch to enable Delete Family Bloom filters
- IOEngine - org.apache.hadoop.hbase.io.hfile.bucket中的接口
-
A class implementing IOEngine interface supports data services for
BucketCache.
- ioHit(long) - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketCacheStats
-
- IPC_SERVER_MAX_CALLQUEUE_LENGTH - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcScheduler
-
- IPC_SERVER_PRIORITY_MAX_CALLQUEUE_LENGTH - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcScheduler
-
- isAborted() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- isAborted() - 类 中的方法org.apache.hadoop.hbase.replication.HBaseReplicationEndpoint
-
- isAborted() - 类 中的方法org.apache.hadoop.hbase.replication.master.ReplicationLogCleaner.WarnOnlyAbortable
-
- isAbortPathNode(String) - 类 中的方法org.apache.hadoop.hbase.procedure.ZKProcedureUtil
-
Is this in the procedure barrier abort znode path
- isActiveMaster() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
Report whether this master is currently the active master or not.
- isAlive() - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
Test for the availability of the web server
- isAllFiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionRequest
-
- isAllowed() - 类 中的方法org.apache.hadoop.hbase.security.access.AuthResult
-
- isAppendSupported(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Heuristic to determine whether is safe or not to open a file for append
Looks both for dfs.support.append and use reflection to search
for SequenceFile.Writer.syncFs() or FSDataOutputStream.hflush()
- isAuthorizationSupported(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.security.access.AccessChecker
-
- isAuthorizationSupported(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.security.access.AccessController
-
- isAuthorizationSupported(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.security.visibility.VisibilityController
-
- isAutoFlush() - 类 中的方法org.apache.hadoop.hbase.client.HTableWrapper
-
- isAvailable() - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureScheduler.TableQueue
-
- isAvailable() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- isAvailable() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- isBackReferencesDir(Path) - 类 中的静态方法org.apache.hadoop.hbase.io.FileLink
-
Checks if the specified directory path is a back reference links folder.
- isBadJvmVersion() - 类 中的静态方法org.apache.hadoop.hbase.util.JvmVersion
-
Return true if the current JVM is known to be unstable.
- isBalancerEnabled(RpcController, MasterProtos.IsBalancerEnabledRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- isBalancerOn() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- isBalancerOn() - 类 中的方法org.apache.hadoop.hbase.zookeeper.LoadBalancerTracker
-
Return true if the balance switch is on, false otherwise
- isBlockCacheEnabled() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
Checks whether the block cache is enabled.
- isBulkLoaded() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile.Reader
-
- isBulkLoadResult() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
Check if this storefile was created by bulk load.
- isBypass() - 接口 中的方法org.apache.hadoop.hbase.quotas.QuotaLimiter
-
- isBypass() - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaState
-
- isBypass() - 类 中的方法org.apache.hadoop.hbase.quotas.RateLimiter
-
- isBypass() - 类 中的方法org.apache.hadoop.hbase.quotas.TimeBasedLimiter
-
- isBypass() - 类 中的方法org.apache.hadoop.hbase.quotas.UserQuotaState
-
- isCacheDataInL1() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
- isCarryingMeta(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.AssignmentManager
-
- isCarryingMetaReplica(ServerName, int) - 类 中的方法org.apache.hadoop.hbase.master.AssignmentManager
-
- isCarryingMetaReplica(ServerName, HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.master.AssignmentManager
-
- isCatalogJanitorEnabled(RpcController, MasterProtos.IsCatalogJanitorEnabledRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- isCellAuthorizationSupported(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.security.access.AccessController
-
- isCellAuthorizationSupported(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.security.visibility.VisibilityController
-
- isCellTTLExpired(Cell, long, long) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HStore
-
- isCheckOnlyMemStore() - 类 中的方法org.apache.hadoop.hbase.regionserver.InternalScan
-
Returns true if only the MemStore should be checked.
- isCheckOnlyStoreFiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.InternalScan
-
Returns true if only StoreFiles should be checked.
- isChildOfSameType(String) - 类 中的方法org.apache.hadoop.hbase.zookeeper.lock.ZKInterProcessLockBase
-
Check if a child znode represents the same type(read or write) of lock
- isChildReadLock(String) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.lock.ZKInterProcessLockBase
-
Check if a child znode represents a read lock.
- isChildWriteLock(String) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.lock.ZKInterProcessLockBase
-
Check if a child znode represents a write lock.
- isCleanerChoreEnabled(RpcController, MasterProtos.IsCleanerChoreEnabledRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- isClientCellBlockSupported() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCallContext
-
If the client connected and specified a codec to use, then we will use this codec making
cellblocks to return.
- isClientCellBlockSupported() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer.Call
-
- isClosed() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- isClosed() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- isClosing() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- isClosing() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- isClusterShutdown() - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
- isClusterUp() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ClusterStatusTracker
-
Checks if cluster is up.
- isCodelQueueType(String) - 类 中的静态方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
- isCompactedAway() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
- isCompactedAway() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile.Reader
-
- isCompaction - 类 中的变量org.apache.hadoop.hbase.io.hfile.AbstractHFileReader.Scanner
-
- isCompactionMarker(Cell) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.wal.WALEdit
-
- isCompactionNeeded() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion.FlushResultImpl
-
Convenience method, the equivalent of checking if result is FLUSHED_COMPACTION_NEEDED.
- isCompactionNeeded() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region.FlushResult
-
- isCompleted(Path) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.PrefetchExecutor
-
- isCompleted() - 类 中的方法org.apache.hadoop.hbase.procedure.Procedure
-
Check if the entire procedure has globally completed, or has been aborted.
- isCompletelyFree() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketAllocator.Bucket
-
- isCorrupted(Path, String, FileSystem) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKSplitLog
-
- isDead - 类 中的变量org.apache.hadoop.hbase.master.SplitLogManager.TaskBatch
-
- isDeadlineQueueType(String) - 类 中的静态方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
- isDeadServer(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.DeadServer
-
- isDeleted(Cell) - 接口 中的方法org.apache.hadoop.hbase.regionserver.DeleteTracker
-
Check if the specified cell buffer has been deleted by a previously seen delete.
- isDeleted(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanDeleteTracker
-
Check if the specified KeyValue buffer has been deleted by a previously seen delete.
- isDeleted(Cell) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityScanDeleteTracker
-
- isDeleteFamilyBloomEnabled(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.BloomFilterFactory
-
- isDirectory(FileSystem, Boolean, Path) - 类 中的方法org.apache.hadoop.hbase.util.AbstractFileStatusFilter
-
- isDistributedFileSystem(FileSystem) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
- isDone(long) - 接口 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ColumnTracker
-
Give the tracker a chance to declare it's done based on only the timestamp
to allow an early out.
- isDone(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ExplicitColumnTracker
-
- isDone(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanWildcardColumnTracker
-
- isDone(ServerName) - 类 中的方法org.apache.hadoop.hbase.SplitLogTask
-
- isDone() - 类 中的方法org.apache.hadoop.hbase.SplitLogTask
-
- isDone() - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.Monitor
-
- isEmpty() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFile.FileInfo
-
- isEmpty() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlockIndex.BlockIndexReader
-
- isEmpty() - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- isEmpty() - 类 中的方法org.apache.hadoop.hbase.master.DeadServer
-
- isEmpty() - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSkipListSet
-
- isEmpty() - 接口 中的方法org.apache.hadoop.hbase.regionserver.DeleteTracker
-
- isEmpty() - 类 中的方法org.apache.hadoop.hbase.regionserver.LruHashMap
-
Checks whether the map is currently empty.
- isEmpty() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanDeleteTracker
-
- isEmpty() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WALEdit
-
- isEmpty() - 类 中的方法org.apache.hadoop.hbase.util.SortedCopyOnWriteSet
-
- isEmpty() - 类 中的方法org.apache.hadoop.hbase.util.SortedList
-
- isEnabled() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationThrottler
-
If throttling is enabled
- isErr(ServerName) - 类 中的方法org.apache.hadoop.hbase.SplitLogTask
-
- isErr() - 类 中的方法org.apache.hadoop.hbase.SplitLogTask
-
- isError - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer.Call
-
- isExclusive() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
Only one instance of hbck can modify HBase at a time.
- isExists(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Calls fs.exists().
- isFailoverCleanupDone() - 类 中的方法org.apache.hadoop.hbase.master.AssignmentManager
-
Used by ServerShutdownHandler to make sure AssignmentManager has completed
the failover cleanup before re-assigning regions of dead servers.
- isFifoQueueType(String) - 类 中的静态方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
- isFile(FileSystem, Boolean, Path) - 类 中的方法org.apache.hadoop.hbase.util.AbstractFileStatusFilter
-
- isFileDeletable(FileStatus) - 类 中的方法org.apache.hadoop.hbase.backup.example.LongTermArchivingHFileCleaner
-
- isFileDeletable(FileStatus) - 类 中的方法org.apache.hadoop.hbase.master.cleaner.BaseFileCleanerDelegate
-
Should the master delete the file or keep it?
- isFileDeletable(FileStatus) - 类 中的方法org.apache.hadoop.hbase.master.cleaner.BaseLogCleanerDelegate
-
- isFileDeletable(FileStatus) - 类 中的方法org.apache.hadoop.hbase.master.cleaner.HFileLinkCleaner
-
- isFileDeletable(FileStatus) - 类 中的方法org.apache.hadoop.hbase.master.cleaner.TimeToLiveHFileCleaner
-
- isFileDeletable(FileStatus) - 类 中的方法org.apache.hadoop.hbase.master.snapshot.SnapshotHFileCleaner
-
- isFileDeletable(FileStatus) - 类 中的方法org.apache.hadoop.hbase.replication.master.ReplicationHFileCleaner
-
- isFileInfoLoaded() - 类 中的方法org.apache.hadoop.hbase.io.hfile.AbstractHFileReader
-
- isFileInfoLoaded() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2
-
- isFileScanner() - 接口 中的方法org.apache.hadoop.hbase.regionserver.KeyValueScanner
-
- isFileScanner() - 类 中的方法org.apache.hadoop.hbase.regionserver.NonLazyKeyValueScanner
-
- isFileScanner() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
- isFilterDone() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionScanner
-
- isFinished() - 类 中的方法org.apache.hadoop.hbase.master.snapshot.CloneSnapshotHandler
-
- isFinished() - 类 中的方法org.apache.hadoop.hbase.master.snapshot.RestoreSnapshotHandler
-
- isFinished() - 类 中的方法org.apache.hadoop.hbase.master.snapshot.TakeSnapshotHandler
-
- isFinished() - 接口 中的方法org.apache.hadoop.hbase.master.SnapshotSentinel
-
Check to see if the snapshot is finished, where finished may be success or failure.
- isFlushSucceeded() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion.FlushResultImpl
-
Convenience method, the equivalent of checking if result is
FLUSHED_NO_COMPACTION_NEEDED or FLUSHED_NO_COMPACTION_NEEDED.
- isFlushSucceeded() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region.FlushResult
-
- isFull() - 类 中的方法org.apache.hadoop.hbase.io.hfile.BlockCacheUtil.CachedBlocksByFile
-
- isGeneralBloomEnabled(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.BloomFilterFactory
-
- isGet() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.NormalUserScanQueryMatcher
-
- isGet() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.RawScanQueryMatcher
-
- isGet() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.UserScanQueryMatcher
-
- isHDFS(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
- isHFile() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
- isHFile(Path) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
- isHFile(String) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
- isHFileFormat(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.HFile
-
Returns true if the specified file has a valid HFile Trailer.
- isHFileFormat(FileSystem, FileStatus) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.HFile
-
Returns true if the specified file has a valid HFile Trailer.
- isHFileLink(Path) - 类 中的静态方法org.apache.hadoop.hbase.io.HFileLink
-
- isHFileLink(String) - 类 中的静态方法org.apache.hadoop.hbase.io.HFileLink
-
- isHttpEnabled() - 枚举 中的方法org.apache.hadoop.hbase.http.HttpConfig.Policy
-
- isHttpsEnabled() - 枚举 中的方法org.apache.hadoop.hbase.http.HttpConfig.Policy
-
- isInitializationStartsMetaRegionAssignment() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
Report whether this master has started initialization and is about to do meta region assignment
- isInitialized() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
Report whether this master has completed with its initialization and is
ready.
- isInitialized() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- isInitialized() - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureEnv
-
- isInitialized() - 类 中的方法org.apache.hadoop.hbase.namespace.NamespaceAuditor
-
Checks if namespace auditor is initialized.
- isInMaintenanceMode() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
Report whether this master is in maintenance mode.
- isInMaintenanceMode() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- isInMaintenanceMode() - 类 中的方法org.apache.hadoop.hbase.zookeeper.MasterMaintenanceModeTracker
-
- isInMemory() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
- isInRpcCallContext() - 类 中的静态方法org.apache.hadoop.hbase.ipc.RpcServer
-
- isInstrumentationAccessAllowed(ServletContext, HttpServletRequest, HttpServletResponse) - 类 中的静态方法org.apache.hadoop.hbase.http.HttpServer
-
Checks the user has privileges to access to instrumentation servlets.
- isLink() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
- isLoadingCfsOnDemandDefault() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- isLoadingCfsOnDemandDefault() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- isLocal(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.LocalHBaseCluster
-
- isLogDeletable(FileStatus) - 类 中的方法org.apache.hadoop.hbase.master.cleaner.BaseLogCleanerDelegate
-
已过时。
- isLogDeletable(FileStatus) - 类 中的方法org.apache.hadoop.hbase.master.cleaner.TimeToLiveLogCleaner
-
- isLogReplaying() - 类 中的方法org.apache.hadoop.hbase.master.SplitLogManager
-
- isLogSplitting() - 类 中的方法org.apache.hadoop.hbase.master.SplitLogManager
-
- isMajor() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionRequest
-
- isMajorCompaction() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- isMajorCompaction() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- isMajorCompaction() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
- isMaster() - 类 中的方法org.apache.hadoop.hbase.security.token.AuthenticationTokenSecretManager
-
- isMasterInMaintenanceMode(RpcController, MasterProtos.IsInMaintenanceModeRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- isMasterRunning(RpcController, MasterProtos.IsMasterRunningRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- isMatchingTail(Path, String) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Compare path component of the Path URI; e.g. if hdfs://a/b/c and /a/b/c, it will compare the
'/a/b/c' part.
- isMatchingTail(Path, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Compare path component of the Path URI; e.g. if hdfs://a/b/c and /a/b/c, it will compare the
'/a/b/c' part.
- isMergeable() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- isMerged() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck.HbckInfo
-
- isMetaEdit() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WALEdit
-
- isMetaEditFamily(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.wal.WALEdit
-
- isMetaEditFamily(Cell) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.wal.WALEdit
-
- isMetaFile(Path) - 类 中的静态方法org.apache.hadoop.hbase.wal.DefaultWALProvider
-
- isMetaFile(String) - 类 中的静态方法org.apache.hadoop.hbase.wal.DefaultWALProvider
-
- isMetaRegionInTransition() - 类 中的方法org.apache.hadoop.hbase.master.RegionStates
-
- isNamespaceEntry(String) - 类 中的静态方法org.apache.hadoop.hbase.security.access.AccessControlLists
-
- isNamespaceEntry(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.security.access.AccessControlLists
-
- isNormalizerEnabled(RpcController, MasterProtos.IsNormalizerEnabledRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- isNormalizerOn() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- isNormalizerOn() - 类 中的方法org.apache.hadoop.hbase.zookeeper.RegionNormalizerTracker
-
Return true if region normalizer is on, false otherwise
- isOffPeak() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionRequest
-
- isOffPeakHour(int) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.OffPeakHours
-
- isOffPeakHour() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.OffPeakHours
-
- isOnline() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
Report the status of the server.
- isOnlineSchemaChangeAllowed(MasterProcedureEnv) - 类 中的静态方法org.apache.hadoop.hbase.master.procedure.MasterDDLOperationHelper
-
Check whether online schema change is allowed from config
- isOperationRunning() - 接口 中的方法org.apache.hadoop.hbase.monitoring.MonitoredRPCHandler
-
- isOperationRunning() - 类 中的方法org.apache.hadoop.hbase.monitoring.MonitoredRPCHandlerImpl
-
Indicates to the client whether this task is monitoring a currently active
RPC call to a database command.
- isOrphan() - 类 中的方法org.apache.hadoop.hbase.master.SplitLogManager.Task
-
- isOwned(ServerName) - 类 中的方法org.apache.hadoop.hbase.SplitLogTask
-
- isOwned() - 类 中的方法org.apache.hadoop.hbase.SplitLogTask
-
- isPeerEnabled() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.HBaseInterClusterReplicationEndpoint
-
- isPeerEnabled() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSource
-
check whether the peer is enabled or not
- isPersistent() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.ByteBufferIOEngine
-
Memory IO engine is always unable to support persistent storage for the
cache
- isPersistent() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.FileIOEngine
-
File IO engine is always able to support persistent storage for the cache
- isPersistent() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.bucket.IOEngine
-
- isPrimary() - 类 中的方法org.apache.hadoop.hbase.io.hfile.BlockCacheKey
-
- isPrimaryReplicaReader() - 类 中的方法org.apache.hadoop.hbase.io.hfile.AbstractHFileReader
-
- isPrimaryReplicaReader() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
- isPrimaryReplicaReader() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile.Reader
-
- isPrimaryReplicaStore() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- isPrimaryReplicaStore() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- isProcedureDone(RpcController, MasterProtos.IsProcedureDoneRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
Checks if the specified procedure is done.
- isProcedureDone(HBaseProtos.ProcedureDescription) - 类 中的方法org.apache.hadoop.hbase.master.snapshot.SnapshotManager
-
- isProcedureDone(HBaseProtos.ProcedureDescription) - 类 中的方法org.apache.hadoop.hbase.procedure.flush.MasterFlushTableProcedureManager
-
- isProcedureDone(HBaseProtos.ProcedureDescription) - 类 中的方法org.apache.hadoop.hbase.procedure.MasterProcedureManager
-
Check if the procedure is finished successfully
- isProcessingServer(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.DeadServer
-
- isPublishStatusInZk() - 类 中的方法org.apache.hadoop.hbase.coordination.ZkCloseRegionCoordination.ZkCloseRegionDetails
-
- isQuotaEnabled(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaUtil
-
Returns true if the support for quota is enabled
- isQuotaEnabled() - 类 中的方法org.apache.hadoop.hbase.quotas.RegionServerQuotaManager
-
- isQuotaInitialized() - 类 中的方法org.apache.hadoop.hbase.quotas.MasterQuotaManager
-
- isReaderRunning() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSourceWALReaderThread
-
- isReadFromSystemAuthUser() - 类 中的方法org.apache.hadoop.hbase.security.visibility.DefaultVisibilityLabelServiceImpl
-
- isReadOnly() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- isReadOnly() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- isReadOnly(HRegion) - 类 中的静态方法org.apache.hadoop.hbase.util.ServerRegionReplicaUtil
-
Returns whether this region replica can accept writes.
- isReadSuccess() - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.RegionTaskResult
-
- isReady() - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogWorkerCoordination
-
Check whether the log splitter is ready to supply tasks
- isReady() - 类 中的方法org.apache.hadoop.hbase.coordination.ZkSplitLogWorkerCoordination
-
- isReady() - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureScheduler.ProcedureEvent
-
- isRecoveredEdits(Path) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Checks if the given path is the one with 'recovered.edits' dir.
- isRecovering() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- isRecovering() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- isRecoverySupported() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableOutputCommitter
-
- isReference() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
- isReference() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
- isReference(Path) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
- isReference(String) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
- isReferencedInReads() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile.Reader
-
- isRegionInRegionStates(HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.master.RegionStates
-
- isRegionInServerManagerStates(HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
- isRegionInState(HRegionInfo, RegionState.State...) - 类 中的方法org.apache.hadoop.hbase.master.RegionStates
-
- isRegionInState(String, RegionState.State...) - 类 中的方法org.apache.hadoop.hbase.master.RegionStates
-
- isRegionInTransition(HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.master.RegionStates
-
- isRegionInTransition(String) - 类 中的方法org.apache.hadoop.hbase.master.RegionStates
-
- isRegionMarkedRecoveringInZK(ZooKeeperWatcher, String) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKSplitLog
-
check if /hbase/recovering-regions/<current region encoded name>
exists.
- isRegionOffline(HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.master.RegionStates
-
- isRegionOnline(HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.master.RegionStates
-
- isRegionReplicaReplicationEnabled(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.ServerRegionReplicaUtil
-
- isRegionReplicaStoreFileRefreshEnabled(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.ServerRegionReplicaUtil
-
- isRegionReplicaWaitForPrimaryFlushEnabled(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.ServerRegionReplicaUtil
-
- isRegionsInTransition() - 类 中的方法org.apache.hadoop.hbase.master.RegionStates
-
- isRegionStale(String, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.StorefileRefresherChore
-
- isRemote() - 异常错误 中的方法org.apache.hadoop.hbase.errorhandling.ForeignException
-
The cause of a ForeignException can be an exception that was generated on a local in process
thread, or a thread from a 'remote' separate process.
- isReplay() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WALEdit
-
- isReplaying() - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogManagerCoordination
-
- isReplaying() - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination
-
- isReplication(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.replication.regionserver.Replication
-
- isReplicationForBulkLoadDataEnabled(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.replication.regionserver.Replication
-
- isRescanNode(String) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKSplitLog
-
- isRescanNode(ZooKeeperWatcher, String) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKSplitLog
-
- isReservedFileInfoKey(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.HFile
-
Return true if the given file info key is reserved for internal use.
- isResigned(ServerName) - 类 中的方法org.apache.hadoop.hbase.SplitLogTask
-
- isResigned() - 类 中的方法org.apache.hadoop.hbase.SplitLogTask
-
- isRestoreDone(HBaseProtos.SnapshotDescription) - 类 中的方法org.apache.hadoop.hbase.master.snapshot.SnapshotManager
-
Returns the status of a restore operation.
- isRestoreSnapshotDone(RpcController, MasterProtos.IsRestoreSnapshotDoneRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
Returns the status of the requested snapshot restore/clone operation.
- isRetryImmediatelySupported() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcCallContext
-
- isRetryImmediatelySupported() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer.Call
-
- isRPCRunning() - 接口 中的方法org.apache.hadoop.hbase.monitoring.MonitoredRPCHandler
-
- isRPCRunning() - 类 中的方法org.apache.hadoop.hbase.monitoring.MonitoredRPCHandlerImpl
-
Indicates to the client whether this task is monitoring a currently active
RPC call.
- isRunning() - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureEnv
-
- isRunning() - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityReplicationEndpoint
-
- isSameHdfs(Configuration, FileSystem, FileSystem) - 类 中的静态方法org.apache.hadoop.hbase.util.FSHDFSUtils
-
- isSecure() - 类 中的方法org.apache.hadoop.hbase.http.HttpConfig
-
- isSecurityAvailable(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils
-
- isSeeked() - 类 中的方法org.apache.hadoop.hbase.io.hfile.AbstractHFileReader.Scanner
-
- isSeeked() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2.EncodedScannerV2
-
- isSeeked() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFileScanner
-
- isSequenceIdFile(Path) - 类 中的静态方法org.apache.hadoop.hbase.wal.WALSplitter
-
Is the given file a region open sequence id file.
- isServerCrashProcessingEnabled() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
ServerCrashProcessingEnabled is set false before completing assignMeta to prevent processing
of crashed servers.
- isServerCrashProcessingEnabled() - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
- isServerDead(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
Check if a server is known to be dead.
- isServerOnline(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
- isServerReachable(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
Check if a region server is reachable and has the expected start code
- isServerWithSameHostnamePortOnline(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
Check whether a server is online based on hostname and port
- isShowQueueDump(Configuration) - 类 中的方法org.apache.hadoop.hbase.monitoring.StateDumpServlet
-
- isSingleNode() - 接口 中的方法org.apache.hadoop.hbase.security.visibility.expression.ExpressionNode
-
- isSingleNode() - 类 中的方法org.apache.hadoop.hbase.security.visibility.expression.LeafExpressionNode
-
- isSingleNode() - 类 中的方法org.apache.hadoop.hbase.security.visibility.expression.NonLeafExpressionNode
-
- isSkipChecks() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck.HbckInfo
-
- isSnapshotCorrupted() - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotInfo.SnapshotStats
-
已过时。
- isSnapshotDone(RpcController, MasterProtos.IsSnapshotDoneRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
Checks if the specified snapshot is done.
- isSnapshotDone(HBaseProtos.SnapshotDescription) - 类 中的方法org.apache.hadoop.hbase.master.snapshot.SnapshotManager
-
Check if the specified snapshot is done
- isSnapshotOwner(HBaseProtos.SnapshotDescription, User) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils
-
Check if the user is this table snapshot's owner
- isSplitOrMergeEnabled(Admin.MasterSwitchType) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- isSplitOrMergeEnabled(RpcController, MasterProtos.IsSplitOrMergeEnabledRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- isSplitOrMergeEnabled(Admin.MasterSwitchType) - 类 中的方法org.apache.hadoop.hbase.zookeeper.SplitOrMergeTracker
-
- isSplittable() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- isSplitting() - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogManagerCoordination
-
- isSplitting() - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination
-
- isStarted() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer
-
- isStarted() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcServerInterface
-
- isStartingWithPath(Path, String) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Compare of path component.
- isStop() - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogWorkerCoordination
-
- isStop() - 类 中的方法org.apache.hadoop.hbase.coordination.ZkSplitLogWorkerCoordination
-
- isStopped() - 类 中的方法org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer
-
- isStopped() - 类 中的方法org.apache.hadoop.hbase.master.cleaner.BaseHFileCleanerDelegate
-
- isStopped() - 类 中的方法org.apache.hadoop.hbase.master.cleaner.TimeToLiveLogCleaner
-
- isStopped() - 类 中的方法org.apache.hadoop.hbase.master.snapshot.SnapshotFileCache
-
- isStopped() - 类 中的方法org.apache.hadoop.hbase.master.snapshot.SnapshotHFileCleaner
-
- isStopped() - 类 中的方法org.apache.hadoop.hbase.master.snapshot.SnapshotManager
-
- isStopped() - 类 中的方法org.apache.hadoop.hbase.procedure.flush.MasterFlushTableProcedureManager
-
- isStopped() - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaCache
-
- isStopped() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- isStopped() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer.MovedRegionsCleaner
-
- isStopped() - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.NoLimitThroughputController
-
- isStopped() - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.PressureAwareThroughputController
-
- isStopped() - 类 中的方法org.apache.hadoop.hbase.replication.master.ReplicationHFileCleaner
-
- isStopped() - 类 中的方法org.apache.hadoop.hbase.replication.master.ReplicationLogCleaner
-
- isStopping() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- isStopping() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
- isSubDirectoryOf(Path, Path) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils
-
Determines if the given workingDir is a subdirectory of the given "root directory"
- isTableAvailableAndInitialized(boolean) - 类 中的方法org.apache.hadoop.hbase.master.TableNamespaceManager
-
This method checks if the namespace table is assigned and then
tries to create its HTable.
- isTableInfoExists(TableName) - 类 中的方法org.apache.hadoop.hbase.util.FSTableDescriptors
-
Checks if a current table info file exists for the given table
- isTablePresent(TableName) - 接口 中的方法org.apache.hadoop.hbase.TableStateManager
-
Checks if table is present.
- isTablePresent(TableName) - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKTableStateManager
-
check if table is present.
- isTableState(TableName, ZooKeeperProtos.Table.State...) - 接口 中的方法org.apache.hadoop.hbase.TableStateManager
-
- isTableState(TableName, boolean, ZooKeeperProtos.Table.State...) - 接口 中的方法org.apache.hadoop.hbase.TableStateManager
-
- isTableState(TableName, ZooKeeperProtos.Table.State...) - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKTableStateManager
-
Checks if table is marked in specified state in ZK (using cache only).
- isTableState(TableName, boolean, ZooKeeperProtos.Table.State...) - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKTableStateManager
-
Checks if table is marked in specified state in ZK.
- isTagsPresent() - 类 中的方法org.apache.hadoop.hbase.regionserver.MemStoreSnapshot
-
- isTakingAnySnapshot() - 类 中的方法org.apache.hadoop.hbase.master.snapshot.SnapshotManager
-
The snapshot operation processing as following:
1.
- isTaskPath(ZooKeeperWatcher, String) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKSplitLog
-
- isTEST_FORCE_REFRESH() - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaCache
-
- isTop() - 类 中的方法org.apache.hadoop.hbase.io.HalfStoreFileReader
-
- isTopFileRegion(Reference.Range) - 类 中的静态方法org.apache.hadoop.hbase.io.Reference
-
- isTopReference() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
- isTrackingMetrics() - 类 中的方法org.apache.hadoop.hbase.regionserver.ScannerContext
-
- isUnassigned() - 类 中的方法org.apache.hadoop.hbase.master.SplitLogManager.Task
-
- isUnassigned(ServerName) - 类 中的方法org.apache.hadoop.hbase.SplitLogTask
-
- isUnassigned() - 类 中的方法org.apache.hadoop.hbase.SplitLogTask
-
- isUninstantiated() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketAllocator.Bucket
-
- isUnpacked() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlock
-
Return true when this block's buffer has been unpacked, false otherwise.
- isUsecache() - 类 中的方法org.apache.hadoop.hbase.util.FSTableDescriptors
-
- isUserScan() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.CompactionScanQueryMatcher
-
- isUserScan() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.LegacyScanQueryMatcher
-
已过时。
- isUserScan() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
- isUserScan() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.UserScanQueryMatcher
-
- isUsingL0Flush() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreConfig
-
- isValid(FileStatus) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
Return if the specified file is a valid store file or not.
- isValidName(String) - 类 中的方法org.apache.hadoop.hbase.util.FSUtils.BlackListDirFilter
-
- isValidName(String) - 类 中的方法org.apache.hadoop.hbase.util.FSUtils.UserTableDirFilter
-
- isValidProtocol(String) - 类 中的静态方法org.apache.hadoop.hbase.http.log.LogLevel
-
- isValidState(ScannerContext.NextState) - 枚举 中的静态方法org.apache.hadoop.hbase.regionserver.ScannerContext.NextState
-
- isVisibilityTagsPresent(Cell) - 类 中的静态方法org.apache.hadoop.hbase.security.visibility.VisibilityUtils
-
- isWithinDefaultWorkingDir(Path, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils
-
Determines if the given workingDir is a subdirectory of the default working snapshot directory
- isWriteSuccess() - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.RegionTaskResult
-
- isYieldBeforeExecuteFromState(MasterProcedureEnv, MasterProcedureProtos.ServerCrashState) - 类 中的方法org.apache.hadoop.hbase.master.procedure.ServerCrashProcedure
-
For this procedure, yield at end of each successful flow step so that all crashed servers
can make progress rather than do the default which has each procedure running to completion
before we move to the next.
- iterator() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.BlockCache
-
- iterator() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketCache
-
- iterator() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache
-
- iterator() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
- iterator() - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- iterator() - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSkipListSet
-
- iterator() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.WALEntryStream
-
- iterator() - 类 中的方法org.apache.hadoop.hbase.util.BoundedPriorityBlockingQueue
-
- iterator() - 类 中的方法org.apache.hadoop.hbase.util.SortedCopyOnWriteSet
-
- iterator() - 类 中的方法org.apache.hadoop.hbase.util.SortedList
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.http.HtmlQuoting
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.http.log.LogLevel
-
A command line implementation
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.HFile
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.HFilePrettyPrinter
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.LocalHBaseCluster
-
Test things basically work.
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapred.Driver
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapred.RowCounter
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.CellCounter
-
Main entry point.
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.CopyTable
-
Main entry point.
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.Driver
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.Export
-
Main entry point.
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.HashTable
-
Main entry point.
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.Import
-
Main entry point.
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.ImportTsv
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.LoadIncrementalHFiles
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.replication.VerifyReplication
-
Main entry point.
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.RowCounter
-
Main entry point.
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.SyncTable
-
Main entry point.
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.WALPlayer
-
Main entry point.
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.master.HMaster
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.master.RegionPlacementMaintainer
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.migration.UpgradeTo96
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.CompactionTool
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.DefaultMemStore
-
Code to help figure if our approximation of object heap sizes is close
enough.
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HRegion
-
Facility for dumping and compacting catalog tables.
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.ShutdownHook
-
Main to test basic functionality.
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.wal.Compressor
-
Command line tool to compress and uncompress WALs.
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
Pass one or more log file names and it will either dump out a text version
on stdout or split the specified log files.
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.wal.HLogPrettyPrinter
-
已过时。
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.replication.master.TableCFsUpdater
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.replication.regionserver.DumpReplicationQueues
-
Main
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSyncUp
-
Main program
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.CreateSnapshot
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.ExportSnapshot
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotInfo
-
已过时。
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.tool.CanaryTool
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.util.CompressionTest
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.util.GetJavaProperty
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.util.HBaseConfTool
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.util.HBaseFsck
-
Main program
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.util.hbck.OfflineMetaRepair
-
Main program
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.util.HFileV1Detector
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.util.JSONBean
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.util.JvmPauseMonitor
-
Simple 'main' to facilitate manual testing of the pause monitor.
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.util.MapreduceDependencyClasspathTool
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.util.Merge
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.util.RegionSplitter
-
The main function for the RegionSplitter application.
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.util.ZKDataMigrator
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.wal.WALPrettyPrinter
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKServerTool
-
Run the tool.
- main(String[]) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZooKeeperMainServer
-
Run the tool.
- MAJOR_COMPACTION_DROP_CACHE - 类 中的静态变量org.apache.hadoop.hbase.regionserver.compactions.Compactor
-
- MAJOR_COMPACTION_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.StoreFile
-
Major compaction flag in FileInfo
- MajorCompactionScanQueryMatcher - org.apache.hadoop.hbase.regionserver.querymatcher中的类
-
Query matcher for major compaction.
- MajorCompactionScanQueryMatcher(ScanInfo, DeleteTracker, long, long, long, long) - 类 的构造器org.apache.hadoop.hbase.regionserver.querymatcher.MajorCompactionScanQueryMatcher
-
- majorRangeFromRow - 类 中的变量org.apache.hadoop.hbase.regionserver.compactions.StripeCompactionPolicy.StripeCompactionRequest
-
- majorRangeToRow - 类 中的变量org.apache.hadoop.hbase.regionserver.compactions.StripeCompactionPolicy.StripeCompactionRequest
-
- makeImplData() - 类 中的方法org.apache.hadoop.hbase.tmpl.common.TaskMonitorTmpl
-
- makeImplData() - 类 中的方法org.apache.hadoop.hbase.tmpl.master.AssignmentManagerStatusTmpl
-
- makeImplData() - 类 中的方法org.apache.hadoop.hbase.tmpl.master.BackupMasterStatusTmpl
-
- makeImplData() - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl
-
- makeImplData() - 类 中的方法org.apache.hadoop.hbase.tmpl.master.RegionServerListTmpl
-
- makeImplData() - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.BlockCacheTmpl
-
- makeImplData() - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.BlockCacheViewTmpl
-
- makeImplData() - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.RegionListTmpl
-
- makeImplData() - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.RSStatusTmpl
-
- makeImplData() - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.ServerMetricsTmpl
-
- makeNamespaceDirs() - 类 中的方法org.apache.hadoop.hbase.migration.NamespaceUpgrade
-
Create the system and default namespaces dirs
- makeRenderer() - 类 中的方法org.apache.hadoop.hbase.tmpl.common.TaskMonitorTmpl
-
- makeRenderer(AssignmentManager) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.AssignmentManagerStatusTmpl
-
- makeRenderer(HMaster) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.BackupMasterStatusTmpl
-
- makeRenderer(HMaster) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl
-
- makeRenderer(HMaster) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.RegionServerListTmpl
-
- makeRenderer(CacheConfig, Configuration) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.BlockCacheTmpl
-
- makeRenderer(CacheConfig, Configuration, String, String) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.BlockCacheViewTmpl
-
- makeRenderer(HRegionServer, List<HRegionInfo>) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.RegionListTmpl
-
- makeRenderer(HRegionServer) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.RSStatusTmpl
-
- makeRenderer(MetricsRegionServerWrapper, MetricsHBaseServerWrapper) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.ServerMetricsTmpl
-
- ManualEnvironmentEdge - org.apache.hadoop.hbase.util中的类
-
An environment edge that uses a manually set value.
- ManualEnvironmentEdge() - 类 的构造器org.apache.hadoop.hbase.util.ManualEnvironmentEdge
-
- map(ImmutableBytesWritable, Result, OutputCollector<ImmutableBytesWritable, Result>, Reporter) - 类 中的方法org.apache.hadoop.hbase.mapred.GroupingTableMap
-
Extract the grouping columns from value to construct a new key.
- map(ImmutableBytesWritable, Result, OutputCollector<ImmutableBytesWritable, Result>, Reporter) - 类 中的方法org.apache.hadoop.hbase.mapred.IdentityTableMap
-
Pass the key, value to reduce
- map(ImmutableBytesWritable, Result, Mapper<ImmutableBytesWritable, Result, ImmutableBytesWritable, Result>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.GroupingTableMapper
-
Extract the grouping columns from value to construct a new key.
- map(ImmutableBytesWritable, Result, Mapper<ImmutableBytesWritable, Result, ImmutableBytesWritable, ImmutableBytesWritable>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.HashTable.HashMapper
-
- map(ImmutableBytesWritable, Result, Mapper<ImmutableBytesWritable, Result, ImmutableBytesWritable, Result>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.IdentityTableMapper
-
Pass the key, value to reduce.
- map(ImmutableBytesWritable, Result, Mapper<ImmutableBytesWritable, Result, ImmutableBytesWritable, Mutation>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.Import.Importer
-
- map(ImmutableBytesWritable, Result, Mapper<ImmutableBytesWritable, Result, ImmutableBytesWritable, KeyValue>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.Import.KeyValueImporter
-
- map(ImmutableBytesWritable, Result, Mapper<ImmutableBytesWritable, Result, Import.KeyValueWritableComparable, KeyValue>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.Import.KeyValueSortImporter
-
- map(ImmutableBytesWritable, Result, Mapper<ImmutableBytesWritable, Result, ImmutableBytesWritable, Put>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.replication.VerifyReplication.Verifier
-
Map method that compares every scanned row with the equivalent from
a distant cluster.
- map(ImmutableBytesWritable, Result, Mapper<ImmutableBytesWritable, Result, ImmutableBytesWritable, Mutation>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.SyncTable.SyncMapper
-
- map(LongWritable, Text, Mapper<LongWritable, Text, ImmutableBytesWritable, Put>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TsvImporterMapper
-
Convert a line of TSV text into an HBase table row.
- map(LongWritable, Text, Mapper<LongWritable, Text, ImmutableBytesWritable, Text>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TsvImporterTextMapper
-
Convert a line of TSV text into an HBase table row.
- map(WALKey, WALEdit, Mapper<WALKey, WALEdit, ImmutableBytesWritable, Mutation>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.WALPlayer.WALMapper
-
- MAPPER_CLASS - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.MultithreadedTableMapper
-
- MAPPER_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.ImportTsv
-
- MAPREDUCE_INPUT_AUTOBALANCE - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
Specify if we enable auto-balance to set number of mappers in M/R jobs.
- MapreduceDependencyClasspathTool - org.apache.hadoop.hbase.util中的类
-
Generate a classpath string containing any jars required by mapreduce jobs.
- MapreduceDependencyClasspathTool() - 类 的构造器org.apache.hadoop.hbase.util.MapreduceDependencyClasspathTool
-
- markCompactedAway() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
Marks the status of the file as compactedAway.
- markComplete(String) - 类 中的方法org.apache.hadoop.hbase.monitoring.MonitoredRPCHandlerImpl
-
- markComplete(String) - 接口 中的方法org.apache.hadoop.hbase.monitoring.MonitoredTask
-
- markCorrupted(Path, String, FileSystem) - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogWorkerCoordination
-
marks log file as corrupted
- markCorrupted(Path, String, FileSystem) - 类 中的方法org.apache.hadoop.hbase.coordination.ZkSplitLogWorkerCoordination
-
- markCorrupted(Path, String, FileSystem) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKSplitLog
-
- markRegionsOffline(MasterProcedureEnv, TableName, Boolean) - 类 中的静态方法org.apache.hadoop.hbase.master.procedure.DisableTableProcedure
-
Mark regions of the table offline with retries
- markRegionsOnline(MasterProcedureEnv, TableName, Boolean) - 类 中的静态方法org.apache.hadoop.hbase.master.procedure.EnableTableProcedure
-
Mark offline regions of the table online with retry
- markRegionsRecovering(ServerName, Set<HRegionInfo>) - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogManagerCoordination
-
Mark regions in recovering state for distributed log replay
- markRegionsRecovering(ServerName, Set<HRegionInfo>) - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination
-
Create znodes /hbase/recovering-regions/[region_ids...]
- markRegionsRecovering(ServerName, Set<HRegionInfo>) - 类 中的方法org.apache.hadoop.hbase.master.SplitLogManager
-
- markTableAsDeleted(TableName) - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureScheduler
-
Tries to remove the queue and the table-lock of the specified table.
- MASTER - 类 中的静态变量org.apache.hadoop.hbase.master.HMaster
-
- master - 类 中的变量org.apache.hadoop.hbase.master.snapshot.TakeSnapshotHandler
-
- MASTER_COPROCESSOR_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.coprocessor.CoprocessorHost
-
- MASTER_HFILE_CLEANER_PLUGINS - 类 中的静态变量org.apache.hadoop.hbase.master.cleaner.HFileCleaner
-
- MASTER_HOSTNAME_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
- master_jsp - org.apache.hadoop.hbase.generated.master中的类
-
- master_jsp() - 类 的构造器org.apache.hadoop.hbase.generated.master.master_jsp
-
- MASTER_PROCEDURE_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.procedure.ProcedureManagerHost
-
- MASTER_PROCEDURE_LOGDIR - 类 中的静态变量org.apache.hadoop.hbase.master.procedure.MasterProcedureConstants
-
Used to construct the name of the log directory for master procedures
- MASTER_PROCEDURE_THREADS - 类 中的静态变量org.apache.hadoop.hbase.master.procedure.MasterProcedureConstants
-
Number of threads used by the procedure executor
- MASTER_SNAPSHOT_TIMEOUT_MILLIS - 类 中的静态变量org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils
-
- MasterAnnotationReadingPriorityFunction - org.apache.hadoop.hbase.master中的类
-
Priority function specifically for the master.
- MasterAnnotationReadingPriorityFunction(RSRpcServices) - 类 的构造器org.apache.hadoop.hbase.master.MasterAnnotationReadingPriorityFunction
-
- MasterAnnotationReadingPriorityFunction(RSRpcServices, Class<? extends RSRpcServices>) - 类 的构造器org.apache.hadoop.hbase.master.MasterAnnotationReadingPriorityFunction
-
- MasterCoprocessorEnvironment - org.apache.hadoop.hbase.coprocessor中的接口
-
- MasterCoprocessorHost - org.apache.hadoop.hbase.master中的类
-
Provides the coprocessor framework and environment for master oriented
operations.
- MasterCoprocessorHost(MasterServices, Configuration) - 类 的构造器org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- MasterDDLOperationHelper - org.apache.hadoop.hbase.master.procedure中的类
-
Helper class for schema change procedures
- MasterDumpServlet - org.apache.hadoop.hbase.master中的类
-
- MasterDumpServlet() - 类 的构造器org.apache.hadoop.hbase.master.MasterDumpServlet
-
- MasterFileSystem - org.apache.hadoop.hbase.master中的类
-
This class abstracts a bunch of operations the HMaster needs to interact with
the underlying file system, including splitting log files, checking file
system status, etc.
- MasterFileSystem(Server, MasterServices) - 类 的构造器org.apache.hadoop.hbase.master.MasterFileSystem
-
- MasterFlushTableProcedureManager - org.apache.hadoop.hbase.procedure.flush中的类
-
- MasterFlushTableProcedureManager() - 类 的构造器org.apache.hadoop.hbase.procedure.flush.MasterFlushTableProcedureManager
-
- MasterMaintenanceModeTracker - org.apache.hadoop.hbase.zookeeper中的类
-
Tracks the master Maintenance Mode via ZK.
- MasterMaintenanceModeTracker(ZooKeeperWatcher) - 类 的构造器org.apache.hadoop.hbase.zookeeper.MasterMaintenanceModeTracker
-
- MasterObserver - org.apache.hadoop.hbase.coprocessor中的接口
-
Defines coprocessor hooks for interacting with operations on the
HMaster process.
- MasterProcedureConstants - org.apache.hadoop.hbase.master.procedure中的类
-
- MasterProcedureEnv - org.apache.hadoop.hbase.master.procedure中的类
-
- MasterProcedureEnv(MasterServices) - 类 的构造器org.apache.hadoop.hbase.master.procedure.MasterProcedureEnv
-
- MasterProcedureEnv.MasterProcedureStoreListener - org.apache.hadoop.hbase.master.procedure中的类
-
- MasterProcedureEnv.MasterProcedureStoreListener(HMaster) - 类 的构造器org.apache.hadoop.hbase.master.procedure.MasterProcedureEnv.MasterProcedureStoreListener
-
- MasterProcedureEnv.WALStoreLeaseRecovery - org.apache.hadoop.hbase.master.procedure中的类
-
- MasterProcedureEnv.WALStoreLeaseRecovery(HMaster) - 类 的构造器org.apache.hadoop.hbase.master.procedure.MasterProcedureEnv.WALStoreLeaseRecovery
-
- MasterProcedureManager - org.apache.hadoop.hbase.procedure中的类
-
A life-cycle management interface for globally barriered procedures on master.
- MasterProcedureManager() - 类 的构造器org.apache.hadoop.hbase.procedure.MasterProcedureManager
-
- MasterProcedureManagerHost - org.apache.hadoop.hbase.procedure中的类
-
Provides the globally barriered procedure framework and environment for
master oriented operations.
- MasterProcedureManagerHost() - 类 的构造器org.apache.hadoop.hbase.procedure.MasterProcedureManagerHost
-
- MasterProcedureScheduler - org.apache.hadoop.hbase.master.procedure中的类
-
ProcedureRunnableSet for the Master Procedures.
- MasterProcedureScheduler(Configuration, TableLockManager) - 类 的构造器org.apache.hadoop.hbase.master.procedure.MasterProcedureScheduler
-
- MasterProcedureScheduler.ProcedureEvent - org.apache.hadoop.hbase.master.procedure中的类
-
- MasterProcedureScheduler.ProcedureEvent(String) - 类 的构造器org.apache.hadoop.hbase.master.procedure.MasterProcedureScheduler.ProcedureEvent
-
- MasterProcedureScheduler.ServerQueue - org.apache.hadoop.hbase.master.procedure中的类
-
- MasterProcedureScheduler.ServerQueue(ServerName) - 类 的构造器org.apache.hadoop.hbase.master.procedure.MasterProcedureScheduler.ServerQueue
-
- MasterProcedureScheduler.TableQueue - org.apache.hadoop.hbase.master.procedure中的类
-
- MasterProcedureScheduler.TableQueue(TableName, MasterProcedureScheduler.NamespaceQueue, int) - 类 的构造器org.apache.hadoop.hbase.master.procedure.MasterProcedureScheduler.TableQueue
-
- MasterProcedureUtil - org.apache.hadoop.hbase.master.procedure中的类
-
- MasterProcedureUtil.NonceProcedureRunnable - org.apache.hadoop.hbase.master.procedure中的类
-
Helper Runnable used in conjunction with submitProcedure() to deal with
submitting procs with nonce.
- MasterProcedureUtil.NonceProcedureRunnable(MasterServices, long, long) - 类 的构造器org.apache.hadoop.hbase.master.procedure.MasterProcedureUtil.NonceProcedureRunnable
-
- MasterQuotaManager - org.apache.hadoop.hbase.quotas中的类
-
Master Quota Manager.
- MasterQuotaManager(MasterServices) - 类 的构造器org.apache.hadoop.hbase.quotas.MasterQuotaManager
-
- MasterRpcServices - org.apache.hadoop.hbase.master中的类
-
Implements the master RPC services.
- MasterRpcServices(HMaster) - 类 的构造器org.apache.hadoop.hbase.master.MasterRpcServices
-
- masterServerName - 类 中的变量org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer
-
- masterServices - 类 中的变量org.apache.hadoop.hbase.master.handler.TableEventHandler
-
- MasterServices - org.apache.hadoop.hbase.master中的接口
-
Services Master supplies
- MasterSnapshotVerifier - org.apache.hadoop.hbase.master.snapshot中的类
-
General snapshot verification on the master.
- MasterSnapshotVerifier(MasterServices, HBaseProtos.SnapshotDescription, FileSystem) - 类 的构造器org.apache.hadoop.hbase.master.snapshot.MasterSnapshotVerifier
-
- MasterStatusServlet - org.apache.hadoop.hbase.master中的类
-
The servlet responsible for rendering the index page of the
master.
- MasterStatusServlet() - 类 的构造器org.apache.hadoop.hbase.master.MasterStatusServlet
-
- MasterStatusTmpl - org.apache.hadoop.hbase.tmpl.master中的类
-
- MasterStatusTmpl(TemplateManager) - 类 的构造器org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl
-
- MasterStatusTmpl(String) - 类 的构造器org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl
-
- MasterStatusTmpl() - 类 的构造器org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl
-
- MasterStatusTmpl.ImplData - org.apache.hadoop.hbase.tmpl.master中的类
-
- MasterStatusTmpl.ImplData() - 类 的构造器org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl.ImplData
-
- MasterStatusTmpl.Intf - org.apache.hadoop.hbase.tmpl.master中的接口
-
- MasterStatusTmplImpl - org.apache.hadoop.hbase.tmpl.master中的类
-
- MasterStatusTmplImpl(TemplateManager, MasterStatusTmpl.ImplData) - 类 的构造器org.apache.hadoop.hbase.tmpl.master.MasterStatusTmplImpl
-
- match(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.LegacyScanQueryMatcher
-
已过时。
- match(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.MajorCompactionScanQueryMatcher
-
- match(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.MinorCompactionScanQueryMatcher
-
- match(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.NormalUserScanQueryMatcher
-
- match(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.RawScanQueryMatcher
-
- match(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
Determines if the caller should do one of several things:
seek/skip to the next row (MatchCode.SEEK_NEXT_ROW)
seek/skip to the next column (MatchCode.SEEK_NEXT_COL)
include the current KeyValue (MatchCode.INCLUDE)
ignore the current KeyValue (MatchCode.SKIP)
got to the next row (MatchCode.DONE)
- match(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.StripeCompactionScanQueryMatcher
-
- matchColumn(Cell, long, byte) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.UserScanQueryMatcher
-
- matcher - 类 中的变量org.apache.hadoop.hbase.regionserver.StoreScanner
-
- matchPermission(User, TableName, byte[], Permission.Action) - 类 中的方法org.apache.hadoop.hbase.security.access.TableAuthManager
-
Returns true if the given user has a
TablePermission matching up
to the column family portion of a permission.
- matchPermission(User, TableName, byte[], byte[], Permission.Action) - 类 中的方法org.apache.hadoop.hbase.security.access.TableAuthManager
-
- matchVisibility(List<Tag>, Byte, List<Tag>, Byte) - 类 中的方法org.apache.hadoop.hbase.security.visibility.DefaultVisibilityLabelServiceImpl
-
- matchVisibility(List<Tag>, Byte, List<Tag>, Byte) - 接口 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityLabelService
-
System uses this for deciding whether a Cell can be deleted by matching visibility expression
in Delete mutation and the cell in consideration.
- MAX_AVERAGE_REGION_SIZE - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
In auto-balance, we split input by ave region size, if calculated region size is too big, we can set it.
- MAX_CHUNK_SIZE_KEY - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.HFileBlockIndex
-
The maximum size guideline for index blocks (both leaf, intermediate, and
root).
- MAX_FILES_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.StripeStoreConfig
-
The maximum number of files to compact within a stripe; same as for regular compaction.
- MAX_FILES_PER_REGION_PER_FAMILY - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.LoadIncrementalHFiles
-
- MAX_FLUSH_PER_CHANGES - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HRegion
-
The following MAX_FLUSH_PER_CHANGES is large enough because each KeyValue has 20+ bytes
overhead.
- MAX_FORMAT_VERSION - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.HFile
-
Maximum supported HFile format version
- MAX_MEMSTORE_TS_KEY - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.HFileWriterV2
-
Max memstore (mvcc) timestamp in FileInfo
- MAX_MINOR_VERSION - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.HFileReaderV3
-
- MAX_REGION_SPLIT_IMBALANCE_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.StripeStoreConfig
-
When splitting region, the maximum size imbalance to allow in an attempt to split at a
stripe boundary, so that no files go to both regions.
- MAX_REQUEST_SIZE - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcServer
-
- MAX_RUNNING_TIME_KEY - 类 中的静态变量org.apache.hadoop.hbase.master.balancer.StochasticLoadBalancer
-
- MAX_SEQ_ID_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.StoreFile
-
Max Sequence ID in FileInfo
- MAX_SERVER_PER_MESSAGE - 类 中的静态变量org.apache.hadoop.hbase.master.ClusterStatusPublisher
-
We want to limit the size of the protobuf message sent, do fit into a single packet.
- MAX_STEPS_KEY - 类 中的静态变量org.apache.hadoop.hbase.master.balancer.StochasticLoadBalancer
-
- MAX_TAGS_LEN - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.HFile.FileInfo
-
- MAX_TASKS_KEY - 类 中的静态变量org.apache.hadoop.hbase.monitoring.TaskMonitor
-
- MAX_TIER_AGE_MILLIS_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.compactions.ExponentialCompactionWindowFactory
-
- maxIdleTime - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer
-
- MAXIMUM_KEY_LENGTH - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.HFile
-
Maximum length of key in HFile.
- maxKeyCount - 类 中的变量org.apache.hadoop.hbase.regionserver.compactions.Compactor.FileDetails
-
Maximum key count after compaction (for blooms)
- maxKeys - 类 中的变量org.apache.hadoop.hbase.util.ByteBloomFilter
-
Max Keys expected for the bloom
- maxMemstoreTS - 类 中的变量org.apache.hadoop.hbase.io.hfile.HFileWriterV2
-
- maxMVCCReadpoint - 类 中的变量org.apache.hadoop.hbase.regionserver.compactions.Compactor.FileDetails
-
Latest memstore read point found in any of the involved files
- maxReadPointToTrackVersions - 类 中的变量org.apache.hadoop.hbase.regionserver.querymatcher.CompactionScanQueryMatcher
-
readPoint over which the KVs are unconditionally included
- maxRowSize - 类 中的变量org.apache.hadoop.hbase.regionserver.StoreScanner
-
- maxSeqId - 类 中的变量org.apache.hadoop.hbase.regionserver.compactions.Compactor.FileDetails
-
The last key in the files we're compacting.
- maxTagsLength - 类 中的变量org.apache.hadoop.hbase.regionserver.compactions.Compactor.FileDetails
-
Max tags length
- maxThroughputLowerBound - 类 中的变量org.apache.hadoop.hbase.regionserver.throttle.PressureAwareThroughputController
-
- maxThroughputUpperBound - 类 中的变量org.apache.hadoop.hbase.regionserver.throttle.PressureAwareThroughputController
-
- mBeanServer - 类 中的变量org.apache.hadoop.hbase.http.jmx.JMXJsonServlet
-
MBean server.
- MBeanUtil - org.apache.hadoop.hbase.util中的类
-
- MBeanUtil() - 类 的构造器org.apache.hadoop.hbase.util.MBeanUtil
-
- md - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer.Call
-
- member - 类 中的变量org.apache.hadoop.hbase.procedure.ZKProcedureMemberRpcs
-
- MemoryBoundedLogMessageBuffer - org.apache.hadoop.hbase.monitoring中的类
-
A size-bounded repository of alerts, which are kept
in a linked list.
- MemoryBoundedLogMessageBuffer(long) - 类 的构造器org.apache.hadoop.hbase.monitoring.MemoryBoundedLogMessageBuffer
-
- memstore - 类 中的变量org.apache.hadoop.hbase.regionserver.HStore
-
- MemStore - org.apache.hadoop.hbase.regionserver中的接口
-
The MemStore holds in-memory modifications to the Store.
- MEMSTORE_FLUSH_PER_CHANGES - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HRegion
-
Conf key to force a flush if there are already enough changes for one region in memstore
- MEMSTORE_PERIODIC_FLUSH_INTERVAL - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HRegion
-
Conf key for the periodic flush interval
- MEMSTORE_SIZE_MAX_RANGE_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HeapMemoryManager
-
- MEMSTORE_SIZE_MIN_RANGE_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HeapMemoryManager
-
- MemStoreChunkPool - org.apache.hadoop.hbase.regionserver中的类
-
- MemStoreLAB - org.apache.hadoop.hbase.regionserver中的接口
-
A memstore-local allocation buffer.
- MemStoreSnapshot - org.apache.hadoop.hbase.regionserver中的类
-
Holds details of the snapshot taken on a MemStore.
- MemStoreSnapshot(long, int, long, TimeRangeTracker, KeyValueScanner, boolean) - 类 的构造器org.apache.hadoop.hbase.regionserver.MemStoreSnapshot
-
- merge(HRegion, HRegion) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HRegion
-
Merge two regions whether they are adjacent or not.
- Merge - org.apache.hadoop.hbase.util中的类
-
Utility that can merge any two regions in the same table: adjacent,
overlapping or disjoint.
- Merge() - 类 的构造器org.apache.hadoop.hbase.util.Merge
-
default constructor
- Merge(Configuration) - 类 的构造器org.apache.hadoop.hbase.util.Merge
-
- MERGE_THREADS - 类 中的静态变量org.apache.hadoop.hbase.regionserver.CompactSplitThread
-
- MERGE_THREADS_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.regionserver.CompactSplitThread
-
- MERGE_TRANSACTION_IMPL_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.RegionMergeTransactionFactory
-
- mergeAdjacent(HRegion, HRegion) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HRegion
-
Merge two HRegions.
- MergeNormalizationPlan - org.apache.hadoop.hbase.master.normalizer中的类
-
Normalization plan to merge regions (smallest region in the table with its smallest neighbor).
- MergeNormalizationPlan(HRegionInfo, HRegionInfo) - 类 的构造器org.apache.hadoop.hbase.master.normalizer.MergeNormalizationPlan
-
- mergeRegionDirs(Path, HBaseFsck.HbckInfo) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
Merge hdfs data by moving from contained HbckInfo into targetRegionDir.
- mergeRegions(RpcController, AdminProtos.MergeRegionsRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
Merge regions on the region server.
- MessageCodec - org.apache.hadoop.hbase.codec中的类
-
Codec that just writes out Cell as a protobuf Cell Message.
- MessageCodec() - 类 的构造器org.apache.hadoop.hbase.codec.MessageCodec
-
- meta - 类 中的变量org.apache.hadoop.hbase.io.hfile.HFileReaderV2.EncodedScannerV2
-
- META_REPLICA_ID_DELIMITER - 类 中的静态变量org.apache.hadoop.hbase.master.RegionStateStore
-
The delimiter for meta columns for replicaIds > 0
- META_WAL_PROVIDER_ID - 类 中的静态变量org.apache.hadoop.hbase.wal.DefaultWALProvider
-
The hbase:meta region's WAL filename extension
- metaBlockIndexReader - 类 中的变量org.apache.hadoop.hbase.io.hfile.AbstractHFileReader
-
Meta block index reader -- always single level
- metaData - 类 中的变量org.apache.hadoop.hbase.io.hfile.AbstractHFileWriter
-
Writables representing meta block data.
- metadata - 类 中的变量org.apache.hadoop.hbase.zookeeper.lock.ZKInterProcessLockBase
-
- METAFAMILY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.wal.WALEdit
-
- metaLocation - 类 中的变量org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl
-
- MetaMigrationConvertingToPB - org.apache.hadoop.hbase中的类
-
已过时。
will be removed for the major release after 0.96.
- MetaMigrationConvertingToPB() - 类 的构造器org.apache.hadoop.hbase.MetaMigrationConvertingToPB
-
已过时。
- metaNames - 类 中的变量org.apache.hadoop.hbase.io.hfile.AbstractHFileWriter
-
Meta block names.
- metaRegionExists(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Checks if meta region exists
- METAROW - 类 中的静态变量org.apache.hadoop.hbase.regionserver.wal.WALEdit
-
- metaTableLocator - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
- MetaTableMetrics - org.apache.hadoop.hbase.coprocessor中的类
-
A coprocessor that collects metrics from meta table.
- MetaTableMetrics() - 类 的构造器org.apache.hadoop.hbase.coprocessor.MetaTableMetrics
-
- MetaUtils - org.apache.hadoop.hbase.util中的类
-
Contains utility methods for manipulating HBase meta tables.
- MetaUtils() - 类 的构造器org.apache.hadoop.hbase.util.MetaUtils
-
Default constructor
- MetaUtils(Configuration) - 类 的构造器org.apache.hadoop.hbase.util.MetaUtils
-
- metrics - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer
-
- MetricsAssignmentManager - org.apache.hadoop.hbase.master中的类
-
- MetricsAssignmentManager() - 类 的构造器org.apache.hadoop.hbase.master.MetricsAssignmentManager
-
- metricsBalancer - 类 中的变量org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer
-
- MetricsBalancer - org.apache.hadoop.hbase.master.balancer中的类
-
Faced for exposing metrics about the balancer.
- MetricsBalancer() - 类 的构造器org.apache.hadoop.hbase.master.balancer.MetricsBalancer
-
- MetricsCoprocessor - org.apache.hadoop.hbase.coprocessor中的类
-
Utility class for tracking metrics for various types of coprocessors.
- MetricsCoprocessor() - 类 的构造器org.apache.hadoop.hbase.coprocessor.MetricsCoprocessor
-
- MetricsHBaseServer - org.apache.hadoop.hbase.ipc中的类
-
- MetricsHBaseServer(String, MetricsHBaseServerWrapper) - 类 的构造器org.apache.hadoop.hbase.ipc.MetricsHBaseServer
-
- MetricsHBaseServerWrapperImpl - org.apache.hadoop.hbase.ipc中的类
-
- MetricsIO - org.apache.hadoop.hbase.io中的类
-
- MetricsIO(MetricsIOWrapper) - 类 的构造器org.apache.hadoop.hbase.io.MetricsIO
-
- MetricsIOWrapperImpl - org.apache.hadoop.hbase.io中的类
-
- MetricsIOWrapperImpl() - 类 的构造器org.apache.hadoop.hbase.io.MetricsIOWrapperImpl
-
- MetricsMaster - org.apache.hadoop.hbase.master中的类
-
This class is for maintaining the various master statistics
and publishing them through the metrics interfaces.
- MetricsMaster(MetricsMasterWrapper) - 类 的构造器org.apache.hadoop.hbase.master.MetricsMaster
-
- MetricsMasterFileSystem - org.apache.hadoop.hbase.master中的类
-
- MetricsMasterFileSystem() - 类 的构造器org.apache.hadoop.hbase.master.MetricsMasterFileSystem
-
- MetricsMasterWrapperImpl - org.apache.hadoop.hbase.master中的类
-
Impl for exposing HMaster Information through JMX
- MetricsMasterWrapperImpl(HMaster) - 类 的构造器org.apache.hadoop.hbase.master.MetricsMasterWrapperImpl
-
- MetricsRegion - org.apache.hadoop.hbase.regionserver中的类
-
This is the glue between the HRegion and whatever hadoop shim layer
is loaded (hbase-hadoop1-compat or hbase-hadoop2-compat).
- MetricsRegion(MetricsRegionWrapper) - 类 的构造器org.apache.hadoop.hbase.regionserver.MetricsRegion
-
- MetricsRegionServer - org.apache.hadoop.hbase.regionserver中的类
-
This class is for maintaining the various regionserver statistics
and publishing them through the metrics interfaces.
- MetricsRegionServer(MetricsRegionServerWrapper, Configuration) - 类 的构造器org.apache.hadoop.hbase.regionserver.MetricsRegionServer
-
- MetricsRegionWrapperImpl - org.apache.hadoop.hbase.regionserver中的类
-
- MetricsRegionWrapperImpl(HRegion) - 类 的构造器org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- MetricsRegionWrapperImpl.HRegionMetricsWrapperRunnable - org.apache.hadoop.hbase.regionserver中的类
-
- MetricsRegionWrapperImpl.HRegionMetricsWrapperRunnable() - 类 的构造器org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl.HRegionMetricsWrapperRunnable
-
- MetricsSink - org.apache.hadoop.hbase.replication.regionserver中的类
-
This class is for maintaining the various replication statistics for a sink and publishing them
through the metrics interfaces.
- MetricsSink() - 类 的构造器org.apache.hadoop.hbase.replication.regionserver.MetricsSink
-
- MetricsSnapshot - org.apache.hadoop.hbase.master中的类
-
- MetricsSnapshot() - 类 的构造器org.apache.hadoop.hbase.master.MetricsSnapshot
-
- metricsSnapshot - 类 中的变量org.apache.hadoop.hbase.master.snapshot.TakeSnapshotHandler
-
- MetricsSource - org.apache.hadoop.hbase.replication.regionserver中的类
-
This class is for maintaining the various replication statistics for a source and publishing them
through the metrics interfaces.
- MetricsSource(String) - 类 的构造器org.apache.hadoop.hbase.replication.regionserver.MetricsSource
-
Constructor used to register the metrics
- MetricsSource(String, MetricsReplicationSourceSource, MetricsReplicationSourceSource, Map<String, MetricsReplicationSourceSource>) - 类 的构造器org.apache.hadoop.hbase.replication.regionserver.MetricsSource
-
Constructor for injecting custom (or test) MetricsReplicationSourceSources
- MetricsStochasticBalancer - org.apache.hadoop.hbase.master.balancer中的类
-
This metrics balancer uses extended source for stochastic load balancer
to report its related metrics to JMX.
- MetricsStochasticBalancer() - 类 的构造器org.apache.hadoop.hbase.master.balancer.MetricsStochasticBalancer
-
- MetricsTable - org.apache.hadoop.hbase.regionserver中的类
-
- MetricsTable(MetricsTableWrapperAggregate) - 类 的构造器org.apache.hadoop.hbase.regionserver.MetricsTable
-
- MetricsTableWrapperAggregateImpl - org.apache.hadoop.hbase.regionserver中的类
-
- MetricsTableWrapperAggregateImpl(HRegionServer) - 类 的构造器org.apache.hadoop.hbase.regionserver.MetricsTableWrapperAggregateImpl
-
- MetricsTableWrapperAggregateImpl.TableMetricsWrapperRunnable - org.apache.hadoop.hbase.regionserver中的类
-
- MetricsTableWrapperAggregateImpl.TableMetricsWrapperRunnable() - 类 的构造器org.apache.hadoop.hbase.regionserver.MetricsTableWrapperAggregateImpl.TableMetricsWrapperRunnable
-
- MetricsWAL - org.apache.hadoop.hbase.regionserver.wal中的类
-
Class used to push numbers about the WAL into the metrics subsystem.
- MetricsWAL() - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.MetricsWAL
-
- MetricsWALEditsReplay - org.apache.hadoop.hbase.regionserver.wal中的类
-
Class used to push numbers about WAL edits replay into the metrics subsystem.
- MetricsWALEditsReplay() - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.MetricsWALEditsReplay
-
- midkey() - 类 中的方法org.apache.hadoop.hbase.io.HalfStoreFileReader
-
- midkey() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
- midkey() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlockIndex.BlockIndexReader
-
An approximation to the
HFile's mid-key.
- midkey() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2
-
- midkey() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile.Reader
-
- migrateACL() - 类 中的方法org.apache.hadoop.hbase.migration.NamespaceUpgrade
-
- migrateDotDirs() - 类 中的方法org.apache.hadoop.hbase.migration.NamespaceUpgrade
-
Rename all the dot dirs -- .data, .archive, etc. -- as data, archive, etc.; i.e. minus the dot.
- migrateFSTableDescriptorsIfNecessary(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.FSTableDescriptorMigrationToSubdir
-
已过时。
- migrateMeta() - 类 中的方法org.apache.hadoop.hbase.migration.NamespaceUpgrade
-
- migrateSnapshots() - 类 中的方法org.apache.hadoop.hbase.migration.NamespaceUpgrade
-
- migrateTables() - 类 中的方法org.apache.hadoop.hbase.migration.NamespaceUpgrade
-
Migrate all tables into respective namespaces, either default or system.
- MIN_COST_NEED_BALANCE_KEY - 类 中的静态变量org.apache.hadoop.hbase.master.balancer.StochasticLoadBalancer
-
- MIN_FILES_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.StripeStoreConfig
-
The minimum number of files to compact within a stripe; same as for regular compaction.
- MIN_FILES_L0_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.StripeStoreConfig
-
The minimum number of files to compact when compacting L0; same as minFiles for regular
compaction.
- MIN_FORMAT_VERSION - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.HFile
-
Minimum supported HFile format version
- MIN_FORMAT_VERSION_WITH_TAGS - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.HFile
-
Minimum HFile format version with support for persisting cell tags
- MIN_INDEX_NUM_ENTRIES_KEY - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.HFileBlockIndex
-
Minimum number of entries in a single index block.
- MIN_NUM_HFILE_PATH_LEVELS - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.HFile
-
We assume that HFile path ends with
ROOT_DIR/TABLE_NAME/REGION_NAME/CF_NAME/HFILE, so it has at least this
many levels of nesting.
- MIN_SERVER_BALANCE - 类 中的静态变量org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer
-
- MIN_WAIT_TIME - 类 中的静态变量org.apache.hadoop.hbase.regionserver.Leases
-
- MiniBatchOperationInProgress<T> - org.apache.hadoop.hbase.regionserver中的类
-
Wraps together the mutations which are applied as a batch to the region and their operation
status and WALEdits.
- MiniBatchOperationInProgress(T[], OperationStatus[], WALEdit[], int, int) - 类 的构造器org.apache.hadoop.hbase.regionserver.MiniBatchOperationInProgress
-
- MiniZooKeeperCluster - org.apache.hadoop.hbase.zookeeper中的类
-
TODO: Most of the code in this class is ripped from ZooKeeper tests.
- MiniZooKeeperCluster() - 类 的构造器org.apache.hadoop.hbase.zookeeper.MiniZooKeeperCluster
-
- MiniZooKeeperCluster(Configuration) - 类 的构造器org.apache.hadoop.hbase.zookeeper.MiniZooKeeperCluster
-
- MINOR_COMPACTION_DROP_CACHE - 类 中的静态变量org.apache.hadoop.hbase.regionserver.compactions.Compactor
-
- MINOR_VERSION_NO_CHECKSUM - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.HFileReaderV2
-
In HFile V2 minor version that does not support checksums
- MINOR_VERSION_WITH_CHECKSUM - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.HFileReaderV2
-
Minor versions in HFile V2 starting with this number have hbase checksums
- MinorCompactionScanQueryMatcher - org.apache.hadoop.hbase.regionserver.querymatcher中的类
-
Query matcher for minor compaction.
- MinorCompactionScanQueryMatcher(ScanInfo, DeleteTracker, long, long, long) - 类 的构造器org.apache.hadoop.hbase.regionserver.querymatcher.MinorCompactionScanQueryMatcher
-
- minSeqIdToKeep - 类 中的变量org.apache.hadoop.hbase.regionserver.compactions.Compactor.FileDetails
-
Min SeqId to keep during a major compaction
- minVersions - 类 中的变量org.apache.hadoop.hbase.regionserver.StoreScanner
-
- miss(boolean, boolean, BlockType) - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- modifyColumn(TableName, HColumnDescriptor, long, long) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- modifyColumn(RpcController, MasterProtos.ModifyColumnRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- modifyColumn(TableName, HColumnDescriptor, long, long) - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
Modify the column descriptor of an existing column in an existing table
- ModifyColumnFamilyProcedure - org.apache.hadoop.hbase.master.procedure中的类
-
The procedure to modify a column family from an existing table.
- ModifyColumnFamilyProcedure() - 类 的构造器org.apache.hadoop.hbase.master.procedure.ModifyColumnFamilyProcedure
-
- ModifyColumnFamilyProcedure(MasterProcedureEnv, TableName, HColumnDescriptor) - 类 的构造器org.apache.hadoop.hbase.master.procedure.ModifyColumnFamilyProcedure
-
- modifyNamespace(NamespaceDescriptor, long, long) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- modifyNamespace(RpcController, MasterProtos.ModifyNamespaceRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- modifyNamespace(NamespaceDescriptor, long, long) - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
Modify an existing namespace
- ModifyNamespaceProcedure - org.apache.hadoop.hbase.master.procedure中的类
-
The procedure to add a namespace to an existing table.
- ModifyNamespaceProcedure() - 类 的构造器org.apache.hadoop.hbase.master.procedure.ModifyNamespaceProcedure
-
- ModifyNamespaceProcedure(MasterProcedureEnv, NamespaceDescriptor) - 类 的构造器org.apache.hadoop.hbase.master.procedure.ModifyNamespaceProcedure
-
- ModifyRegionUtils - org.apache.hadoop.hbase.util中的类
-
Utility methods for interacting with the regions.
- ModifyRegionUtils.RegionEditTask - org.apache.hadoop.hbase.util中的接口
-
- ModifyRegionUtils.RegionFillTask - org.apache.hadoop.hbase.util中的接口
-
- modifyTable(TableName, HTableDescriptor, long, long) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- modifyTable(RpcController, MasterProtos.ModifyTableRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- modifyTable(TableName, HTableDescriptor, long, long) - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
Modify the descriptor of an existing table
- ModifyTableProcedure - org.apache.hadoop.hbase.master.procedure中的类
-
- ModifyTableProcedure() - 类 的构造器org.apache.hadoop.hbase.master.procedure.ModifyTableProcedure
-
- ModifyTableProcedure(MasterProcedureEnv, HTableDescriptor) - 类 的构造器org.apache.hadoop.hbase.master.procedure.ModifyTableProcedure
-
- monitor - 类 中的变量org.apache.hadoop.hbase.master.snapshot.TakeSnapshotHandler
-
- monitor - 类 中的变量org.apache.hadoop.hbase.procedure.Subprocedure
-
monitor to check for errors
- MONITOR_INTERVAL_KEY - 类 中的静态变量org.apache.hadoop.hbase.monitoring.TaskMonitor
-
- MonitoredRPCHandler - org.apache.hadoop.hbase.monitoring中的接口
-
A MonitoredTask implementation optimized for use with RPC Handlers
handling frequent, short duration tasks.
- MonitoredRPCHandlerImpl - org.apache.hadoop.hbase.monitoring中的类
-
A MonitoredTask implementation designed for use with RPC Handlers
handling frequent, short duration tasks.
- MonitoredRPCHandlerImpl() - 类 的构造器org.apache.hadoop.hbase.monitoring.MonitoredRPCHandlerImpl
-
- MonitoredTask - org.apache.hadoop.hbase.monitoring中的接口
-
- MonitoredTask.State - org.apache.hadoop.hbase.monitoring中的枚举
-
- MonitoredTask.StatusJournalEntry - org.apache.hadoop.hbase.monitoring中的接口
-
- moreRowsMayExistAfter(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.CompactionScanQueryMatcher
-
- moreRowsMayExistAfter(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.LegacyScanQueryMatcher
-
已过时。
- moreRowsMayExistAfter(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
- moreRowsMayExistAfter(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.UserScanQueryMatcher
-
- moreRowsMayExistsAfter(int) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.UserScanQueryMatcher
-
- move(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- moveAsideBadEditsFile(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.wal.WALSplitter
-
Move aside a bad edits file.
- movedRegionCleanerPeriod() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- movedRegions - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
- moveFromOnlineToDeadServers(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
- moveRegion(RpcController, MasterProtos.MoveRegionRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- msgInterval - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
- multi(RpcController, ClientProtos.MultiRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
Execute multiple actions on a table: get, mutate, and/or execCoprocessor
- MultiHConnection - org.apache.hadoop.hbase.util中的类
-
Provides ability to create multiple HConnection instances and allows to process a batch of
actions using HConnection.processBatchCallback()
- MultiHConnection(Configuration, int) - 类 的构造器org.apache.hadoop.hbase.util.MultiHConnection
-
Create multiple HConnection instances and initialize a thread pool executor
- MultiRowMutationEndpoint - org.apache.hadoop.hbase.coprocessor中的类
-
- MultiRowMutationEndpoint() - 类 的构造器org.apache.hadoop.hbase.coprocessor.MultiRowMutationEndpoint
-
- MultiTableInputFormat - org.apache.hadoop.hbase.mapreduce中的类
-
Convert HBase tabular data from multiple scanners into a format that
is consumable by Map/Reduce.
- MultiTableInputFormat() - 类 的构造器org.apache.hadoop.hbase.mapreduce.MultiTableInputFormat
-
- MultiTableInputFormatBase - org.apache.hadoop.hbase.mapreduce中的类
-
- MultiTableInputFormatBase() - 类 的构造器org.apache.hadoop.hbase.mapreduce.MultiTableInputFormatBase
-
- MultiTableOutputFormat - org.apache.hadoop.hbase.mapreduce中的类
-
Hadoop output format that writes to one or more HBase tables.
- MultiTableOutputFormat() - 类 的构造器org.apache.hadoop.hbase.mapreduce.MultiTableOutputFormat
-
- MultiTableOutputFormat.MultiTableRecordWriter - org.apache.hadoop.hbase.mapreduce中的类
-
Record writer for outputting to multiple HTables.
- MultiTableOutputFormat.MultiTableRecordWriter(Configuration, boolean) - 类 的构造器org.apache.hadoop.hbase.mapreduce.MultiTableOutputFormat.MultiTableRecordWriter
-
- MultiTableSnapshotInputFormat - org.apache.hadoop.hbase.mapred中的类
-
MultiTableSnapshotInputFormat generalizes
.TableSnapshotInputFormat
allowing a MapReduce job to run over one or more table snapshots, with one or more scans
configured for each.
- MultiTableSnapshotInputFormat() - 类 的构造器org.apache.hadoop.hbase.mapred.MultiTableSnapshotInputFormat
-
- MultiTableSnapshotInputFormat - org.apache.hadoop.hbase.mapreduce中的类
-
MultiTableSnapshotInputFormat generalizes
TableSnapshotInputFormat
allowing a MapReduce job to run over one or more table snapshots, with one or more scans
configured for each.
- MultiTableSnapshotInputFormat() - 类 的构造器org.apache.hadoop.hbase.mapreduce.MultiTableSnapshotInputFormat
-
- MultiTableSnapshotInputFormatImpl - org.apache.hadoop.hbase.mapreduce中的类
-
Shared implementation of mapreduce code over multiple table snapshots.
- MultiTableSnapshotInputFormatImpl() - 类 的构造器org.apache.hadoop.hbase.mapreduce.MultiTableSnapshotInputFormatImpl
-
- MultithreadedTableMapper<K2,V2> - org.apache.hadoop.hbase.mapreduce中的类
-
Multithreaded implementation for @link org.apache.hbase.mapreduce.TableMapper
It can be used instead when the Map operation is not CPU
bound in order to improve throughput.
- MultithreadedTableMapper() - 类 的构造器org.apache.hadoop.hbase.mapreduce.MultithreadedTableMapper
-
- MultiVersionConcurrencyControl - org.apache.hadoop.hbase.regionserver中的类
-
Manages the read/write consistency.
- MultiVersionConcurrencyControl() - 类 的构造器org.apache.hadoop.hbase.regionserver.MultiVersionConcurrencyControl
-
- MultiVersionConcurrencyControl(long) - 类 的构造器org.apache.hadoop.hbase.regionserver.MultiVersionConcurrencyControl
-
Construct and set read point.
- MultiVersionConcurrencyControl.WriteEntry - org.apache.hadoop.hbase.regionserver中的类
-
Write number and whether write has completed given out at start of a write transaction.
- MunkresAssignment - org.apache.hadoop.hbase.util中的类
-
Computes the optimal (minimal cost) assignment of jobs to workers (or other
analogous) concepts given a cost matrix of each pair of job and worker, using
the algorithm by James Munkres in "Algorithms for the Assignment and
Transportation Problems", with additional optimizations as described by Jin
Kue Wong in "A New Implementation of an Algorithm for the Optimal Assignment
Problem: An Improved Version of Munkres' Algorithm".
- MunkresAssignment(float[][]) - 类 的构造器org.apache.hadoop.hbase.util.MunkresAssignment
-
Construct a new problem instance with the specified cost matrix.
- mutate(RpcController, ClientProtos.MutateRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
Mutate data in a table.
- mutateRow(RowMutations) - 类 中的方法org.apache.hadoop.hbase.client.HTableWrapper
-
- mutateRow(RowMutations) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- mutateRow(RowMutations) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Performs multiple mutations atomically on a single row.
- mutateRows(RpcController, MultiRowMutationProtos.MutateRowsRequest, RpcCallback<MultiRowMutationProtos.MutateRowsResponse>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.MultiRowMutationEndpoint
-
- mutateRowsWithLocks(Collection<Mutation>, Collection<byte[]>) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Perform atomic mutations within the region w/o nonces.
- mutateRowsWithLocks(Collection<Mutation>, Collection<byte[]>, long, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Perform atomic mutations within the region.
- mutateRowsWithLocks(Collection<Mutation>, Collection<byte[]>, long, long) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Perform atomic mutations within the region.
- mutation - 类 中的变量org.apache.hadoop.hbase.wal.WALSplitter.MutationReplay
-
- MutationSerialization - org.apache.hadoop.hbase.mapreduce中的类
-
- MutationSerialization() - 类 的构造器org.apache.hadoop.hbase.mapreduce.MutationSerialization
-
- parallelSeekEnabled - 类 中的变量org.apache.hadoop.hbase.regionserver.StoreScanner
-
A flag that enables StoreFileScanner parallel-seeking
- ParallelSeekHandler - org.apache.hadoop.hbase.regionserver.handler中的类
-
Handler to seek storefiles in parallel.
- ParallelSeekHandler(KeyValueScanner, Cell, long, CountDownLatch) - 类 的构造器org.apache.hadoop.hbase.regionserver.handler.ParallelSeekHandler
-
- param - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer.Call
-
- params - 类 中的变量org.apache.hadoop.hbase.master.cleaner.CleanerChore
-
- parentLockNode - 类 中的变量org.apache.hadoop.hbase.zookeeper.lock.ZKInterProcessLockBase
-
- parse(byte[], int) - 类 中的方法org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser
-
- parse(String) - 类 中的方法org.apache.hadoop.hbase.security.visibility.ExpressionParser
-
- parse(Configuration) - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZooKeeperMainServer
-
- ParseException - org.apache.hadoop.hbase.security.visibility中的异常错误
-
- ParseException() - 异常错误 的构造器org.apache.hadoop.hbase.security.visibility.ParseException
-
- ParseException(String) - 异常错误 的构造器org.apache.hadoop.hbase.security.visibility.ParseException
-
- ParseException(Throwable) - 异常错误 的构造器org.apache.hadoop.hbase.security.visibility.ParseException
-
- ParseException(String, Throwable) - 异常错误 的构造器org.apache.hadoop.hbase.security.visibility.ParseException
-
- parseFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.SplitLogTask
-
- parseFromProtoRequest(AdminProtos.CloseRegionRequest) - 接口 中的方法org.apache.hadoop.hbase.coordination.CloseRegionCoordination
-
Construct CloseRegionDetails instance from CloseRegionRequest.
- parseFromProtoRequest(AdminProtos.OpenRegionRequest.RegionOpenInfo) - 接口 中的方法org.apache.hadoop.hbase.coordination.OpenRegionCoordination
-
Construct OpenRegionDetails instance from part of protobuf request.
- parseFromProtoRequest(AdminProtos.CloseRegionRequest) - 类 中的方法org.apache.hadoop.hbase.coordination.ZkCloseRegionCoordination
-
Parse ZK-related fields from request.
- parseFromProtoRequest(AdminProtos.OpenRegionRequest.RegionOpenInfo) - 类 中的方法org.apache.hadoop.hbase.coordination.ZkOpenRegionCoordination
-
Parse ZK-related fields from request.
- parseLastFlushedSequenceIdFrom(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKSplitLog
-
- parseOptions(String[]) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFilePrettyPrinter
-
- parser - 类 中的变量org.apache.hadoop.hbase.mapreduce.TsvImporterMapper
-
- parseRowKey(byte[], int) - 类 中的方法org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser
-
Return starting position and length of row key from the specified line bytes.
- passesDeleteFamilyBloomFilter(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile.Reader
-
- passesGeneralBloomFilter(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile.Reader
-
A method for checking Bloom filters.
- passesKeyRangeFilter(Scan) - 类 中的方法org.apache.hadoop.hbase.io.HalfStoreFileReader
-
- passesKeyRangeFilter(Scan) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile.Reader
-
Checks whether the given scan rowkey range overlaps with the current storefile's
- path - 类 中的变量org.apache.hadoop.hbase.io.hfile.AbstractHFileReader
-
Path of file
- path - 类 中的变量org.apache.hadoop.hbase.io.hfile.AbstractHFileWriter
-
May be null if we were passed a stream.
- path - 类 中的变量org.apache.hadoop.hbase.io.hfile.HFile.WriterFactory
-
- path - 类 中的变量org.apache.hadoop.hbase.regionserver.handler.FinishRegionRecoveringHandler
-
- path - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.ReaderBase
-
- path - 类 中的静态变量org.apache.hadoop.hbase.util.CompressionTest
-
- pathPrefix - 类 中的变量org.apache.hadoop.hbase.coprocessor.CoprocessorHost
-
- pause(String) - 接口 中的方法org.apache.hadoop.hbase.monitoring.MonitoredTask
-
- PB_WAL_COMPLETE_MAGIC - 类 中的静态变量org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- PB_WAL_MAGIC - 类 中的静态变量org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- PBUF_TRAILER_MINOR_VERSION - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.HFileReaderV2
-
HFile minor version that introduced pbuf filetrailer
- peek() - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- peek() - 类 中的方法org.apache.hadoop.hbase.regionserver.DefaultMemStore.MemStoreScanner
-
- peek() - 类 中的方法org.apache.hadoop.hbase.regionserver.KeyValueHeap
-
- peek() - 接口 中的方法org.apache.hadoop.hbase.regionserver.KeyValueScanner
-
Look at the next Cell in this scanner, but do not iterate scanner.
- peek() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
- peek() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreScanner
-
- peek() - 类 中的方法org.apache.hadoop.hbase.util.BoundedPriorityBlockingQueue
-
- peek() - 类 中的方法org.apache.hadoop.hbase.util.CollectionBackedScanner
-
- peerConfigUpdated(ReplicationPeerConfig) - 类 中的方法org.apache.hadoop.hbase.replication.BaseReplicationEndpoint
-
- peerConfigUpdated(ReplicationPeerConfig) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityReplicationEndpoint
-
- peerListChanged(List<String>) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSourceManager
-
- peerRemoved(String) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSourceManager
-
- PER_BLOCK_OVERHEAD - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.LruCachedBlock
-
- performCompaction(InternalScanner, Compactor.CellSink, long, boolean, ThroughputController) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.Compactor
-
Performs the compaction.
- PERIOD - 类 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl
-
- PersistentIOEngine - org.apache.hadoop.hbase.io.hfile.bucket中的接口
-
A class implementing PersistentIOEngine interface supports persistent and file integrity verify
for
BucketCache
- placeSecondaryAndTertiaryWithRestrictions(Map<HRegionInfo, ServerName>) - 类 中的方法org.apache.hadoop.hbase.master.balancer.FavoredNodeAssignmentHelper
-
For regions that share the primary, avoid placing the secondary and tertiary
on a same RS.
- poll() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.CachedEntryQueue
-
- poll() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruCachedBlockQueue
-
- poll() - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- poll(long, TimeUnit) - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- poll() - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureScheduler
-
- poll(long) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSourceWALReaderThread
-
- poll() - 类 中的方法org.apache.hadoop.hbase.util.BoundedPriorityBlockingQueue
-
- poll(long, TimeUnit) - 类 中的方法org.apache.hadoop.hbase.util.BoundedPriorityBlockingQueue
-
- poll(long, TimeUnit) - 类 中的方法org.apache.hadoop.hbase.util.StealJobQueue
-
- pollFirst() - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSkipListSet
-
- pollLast() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.CachedEntryQueue
-
- pollLast() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruCachedBlockQueue
-
- pollLast() - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSkipListSet
-
- pollRealKV() - 类 中的方法org.apache.hadoop.hbase.regionserver.KeyValueHeap
-
Fetches the top sub-scanner from the priority queue, ensuring that a real
seek has been done on it.
- populatePool(ExecutorService) - 类 中的方法org.apache.hadoop.hbase.master.BulkAssigner
-
- populatePool(ExecutorService) - 类 中的方法org.apache.hadoop.hbase.master.BulkReOpen
-
Unassign all regions, so that they go through the regular region
assignment flow (in assignment manager) and are re-opened.
- populatePool(ExecutorService) - 类 中的方法org.apache.hadoop.hbase.master.GeneralBulkAssigner
-
- populatePut(byte[], ImportTsv.TsvParser.ParsedLine, Put, int) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TsvImporterMapper
-
- port - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer
-
- positiveJitterRate() - 类 中的方法org.apache.hadoop.hbase.regionserver.ConstantSizeRegionSplitPolicy
-
- postAbortProcedure(ObserverContext<MasterCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postAbortProcedure(ObserverContext<MasterCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postAbortProcedure(ObserverContext<MasterCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after a abortProcedure request has been processed.
- postAbortProcedure() - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postAbortProcedure(ObserverContext<MasterCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- postAddColumn(ObserverContext<MasterCoprocessorEnvironment>, TableName, HColumnDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postAddColumn(ObserverContext<MasterCoprocessorEnvironment>, TableName, HColumnDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postAddColumn(ObserverContext<MasterCoprocessorEnvironment>, TableName, HColumnDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the new column family has been created.
- postAddColumn(TableName, HColumnDescriptor) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postAddColumnHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName, HColumnDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postAddColumnHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName, HColumnDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postAddColumnHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName, HColumnDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the new column family has been created.
- postAddColumnHandler(TableName, HColumnDescriptor) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postAddRSGroup(ObserverContext<MasterCoprocessorEnvironment>, String) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postAddRSGroup(ObserverContext<MasterCoprocessorEnvironment>, String) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postAddRSGroup(ObserverContext<MasterCoprocessorEnvironment>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after a new region server group is added
- postAddRSGroup(String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postAppend(ObserverContext<RegionCoprocessorEnvironment>, Append, Result) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- postAppend(ObserverContext<RegionCoprocessorEnvironment>, Append, Result) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after Append
Call CoprocessorEnvironment#complete to skip any subsequent chained
coprocessors
- postAppend(Append, Result) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postAppend(long, long, WALKey, WALEdit) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.MetricsWAL
-
- postAppend(long, long, WALKey, WALEdit) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WALActionsListener.Base
-
- postAppend(long, long, WALKey, WALEdit) - 接口 中的方法org.apache.hadoop.hbase.regionserver.wal.WALActionsListener
-
For notification post append to the writer.
- postAssign(ObserverContext<MasterCoprocessorEnvironment>, HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postAssign(ObserverContext<MasterCoprocessorEnvironment>, HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postAssign(ObserverContext<MasterCoprocessorEnvironment>, HRegionInfo) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the region assignment has been requested.
- postAssign(HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postBalance(ObserverContext<MasterCoprocessorEnvironment>, List<RegionPlan>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postBalance(ObserverContext<MasterCoprocessorEnvironment>, List<RegionPlan>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postBalance(ObserverContext<MasterCoprocessorEnvironment>, List<RegionPlan>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the balancing plan has been submitted.
- postBalance(List<RegionPlan>) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postBalanceRSGroup(ObserverContext<MasterCoprocessorEnvironment>, String, boolean) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postBalanceRSGroup(ObserverContext<MasterCoprocessorEnvironment>, String, boolean) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postBalanceRSGroup(ObserverContext<MasterCoprocessorEnvironment>, String, boolean) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after a region server group is removed
- postBalanceRSGroup(String, boolean) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postBalanceSwitch(ObserverContext<MasterCoprocessorEnvironment>, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postBalanceSwitch(ObserverContext<MasterCoprocessorEnvironment>, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postBalanceSwitch(ObserverContext<MasterCoprocessorEnvironment>, boolean, boolean) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the flag to enable/disable balancing has changed.
- postBalanceSwitch(boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postBatchMutate(ObserverContext<RegionCoprocessorEnvironment>, MiniBatchOperationInProgress<Mutation>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- postBatchMutate(ObserverContext<RegionCoprocessorEnvironment>, MiniBatchOperationInProgress<Mutation>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
This will be called after applying a batch of Mutations on a region.
- postBatchMutate(HRegion) - 类 中的方法org.apache.hadoop.hbase.regionserver.BaseRowProcessor
-
- postBatchMutate(MiniBatchOperationInProgress<Mutation>) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postBatchMutate(HRegion) - 接口 中的方法org.apache.hadoop.hbase.regionserver.RowProcessor
-
The hook to be executed after the process() and applying the Mutations to region.
- postBatchMutateIndispensably(ObserverContext<RegionCoprocessorEnvironment>, MiniBatchOperationInProgress<Mutation>, boolean) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- postBatchMutateIndispensably(ObserverContext<RegionCoprocessorEnvironment>, MiniBatchOperationInProgress<Mutation>, boolean) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after the completion of batch put/delete and will be called even if the batch operation
fails
- postBatchMutateIndispensably(MiniBatchOperationInProgress<Mutation>, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postBulkLoadHFile(ObserverContext<RegionCoprocessorEnvironment>, List<Pair<byte[], String>>, boolean) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- postBulkLoadHFile(ObserverContext<RegionCoprocessorEnvironment>, List<Pair<byte[], String>>, boolean) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after bulkLoadHFile.
- postBulkLoadHFile(List<Pair<byte[], String>>, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postCheckAndDelete(ObserverContext<RegionCoprocessorEnvironment>, byte[], byte[], byte[], CompareFilter.CompareOp, ByteArrayComparable, Delete, boolean) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- postCheckAndDelete(ObserverContext<RegionCoprocessorEnvironment>, byte[], byte[], byte[], CompareFilter.CompareOp, ByteArrayComparable, Delete, boolean) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after checkAndDelete
Call CoprocessorEnvironment#complete to skip any subsequent chained
coprocessors
- postCheckAndDelete(byte[], byte[], byte[], CompareFilter.CompareOp, ByteArrayComparable, Delete, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postCheckAndPut(ObserverContext<RegionCoprocessorEnvironment>, byte[], byte[], byte[], CompareFilter.CompareOp, ByteArrayComparable, Put, boolean) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- postCheckAndPut(ObserverContext<RegionCoprocessorEnvironment>, byte[], byte[], byte[], CompareFilter.CompareOp, ByteArrayComparable, Put, boolean) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after checkAndPut
Call CoprocessorEnvironment#complete to skip any subsequent chained
coprocessors
- postCheckAndPut(byte[], byte[], byte[], CompareFilter.CompareOp, ByteArrayComparable, Put, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postClearDeadServers(ObserverContext<MasterCoprocessorEnvironment>, List<ServerName>, List<ServerName>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postClearDeadServers(ObserverContext<MasterCoprocessorEnvironment>, List<ServerName>, List<ServerName>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postClearDeadServers(ObserverContext<MasterCoprocessorEnvironment>, List<ServerName>, List<ServerName>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after clear dead region servers.
- postClearDeadServers(List<ServerName>, List<ServerName>) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postClearDeadServers(ObserverContext<MasterCoprocessorEnvironment>, List<ServerName>, List<ServerName>) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- postCloneSnapshot(ObserverContext<MasterCoprocessorEnvironment>, HBaseProtos.SnapshotDescription, HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postCloneSnapshot(ObserverContext<MasterCoprocessorEnvironment>, HBaseProtos.SnapshotDescription, HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postCloneSnapshot(ObserverContext<MasterCoprocessorEnvironment>, HBaseProtos.SnapshotDescription, HTableDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after a snapshot clone operation has been requested.
- postCloneSnapshot(HBaseProtos.SnapshotDescription, HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postClose(ObserverContext<RegionCoprocessorEnvironment>, boolean) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- postClose(ObserverContext<RegionCoprocessorEnvironment>, boolean) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after the region is reported as closed to the master.
- postClose(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Invoked after a region is closed
- postCloseRegionOperation(ObserverContext<RegionCoprocessorEnvironment>, Region.Operation) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- postCloseRegionOperation(ObserverContext<RegionCoprocessorEnvironment>, Region.Operation) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
- postCloseRegionOperation(Region.Operation) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postCommitStoreFile(ObserverContext<RegionCoprocessorEnvironment>, byte[], Path, Path) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- postCommitStoreFile(ObserverContext<RegionCoprocessorEnvironment>, byte[], Path, Path) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after moving bulk loaded hfile to region directory.
- postCommitStoreFile(byte[], Path, Path) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postCompact(ObserverContext<RegionCoprocessorEnvironment>, Store, StoreFile) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- postCompact(ObserverContext<RegionCoprocessorEnvironment>, Store, StoreFile, CompactionRequest) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- postCompact(ObserverContext<RegionCoprocessorEnvironment>, Store, StoreFile, CompactionRequest) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after compaction has completed and the new store file has been moved in to place.
- postCompact(ObserverContext<RegionCoprocessorEnvironment>, Store, StoreFile) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
- postCompact(Store, StoreFile, CompactionRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Called after the store compaction has completed.
- postCompactSelection(ObserverContext<RegionCoprocessorEnvironment>, Store, ImmutableList<StoreFile>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- postCompactSelection(ObserverContext<RegionCoprocessorEnvironment>, Store, ImmutableList<StoreFile>, CompactionRequest) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- postCompactSelection(ObserverContext<RegionCoprocessorEnvironment>, Store, ImmutableList<StoreFile>, CompactionRequest) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after the
StoreFiles to compact have been selected from the available
candidates.
- postCompactSelection(ObserverContext<RegionCoprocessorEnvironment>, Store, ImmutableList<StoreFile>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
- postCompactSelection(Store, ImmutableList<StoreFile>, CompactionRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Called after the
StoreFiles to be compacted have been selected from the available
candidates.
- postCompleteSplit(ObserverContext<RegionCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- postCompleteSplit(ObserverContext<RegionCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after any split request is processed.
- postCompleteSplit() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Invoked after a split is completed irrespective of a failure or success.
- postCreateCoprocScanner(CompactionRequest, ScanType, InternalScanner, User) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.Compactor
-
Calls coprocessor, if any, to create scanners - after normal scanner creation.
- postCreateNamespace(ObserverContext<MasterCoprocessorEnvironment>, NamespaceDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postCreateNamespace(ObserverContext<MasterCoprocessorEnvironment>, NamespaceDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postCreateNamespace(ObserverContext<MasterCoprocessorEnvironment>, NamespaceDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the createNamespace operation has been requested.
- postCreateNamespace(NamespaceDescriptor) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postCreateReplicationEndPoint(ObserverContext<RegionServerCoprocessorEnvironment>, ReplicationEndpoint) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionServerObserver
-
- postCreateReplicationEndPoint(ObserverContext<RegionServerCoprocessorEnvironment>, ReplicationEndpoint) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionServerObserver
-
This will be called after the replication endpoint is instantiated.
- postCreateReplicationEndPoint(ReplicationEndpoint) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerCoprocessorHost
-
- postCreateReplicationEndPoint(ObserverContext<RegionServerCoprocessorEnvironment>, ReplicationEndpoint) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- postCreateReplicationEndPoint(ObserverContext<RegionServerCoprocessorEnvironment>, ReplicationEndpoint) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityController.VisibilityReplication
-
- postCreateTable(ObserverContext<MasterCoprocessorEnvironment>, HTableDescriptor, HRegionInfo[]) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postCreateTable(ObserverContext<MasterCoprocessorEnvironment>, HTableDescriptor, HRegionInfo[]) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postCreateTable(ObserverContext<MasterCoprocessorEnvironment>, HTableDescriptor, HRegionInfo[]) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the createTable operation has been requested.
- postCreateTable(HTableDescriptor, HRegionInfo[]) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postCreateTableHandler(ObserverContext<MasterCoprocessorEnvironment>, HTableDescriptor, HRegionInfo[]) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postCreateTableHandler(ObserverContext<MasterCoprocessorEnvironment>, HTableDescriptor, HRegionInfo[]) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postCreateTableHandler(ObserverContext<MasterCoprocessorEnvironment>, HTableDescriptor, HRegionInfo[]) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the createTable operation has been requested.
- postCreateTableHandler(HTableDescriptor, HRegionInfo[]) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postCreateTableHandler(ObserverContext<MasterCoprocessorEnvironment>, HTableDescriptor, HRegionInfo[]) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- postDelete(ObserverContext<RegionCoprocessorEnvironment>, Delete, WALEdit, Durability) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- postDelete(ObserverContext<RegionCoprocessorEnvironment>, Delete, WALEdit, Durability) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after the client deletes a value.
- postDelete(Delete, WALEdit, Durability) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postDelete(ObserverContext<RegionCoprocessorEnvironment>, Delete, WALEdit, Durability) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- postDeleteColumn(ObserverContext<MasterCoprocessorEnvironment>, TableName, byte[]) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postDeleteColumn(ObserverContext<MasterCoprocessorEnvironment>, TableName, byte[]) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postDeleteColumn(ObserverContext<MasterCoprocessorEnvironment>, TableName, byte[]) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the column family has been deleted.
- postDeleteColumn(TableName, byte[]) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postDeleteColumn(ObserverContext<MasterCoprocessorEnvironment>, TableName, byte[]) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- postDeleteColumnHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName, byte[]) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postDeleteColumnHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName, byte[]) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postDeleteColumnHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName, byte[]) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the column family has been deleted.
- postDeleteColumnHandler(TableName, byte[]) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postDeleteNamespace(ObserverContext<MasterCoprocessorEnvironment>, String) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postDeleteNamespace(ObserverContext<MasterCoprocessorEnvironment>, String) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postDeleteNamespace(ObserverContext<MasterCoprocessorEnvironment>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the deleteNamespace operation has been requested.
- postDeleteNamespace(String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postDeleteNamespace(ObserverContext<MasterCoprocessorEnvironment>, String) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- postDeleteSnapshot(ObserverContext<MasterCoprocessorEnvironment>, HBaseProtos.SnapshotDescription) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postDeleteSnapshot(ObserverContext<MasterCoprocessorEnvironment>, HBaseProtos.SnapshotDescription) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postDeleteSnapshot(ObserverContext<MasterCoprocessorEnvironment>, HBaseProtos.SnapshotDescription) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the delete snapshot operation has been requested.
- postDeleteSnapshot(HBaseProtos.SnapshotDescription) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postDeleteTable(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postDeleteTable(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postDeleteTable(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the deleteTable operation has been requested.
- postDeleteTable(TableName) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postDeleteTable(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- postDeleteTableHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postDeleteTableHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postDeleteTableHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after
HMaster deletes a
table.
- postDeleteTableHandler(TableName) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postDisable(MasterProcedureEnv, MasterProcedureProtos.DisableTableState) - 类 中的方法org.apache.hadoop.hbase.master.procedure.DisableTableProcedure
-
Action after disabling table.
- postDisableTable(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postDisableTable(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postDisableTable(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the disableTable operation has been requested.
- postDisableTable(TableName) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postDisableTableHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postDisableTableHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postDisableTableHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the disableTable operation has been requested.
- postDisableTableHandler(TableName) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postDispatchMerge(ObserverContext<MasterCoprocessorEnvironment>, HRegionInfo, HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postDispatchMerge(ObserverContext<MasterCoprocessorEnvironment>, HRegionInfo, HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postDispatchMerge(ObserverContext<MasterCoprocessorEnvironment>, HRegionInfo, HRegionInfo) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
called after dispatching the region merge request.
- postDispatchMerge(HRegionInfo, HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postEnableTable(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postEnableTable(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postEnableTable(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the enableTable operation has been requested.
- postEnableTable(TableName) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postEnableTableHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postEnableTableHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postEnableTableHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the enableTable operation has been requested.
- postEnableTableHandler(TableName) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postEndpointInvocation(ObserverContext<RegionCoprocessorEnvironment>, Service, String, Message, Message.Builder) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.EndpointObserver
-
Called after an Endpoint service method is invoked.
- postEndpointInvocation(Service, String, Message, Message.Builder) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postEndpointInvocation(ObserverContext<RegionCoprocessorEnvironment>, Service, String, Message, Message.Builder) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- postExists(ObserverContext<RegionCoprocessorEnvironment>, Get, boolean) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- postExists(ObserverContext<RegionCoprocessorEnvironment>, Get, boolean) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after the client tests for existence using a Get.
- postExists(Get, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postFlush(ObserverContext<RegionCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- postFlush(ObserverContext<RegionCoprocessorEnvironment>, Store, StoreFile) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- postFlush(ObserverContext<RegionCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
- postFlush(ObserverContext<RegionCoprocessorEnvironment>, Store, StoreFile) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after a Store's memstore is flushed to disk.
- postFlush() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Invoked after a memstore flush
- postFlush(Store, StoreFile) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Invoked after a memstore flush
- postGet(Get, List<Cell>) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postGetClosestRowBefore(ObserverContext<RegionCoprocessorEnvironment>, byte[], byte[], Result) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- postGetClosestRowBefore(ObserverContext<RegionCoprocessorEnvironment>, byte[], byte[], Result) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after a client makes a GetClosestRowBefore request.
- postGetClosestRowBefore(byte[], byte[], Result) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postGetClusterStatus(ObserverContext<MasterCoprocessorEnvironment>, ClusterStatus) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postGetClusterStatus(ObserverContext<MasterCoprocessorEnvironment>, ClusterStatus) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postGetClusterStatus(ObserverContext<MasterCoprocessorEnvironment>, ClusterStatus) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after get cluster status.
- postGetClusterStatus(ClusterStatus) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postGetNamespaceDescriptor(ObserverContext<MasterCoprocessorEnvironment>, NamespaceDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postGetNamespaceDescriptor(ObserverContext<MasterCoprocessorEnvironment>, NamespaceDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postGetNamespaceDescriptor(ObserverContext<MasterCoprocessorEnvironment>, NamespaceDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after a getNamespaceDescriptor request has been processed.
- postGetNamespaceDescriptor(NamespaceDescriptor) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postGetOp(ObserverContext<RegionCoprocessorEnvironment>, Get, List<Cell>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- postGetOp(ObserverContext<RegionCoprocessorEnvironment>, Get, List<Cell>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after the client performs a Get
Call CoprocessorEnvironment#complete to skip any subsequent chained
coprocessors
- postGetTableDescriptors(ObserverContext<MasterCoprocessorEnvironment>, List<HTableDescriptor>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postGetTableDescriptors(ObserverContext<MasterCoprocessorEnvironment>, List<TableName>, List<HTableDescriptor>, String) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postGetTableDescriptors(ObserverContext<MasterCoprocessorEnvironment>, List<HTableDescriptor>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postGetTableDescriptors(ObserverContext<MasterCoprocessorEnvironment>, List<TableName>, List<HTableDescriptor>, String) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postGetTableDescriptors(ObserverContext<MasterCoprocessorEnvironment>, List<HTableDescriptor>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
已过时。
Use postGetTableDescriptors with regex instead.
- postGetTableDescriptors(ObserverContext<MasterCoprocessorEnvironment>, List<TableName>, List<HTableDescriptor>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after a getTableDescriptors request has been processed.
- postGetTableDescriptors(List<HTableDescriptor>) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
已过时。
- postGetTableDescriptors(List<TableName>, List<HTableDescriptor>, String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postGetTableDescriptors(ObserverContext<MasterCoprocessorEnvironment>, List<TableName>, List<HTableDescriptor>, String) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- postGetTableNames(ObserverContext<MasterCoprocessorEnvironment>, List<HTableDescriptor>, String) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postGetTableNames(ObserverContext<MasterCoprocessorEnvironment>, List<HTableDescriptor>, String) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postGetTableNames(ObserverContext<MasterCoprocessorEnvironment>, List<HTableDescriptor>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after a getTableNames request has been processed.
- postGetTableNames(List<HTableDescriptor>, String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postGetTableNames(ObserverContext<MasterCoprocessorEnvironment>, List<HTableDescriptor>, String) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- postIncrement(ObserverContext<RegionCoprocessorEnvironment>, Increment, Result) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- postIncrement(ObserverContext<RegionCoprocessorEnvironment>, Increment, Result) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after increment
Call CoprocessorEnvironment#complete to skip any subsequent chained
coprocessors
- postIncrement(Increment, Result) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postIncrementColumnValue(ObserverContext<RegionCoprocessorEnvironment>, byte[], byte[], byte[], long, boolean, long) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- postIncrementColumnValue(ObserverContext<RegionCoprocessorEnvironment>, byte[], byte[], byte[], long, boolean, long) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
已过时。
This hook is no longer called by the RegionServer
- postInstantiateDeleteTracker(ObserverContext<RegionCoprocessorEnvironment>, DeleteTracker) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- postInstantiateDeleteTracker(ObserverContext<RegionCoprocessorEnvironment>, DeleteTracker) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after the ScanQueryMatcher creates ScanDeleteTracker.
- postInstantiateDeleteTracker(DeleteTracker) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postInstantiateDeleteTracker(ObserverContext<RegionCoprocessorEnvironment>, DeleteTracker) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityController
-
- postListNamespaceDescriptors(ObserverContext<MasterCoprocessorEnvironment>, List<NamespaceDescriptor>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postListNamespaceDescriptors(ObserverContext<MasterCoprocessorEnvironment>, List<NamespaceDescriptor>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postListNamespaceDescriptors(ObserverContext<MasterCoprocessorEnvironment>, List<NamespaceDescriptor>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after a listNamespaceDescriptors request has been processed.
- postListNamespaceDescriptors(List<NamespaceDescriptor>) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postListNamespaceDescriptors(ObserverContext<MasterCoprocessorEnvironment>, List<NamespaceDescriptor>) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- postListProcedures(ObserverContext<MasterCoprocessorEnvironment>, List<ProcedureInfo>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postListProcedures(ObserverContext<MasterCoprocessorEnvironment>, List<ProcedureInfo>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postListProcedures(ObserverContext<MasterCoprocessorEnvironment>, List<ProcedureInfo>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after a listProcedures request has been processed.
- postListProcedures(List<ProcedureInfo>) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postListProcedures(ObserverContext<MasterCoprocessorEnvironment>, List<ProcedureInfo>) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- postListSnapshot(ObserverContext<MasterCoprocessorEnvironment>, HBaseProtos.SnapshotDescription) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postListSnapshot(ObserverContext<MasterCoprocessorEnvironment>, HBaseProtos.SnapshotDescription) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postListSnapshot(ObserverContext<MasterCoprocessorEnvironment>, HBaseProtos.SnapshotDescription) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after listSnapshots request has been processed.
- postListSnapshot(HBaseProtos.SnapshotDescription) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postLogArchive(Path, Path) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WALActionsListener.Base
-
- postLogArchive(Path, Path) - 接口 中的方法org.apache.hadoop.hbase.regionserver.wal.WALActionsListener
-
The WAL has been archived.
- postLogReplay(ObserverContext<RegionCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- postLogReplay(ObserverContext<RegionCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after the log replay on the region is over.
- postLogReplay() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Invoked after log replay on region
- postLogReplay(ObserverContext<RegionCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- postLogReplay(ObserverContext<RegionCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityController
-
- postLogRoll(Path, Path) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WALActionsListener.Base
-
- postLogRoll(Path, Path) - 接口 中的方法org.apache.hadoop.hbase.regionserver.wal.WALActionsListener
-
The WAL has been rolled.
- postLogRoll(Path, Path) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.Replication
-
- postMasterStartupInitialize() - 类 中的方法org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer
-
- postMasterStartupInitialize() - 接口 中的方法org.apache.hadoop.hbase.master.LoadBalancer
-
If balancer needs to do initialization after Master has started up, lets do that here.
- postMerge(ObserverContext<RegionServerCoprocessorEnvironment>, Region, Region, Region) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionServerObserver
-
- postMerge(ObserverContext<RegionServerCoprocessorEnvironment>, Region, Region, Region) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionServerObserver
-
called after the regions merge.
- postMerge(HRegion, HRegion, HRegion) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerCoprocessorHost
-
- postMerge(ObserverContext<RegionServerCoprocessorEnvironment>, Region, Region, Region) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- postMergeCommit(ObserverContext<RegionServerCoprocessorEnvironment>, Region, Region, Region) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionServerObserver
-
- postMergeCommit(ObserverContext<RegionServerCoprocessorEnvironment>, Region, Region, Region) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionServerObserver
-
This will be called after PONR step as part of regions merge transaction.
- postMergeCommit(HRegion, HRegion, HRegion) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerCoprocessorHost
-
- postMergeCommit(ObserverContext<RegionServerCoprocessorEnvironment>, Region, Region, Region) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- postModifyColumn(ObserverContext<MasterCoprocessorEnvironment>, TableName, HColumnDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postModifyColumn(ObserverContext<MasterCoprocessorEnvironment>, TableName, HColumnDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postModifyColumn(ObserverContext<MasterCoprocessorEnvironment>, TableName, HColumnDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the column family has been updated.
- postModifyColumn(TableName, HColumnDescriptor) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postModifyColumnHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName, HColumnDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postModifyColumnHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName, HColumnDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postModifyColumnHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName, HColumnDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the column family has been updated.
- postModifyColumnHandler(TableName, HColumnDescriptor) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postModifyNamespace(ObserverContext<MasterCoprocessorEnvironment>, NamespaceDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postModifyNamespace(ObserverContext<MasterCoprocessorEnvironment>, NamespaceDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postModifyNamespace(ObserverContext<MasterCoprocessorEnvironment>, NamespaceDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the modifyNamespace operation has been requested.
- postModifyNamespace(NamespaceDescriptor) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postModifyTable(ObserverContext<MasterCoprocessorEnvironment>, TableName, HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postModifyTable(ObserverContext<MasterCoprocessorEnvironment>, TableName, HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postModifyTable(ObserverContext<MasterCoprocessorEnvironment>, TableName, HTableDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the modifyTable operation has been requested.
- postModifyTable(TableName, HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postModifyTable(ObserverContext<MasterCoprocessorEnvironment>, TableName, HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- postModifyTableHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName, HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postModifyTableHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName, HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postModifyTableHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName, HTableDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after to modifying a table's properties.
- postModifyTableHandler(TableName, HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postMove(ObserverContext<MasterCoprocessorEnvironment>, HRegionInfo, ServerName, ServerName) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postMove(ObserverContext<MasterCoprocessorEnvironment>, HRegionInfo, ServerName, ServerName) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postMove(ObserverContext<MasterCoprocessorEnvironment>, HRegionInfo, ServerName, ServerName) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the region move has been requested.
- postMove(HRegionInfo, ServerName, ServerName) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postMoveServers(ObserverContext<MasterCoprocessorEnvironment>, Set<Address>, String) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postMoveServers(ObserverContext<MasterCoprocessorEnvironment>, Set<Address>, String) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postMoveServers(ObserverContext<MasterCoprocessorEnvironment>, Set<Address>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after servers are moved to target region server group
- postMoveServers(Set<Address>, String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postMoveServersAndTables(ObserverContext<MasterCoprocessorEnvironment>, Set<Address>, Set<TableName>, String) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postMoveServersAndTables(ObserverContext<MasterCoprocessorEnvironment>, Set<Address>, Set<TableName>, String) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postMoveServersAndTables(ObserverContext<MasterCoprocessorEnvironment>, Set<Address>, Set<TableName>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after servers are moved to target region server group
- postMoveServersAndTables(Set<Address>, Set<TableName>, String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postMoveTables(ObserverContext<MasterCoprocessorEnvironment>, Set<TableName>, String) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postMoveTables(ObserverContext<MasterCoprocessorEnvironment>, Set<TableName>, String) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postMoveTables(ObserverContext<MasterCoprocessorEnvironment>, Set<TableName>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after servers are moved to target region server group
- postMoveTables(Set<TableName>, String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postMutationBeforeWAL(ObserverContext<RegionCoprocessorEnvironment>, RegionObserver.MutationType, Mutation, Cell, Cell) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- postMutationBeforeWAL(ObserverContext<RegionCoprocessorEnvironment>, RegionObserver.MutationType, Mutation, Cell, Cell) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after a new cell has been created during an increment operation, but before
it is committed to the WAL or memstore.
- postMutationBeforeWAL(RegionObserver.MutationType, Mutation, Cell, Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postMutationBeforeWAL(ObserverContext<RegionCoprocessorEnvironment>, RegionObserver.MutationType, Mutation, Cell, Cell) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- postMutationBeforeWAL(ObserverContext<RegionCoprocessorEnvironment>, RegionObserver.MutationType, Mutation, Cell, Cell) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityController
-
- postOpen(ObserverContext<RegionCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- postOpen(ObserverContext<RegionCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after the region is reported as open to the master.
- postOpen() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Invoked after a region open
- postOpen(ObserverContext<RegionCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- postOpen(ObserverContext<RegionCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityController
-
Region related hooks
- postOpenDeployTasks(Region) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- postOpenDeployTasks(RegionServerServices.PostOpenDeployContext) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- postOpenDeployTasks(RegionServerServices.PostOpenDeployContext) - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
Tasks to perform after region open to complete deploy of region on
regionserver
- postOpenDeployTasks(Region) - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
- postProcess(HRegion, WALEdit, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.BaseRowProcessor
-
- postProcess(HRegion, WALEdit, boolean) - 接口 中的方法org.apache.hadoop.hbase.regionserver.RowProcessor
-
The hook to be executed after process() and applying the Mutations to region.
- postPut(ObserverContext<RegionCoprocessorEnvironment>, Put, WALEdit, Durability) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- postPut(ObserverContext<RegionCoprocessorEnvironment>, Put, WALEdit, Durability) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after the client stores a value.
- postPut(Put, WALEdit, Durability) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postPut(ObserverContext<RegionCoprocessorEnvironment>, Put, WALEdit, Durability) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- postRegionOffline(ObserverContext<MasterCoprocessorEnvironment>, HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postRegionOffline(ObserverContext<MasterCoprocessorEnvironment>, HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postRegionOffline(ObserverContext<MasterCoprocessorEnvironment>, HRegionInfo) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the region has been marked offline.
- postRegionOffline(HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postRemoveRSGroup(ObserverContext<MasterCoprocessorEnvironment>, String) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postRemoveRSGroup(ObserverContext<MasterCoprocessorEnvironment>, String) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postRemoveRSGroup(ObserverContext<MasterCoprocessorEnvironment>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after a region server group is removed
- postRemoveRSGroup(String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postRemoveServers(ObserverContext<MasterCoprocessorEnvironment>, Set<Address>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postRemoveServers(ObserverContext<MasterCoprocessorEnvironment>, Set<Address>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postRemoveServers(ObserverContext<MasterCoprocessorEnvironment>, Set<Address>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after servers are removed from rsgroup
- postRemoveServers(Set<Address>) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postReplicateLogEntries(ObserverContext<RegionServerCoprocessorEnvironment>, List<AdminProtos.WALEntry>, CellScanner) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionServerObserver
-
- postReplicateLogEntries(ObserverContext<RegionServerCoprocessorEnvironment>, List<AdminProtos.WALEntry>, CellScanner) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionServerObserver
-
This will be called after executing replication request to shipping log entries.
- postReplicateLogEntries(List<AdminProtos.WALEntry>, CellScanner) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerCoprocessorHost
-
- postReplicateLogEntries(ObserverContext<RegionServerCoprocessorEnvironment>, List<AdminProtos.WALEntry>, CellScanner) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- postRestoreSnapshot(ObserverContext<MasterCoprocessorEnvironment>, HBaseProtos.SnapshotDescription, HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postRestoreSnapshot(ObserverContext<MasterCoprocessorEnvironment>, HBaseProtos.SnapshotDescription, HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postRestoreSnapshot(ObserverContext<MasterCoprocessorEnvironment>, HBaseProtos.SnapshotDescription, HTableDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after a snapshot restore operation has been requested.
- postRestoreSnapshot(HBaseProtos.SnapshotDescription, HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postRollBackMerge(ObserverContext<RegionServerCoprocessorEnvironment>, Region, Region) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionServerObserver
-
- postRollBackMerge(ObserverContext<RegionServerCoprocessorEnvironment>, Region, Region) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionServerObserver
-
This will be called after the roll back of the regions merge.
- postRollBackMerge(HRegion, HRegion) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerCoprocessorHost
-
- postRollBackMerge(ObserverContext<RegionServerCoprocessorEnvironment>, Region, Region) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- postRollBackSplit(ObserverContext<RegionCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- postRollBackSplit(ObserverContext<RegionCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
This will be called after the roll back of the split region is completed
- postRollBackSplit() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Invoked just after the rollback of a failed split is done
- postRollWALWriterRequest(ObserverContext<RegionServerCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionServerObserver
-
- postRollWALWriterRequest(ObserverContext<RegionServerCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionServerObserver
-
This will be called after executing user request to roll a region server WAL.
- postRollWALWriterRequest() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerCoprocessorHost
-
- postRollWALWriterRequest(ObserverContext<RegionServerCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- postScannerClose(ObserverContext<RegionCoprocessorEnvironment>, InternalScanner) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- postScannerClose(ObserverContext<RegionCoprocessorEnvironment>, InternalScanner) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after the client closes a scanner.
- postScannerClose(InternalScanner) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postScannerClose(ObserverContext<RegionCoprocessorEnvironment>, InternalScanner) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- postScannerClose(ObserverContext<RegionCoprocessorEnvironment>, InternalScanner) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityController
-
- postScannerFilterRow(ObserverContext<RegionCoprocessorEnvironment>, InternalScanner, byte[], int, short, boolean) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- postScannerFilterRow(ObserverContext<RegionCoprocessorEnvironment>, InternalScanner, byte[], int, short, boolean) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
This will be called by the scan flow when the current scanned row is being filtered out by the
filter.
- postScannerFilterRow(InternalScanner, byte[], int, short) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
This will be called by the scan flow when the current scanned row is being filtered out by the
filter.
- postScannerNext(ObserverContext<RegionCoprocessorEnvironment>, InternalScanner, List<Result>, int, boolean) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- postScannerNext(ObserverContext<RegionCoprocessorEnvironment>, InternalScanner, List<Result>, int, boolean) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after the client asks for the next row on a scanner.
- postScannerNext(InternalScanner, List<Result>, int, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postScannerOpen(ObserverContext<RegionCoprocessorEnvironment>, Scan, RegionScanner) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- postScannerOpen(ObserverContext<RegionCoprocessorEnvironment>, Scan, RegionScanner) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after the client opens a new scanner.
- postScannerOpen(Scan, RegionScanner) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postScannerOpen(ObserverContext<RegionCoprocessorEnvironment>, Scan, RegionScanner) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- postScannerOpen(ObserverContext<RegionCoprocessorEnvironment>, Scan, RegionScanner) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityController
-
- postSetNamespaceQuota(ObserverContext<MasterCoprocessorEnvironment>, String, QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postSetNamespaceQuota(ObserverContext<MasterCoprocessorEnvironment>, String, QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postSetNamespaceQuota(ObserverContext<MasterCoprocessorEnvironment>, String, QuotaProtos.Quotas) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the quota for the namespace is stored.
- postSetNamespaceQuota(String, QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postSetSplitOrMergeEnabled(ObserverContext<MasterCoprocessorEnvironment>, boolean, Admin.MasterSwitchType) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postSetSplitOrMergeEnabled(ObserverContext<MasterCoprocessorEnvironment>, boolean, Admin.MasterSwitchType) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postSetSplitOrMergeEnabled(ObserverContext<MasterCoprocessorEnvironment>, boolean, Admin.MasterSwitchType) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after setting split / merge switch
- postSetSplitOrMergeEnabled(boolean, Admin.MasterSwitchType) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postSetSplitOrMergeEnabled(ObserverContext<MasterCoprocessorEnvironment>, boolean, Admin.MasterSwitchType) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- postSetSplitOrMergeEnabled(ObserverContext<MasterCoprocessorEnvironment>, boolean, Admin.MasterSwitchType) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityController
-
- postSetTableQuota(ObserverContext<MasterCoprocessorEnvironment>, TableName, QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postSetTableQuota(ObserverContext<MasterCoprocessorEnvironment>, TableName, QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postSetTableQuota(ObserverContext<MasterCoprocessorEnvironment>, TableName, QuotaProtos.Quotas) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the quota for the table is stored.
- postSetTableQuota(TableName, QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postSetUserQuota(ObserverContext<MasterCoprocessorEnvironment>, String, QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postSetUserQuota(ObserverContext<MasterCoprocessorEnvironment>, String, TableName, QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postSetUserQuota(ObserverContext<MasterCoprocessorEnvironment>, String, String, QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postSetUserQuota(ObserverContext<MasterCoprocessorEnvironment>, String, QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postSetUserQuota(ObserverContext<MasterCoprocessorEnvironment>, String, TableName, QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postSetUserQuota(ObserverContext<MasterCoprocessorEnvironment>, String, String, QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postSetUserQuota(ObserverContext<MasterCoprocessorEnvironment>, String, QuotaProtos.Quotas) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the quota for the user is stored.
- postSetUserQuota(ObserverContext<MasterCoprocessorEnvironment>, String, TableName, QuotaProtos.Quotas) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the quota for the user on the specified table is stored.
- postSetUserQuota(ObserverContext<MasterCoprocessorEnvironment>, String, String, QuotaProtos.Quotas) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the quota for the user on the specified namespace is stored.
- postSetUserQuota(String, QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postSetUserQuota(String, TableName, QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postSetUserQuota(String, String, QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postSnapshot(ObserverContext<MasterCoprocessorEnvironment>, HBaseProtos.SnapshotDescription, HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postSnapshot(ObserverContext<MasterCoprocessorEnvironment>, HBaseProtos.SnapshotDescription, HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postSnapshot(ObserverContext<MasterCoprocessorEnvironment>, HBaseProtos.SnapshotDescription, HTableDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the snapshot operation has been requested.
- postSnapshot(HBaseProtos.SnapshotDescription, HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postSnapshotOperation() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
Perform tasks needed after the completion of snapshot operation.
- postSplit(ObserverContext<RegionCoprocessorEnvironment>, Region, Region) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- postSplit(ObserverContext<RegionCoprocessorEnvironment>, Region, Region) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
已过时。
Use postCompleteSplit() instead
- postSplit(Region, Region) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Invoked just after a split
- postStartMaster(ObserverContext<MasterCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postStartMaster(ObserverContext<MasterCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postStartMaster(ObserverContext<MasterCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called immediately after an active master instance has completed
initialization.
- postStartMaster() - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postStartMaster(ObserverContext<MasterCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- postStartMaster(ObserverContext<MasterCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityController
-
Master related hooks
- postStartRegionOperation(ObserverContext<RegionCoprocessorEnvironment>, Region.Operation) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- postStartRegionOperation(ObserverContext<RegionCoprocessorEnvironment>, Region.Operation) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
- postStartRegionOperation(Region.Operation) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postStoreFileReaderOpen(ObserverContext<RegionCoprocessorEnvironment>, FileSystem, Path, FSDataInputStreamWrapper, long, CacheConfig, Reference, StoreFile.Reader) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- postStoreFileReaderOpen(ObserverContext<RegionCoprocessorEnvironment>, FileSystem, Path, FSDataInputStreamWrapper, long, CacheConfig, Reference, StoreFile.Reader) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after the creation of Reader for a store file.
- postStoreFileReaderOpen(FileSystem, Path, FSDataInputStreamWrapper, long, CacheConfig, Reference, StoreFile.Reader) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postSync() - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureEnv.MasterProcedureStoreListener
-
- postSync(long, int) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.MetricsWAL
-
- postSync(long, int) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WALActionsListener.Base
-
- postSync(long, int) - 接口 中的方法org.apache.hadoop.hbase.regionserver.wal.WALActionsListener
-
For notification post writer sync.
- postTableFlush(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postTableFlush(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postTableFlush(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the table memstore is flushed to disk.
- postTableFlush(TableName) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postTruncateTable(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postTruncateTable(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postTruncateTable(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the truncateTable operation has been requested.
- postTruncateTable(TableName) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postTruncateTable(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- postTruncateTableHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postTruncateTableHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postTruncateTableHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after
HMaster truncates a
table.
- postTruncateTableHandler(TableName) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postUnassign(ObserverContext<MasterCoprocessorEnvironment>, HRegionInfo, boolean) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- postUnassign(ObserverContext<MasterCoprocessorEnvironment>, HRegionInfo, boolean) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- postUnassign(ObserverContext<MasterCoprocessorEnvironment>, HRegionInfo, boolean) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called after the region unassignment has been requested.
- postUnassign(HRegionInfo, boolean) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- postWALRestore(ObserverContext<? extends RegionCoprocessorEnvironment>, HRegionInfo, WALKey, WALEdit) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
Implementers should override this version of the method and leave the deprecated one as-is.
- postWALRestore(ObserverContext<RegionCoprocessorEnvironment>, HRegionInfo, HLogKey, WALEdit) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- postWALRestore(ObserverContext<? extends RegionCoprocessorEnvironment>, HRegionInfo, WALKey, WALEdit) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called after a
WALEdit
replayed for this region.
- postWALRestore(ObserverContext<RegionCoprocessorEnvironment>, HRegionInfo, HLogKey, WALEdit) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
- postWALRestore(HRegionInfo, WALKey, WALEdit) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postWALRestore(HRegionInfo, HLogKey, WALEdit) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- postWALRoll(ObserverContext<? extends WALCoprocessorEnvironment>, Path, Path) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseWALObserver
-
- postWALRoll(ObserverContext<? extends WALCoprocessorEnvironment>, Path, Path) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.WALObserver
-
Called after rolling the current WAL
- postWALRoll(Path, Path) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WALCoprocessorHost
-
Called after rolling the current WAL
- postWALWrite(ObserverContext<? extends WALCoprocessorEnvironment>, HRegionInfo, WALKey, WALEdit) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseWALObserver
-
Implementers should override this method and leave the deprecated version as-is.
- postWALWrite(ObserverContext<WALCoprocessorEnvironment>, HRegionInfo, HLogKey, WALEdit) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseWALObserver
-
- postWALWrite(ObserverContext<? extends WALCoprocessorEnvironment>, HRegionInfo, WALKey, WALEdit) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.WALObserver
-
Called after a
WALEdit
is writen to WAL.
- postWALWrite(ObserverContext<WALCoprocessorEnvironment>, HRegionInfo, HLogKey, WALEdit) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.WALObserver
-
- postWALWrite(HRegionInfo, WALKey, WALEdit) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WALCoprocessorHost
-
- preAbortProcedure(ObserverContext<MasterCoprocessorEnvironment>, ProcedureExecutor<MasterProcedureEnv>, long) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preAbortProcedure(ObserverContext<MasterCoprocessorEnvironment>, ProcedureExecutor<MasterProcedureEnv>, long) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preAbortProcedure(ObserverContext<MasterCoprocessorEnvironment>, ProcedureExecutor<MasterProcedureEnv>, long) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before a abortProcedure request has been processed.
- preAbortProcedure(ProcedureExecutor<MasterProcedureEnv>, long) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preAbortProcedure(ObserverContext<MasterCoprocessorEnvironment>, ProcedureExecutor<MasterProcedureEnv>, long) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- pread - 类 中的变量org.apache.hadoop.hbase.io.hfile.AbstractHFileReader.Scanner
-
- preAddColumn(ObserverContext<MasterCoprocessorEnvironment>, TableName, HColumnDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preAddColumn(ObserverContext<MasterCoprocessorEnvironment>, TableName, HColumnDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preAddColumn(ObserverContext<MasterCoprocessorEnvironment>, TableName, HColumnDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called prior to adding a new column family to the table.
- preAddColumn(TableName, HColumnDescriptor) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preAddColumn(ObserverContext<MasterCoprocessorEnvironment>, TableName, HColumnDescriptor) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preAddColumn(ObserverContext<MasterCoprocessorEnvironment>, TableName, HColumnDescriptor) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityController
-
- preAddColumnHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName, HColumnDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preAddColumnHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName, HColumnDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preAddColumnHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName, HColumnDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called prior to adding a new column family to the table.
- preAddColumnHandler(TableName, HColumnDescriptor) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preAddRSGroup(ObserverContext<MasterCoprocessorEnvironment>, String) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preAddRSGroup(ObserverContext<MasterCoprocessorEnvironment>, String) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preAddRSGroup(ObserverContext<MasterCoprocessorEnvironment>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before a new region server group is added
- preAddRSGroup(String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preAddRSGroup(ObserverContext<MasterCoprocessorEnvironment>, String) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preAppend(ObserverContext<RegionCoprocessorEnvironment>, Append) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- preAppend(ObserverContext<RegionCoprocessorEnvironment>, Append) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before Append.
- preAppend(Append) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- preAppend(ObserverContext<RegionCoprocessorEnvironment>, Append) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preAppend(ObserverContext<RegionCoprocessorEnvironment>, Append) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityController
-
- preAppendAfterRowLock(ObserverContext<RegionCoprocessorEnvironment>, Append) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- preAppendAfterRowLock(ObserverContext<RegionCoprocessorEnvironment>, Append) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before Append but after acquiring rowlock.
- preAppendAfterRowLock(Append) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- preAppendAfterRowLock(ObserverContext<RegionCoprocessorEnvironment>, Append) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preAssign(ObserverContext<MasterCoprocessorEnvironment>, HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preAssign(ObserverContext<MasterCoprocessorEnvironment>, HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preAssign(ObserverContext<MasterCoprocessorEnvironment>, HRegionInfo) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called prior to assigning a specific region.
- preAssign(HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preAssign(ObserverContext<MasterCoprocessorEnvironment>, HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preBalance(ObserverContext<MasterCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preBalance(ObserverContext<MasterCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preBalance(ObserverContext<MasterCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called prior to requesting rebalancing of the cluster regions, though after
the initial checks for regions in transition and the balance switch flag.
- preBalance() - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preBalance(ObserverContext<MasterCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preBalanceRSGroup(ObserverContext<MasterCoprocessorEnvironment>, String) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preBalanceRSGroup(ObserverContext<MasterCoprocessorEnvironment>, String) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preBalanceRSGroup(ObserverContext<MasterCoprocessorEnvironment>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before a region server group is removed
- preBalanceRSGroup(String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preBalanceRSGroup(ObserverContext<MasterCoprocessorEnvironment>, String) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preBalanceSwitch(ObserverContext<MasterCoprocessorEnvironment>, boolean) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preBalanceSwitch(ObserverContext<MasterCoprocessorEnvironment>, boolean) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preBalanceSwitch(ObserverContext<MasterCoprocessorEnvironment>, boolean) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called prior to modifying the flag used to enable/disable region balancing.
- preBalanceSwitch(boolean) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preBalanceSwitch(ObserverContext<MasterCoprocessorEnvironment>, boolean) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preBatchMutate(ObserverContext<RegionCoprocessorEnvironment>, MiniBatchOperationInProgress<Mutation>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- preBatchMutate(ObserverContext<RegionCoprocessorEnvironment>, MiniBatchOperationInProgress<Mutation>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
This will be called for every batch mutation operation happening at the server.
- preBatchMutate(HRegion, WALEdit) - 类 中的方法org.apache.hadoop.hbase.regionserver.BaseRowProcessor
-
- preBatchMutate(MiniBatchOperationInProgress<Mutation>) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- preBatchMutate(HRegion, WALEdit) - 接口 中的方法org.apache.hadoop.hbase.regionserver.RowProcessor
-
The hook to be executed after the process() but before applying the Mutations to region.
- preBatchMutate(ObserverContext<RegionCoprocessorEnvironment>, MiniBatchOperationInProgress<Mutation>) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preBatchMutate(ObserverContext<RegionCoprocessorEnvironment>, MiniBatchOperationInProgress<Mutation>) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityController
-
- preBatchMutate(ObserverContext<RegionCoprocessorEnvironment>, MiniBatchOperationInProgress<Mutation>) - 类 中的方法org.apache.hadoop.hbase.tool.WriteSinkCoprocessor
-
- preBulkLoadHFile(ObserverContext<RegionCoprocessorEnvironment>, List<Pair<byte[], String>>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- preBulkLoadHFile(ObserverContext<RegionCoprocessorEnvironment>, List<Pair<byte[], String>>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before bulkLoadHFile.
- preBulkLoadHFile(String, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- preBulkLoadHFile(List<Pair<byte[], String>>) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- preBulkLoadHFile(ObserverContext<RegionCoprocessorEnvironment>, List<Pair<byte[], String>>) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
Verifies user has CREATE privileges on
the Column Families involved in the bulkLoadHFile
request.
- preCheck(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
Check before the delete logic.
- preCheckAndDelete(ObserverContext<RegionCoprocessorEnvironment>, byte[], byte[], byte[], CompareFilter.CompareOp, ByteArrayComparable, Delete, boolean) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- preCheckAndDelete(ObserverContext<RegionCoprocessorEnvironment>, byte[], byte[], byte[], CompareFilter.CompareOp, ByteArrayComparable, Delete, boolean) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before checkAndDelete.
- preCheckAndDelete(byte[], byte[], byte[], CompareFilter.CompareOp, ByteArrayComparable, Delete) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- preCheckAndDelete(ObserverContext<RegionCoprocessorEnvironment>, byte[], byte[], byte[], CompareFilter.CompareOp, ByteArrayComparable, Delete, boolean) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preCheckAndDeleteAfterRowLock(ObserverContext<RegionCoprocessorEnvironment>, byte[], byte[], byte[], CompareFilter.CompareOp, ByteArrayComparable, Delete, boolean) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- preCheckAndDeleteAfterRowLock(ObserverContext<RegionCoprocessorEnvironment>, byte[], byte[], byte[], CompareFilter.CompareOp, ByteArrayComparable, Delete, boolean) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before checkAndDelete but after acquiring rowock.
- preCheckAndDeleteAfterRowLock(byte[], byte[], byte[], CompareFilter.CompareOp, ByteArrayComparable, Delete) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- preCheckAndDeleteAfterRowLock(ObserverContext<RegionCoprocessorEnvironment>, byte[], byte[], byte[], CompareFilter.CompareOp, ByteArrayComparable, Delete, boolean) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preCheckAndPut(ObserverContext<RegionCoprocessorEnvironment>, byte[], byte[], byte[], CompareFilter.CompareOp, ByteArrayComparable, Put, boolean) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- preCheckAndPut(ObserverContext<RegionCoprocessorEnvironment>, byte[], byte[], byte[], CompareFilter.CompareOp, ByteArrayComparable, Put, boolean) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before checkAndPut.
- preCheckAndPut(byte[], byte[], byte[], CompareFilter.CompareOp, ByteArrayComparable, Put) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- preCheckAndPut(ObserverContext<RegionCoprocessorEnvironment>, byte[], byte[], byte[], CompareFilter.CompareOp, ByteArrayComparable, Put, boolean) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preCheckAndPutAfterRowLock(ObserverContext<RegionCoprocessorEnvironment>, byte[], byte[], byte[], CompareFilter.CompareOp, ByteArrayComparable, Put, boolean) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- preCheckAndPutAfterRowLock(ObserverContext<RegionCoprocessorEnvironment>, byte[], byte[], byte[], CompareFilter.CompareOp, ByteArrayComparable, Put, boolean) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before checkAndPut but after acquiring rowlock.
- preCheckAndPutAfterRowLock(byte[], byte[], byte[], CompareFilter.CompareOp, ByteArrayComparable, Put) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- preCheckAndPutAfterRowLock(ObserverContext<RegionCoprocessorEnvironment>, byte[], byte[], byte[], CompareFilter.CompareOp, ByteArrayComparable, Put, boolean) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preCleanupBulkLoad(ObserverContext<RegionCoprocessorEnvironment>, SecureBulkLoadProtos.CleanupBulkLoadRequest) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.BulkLoadObserver
-
Called as part of SecureBulkLoadEndpoint.cleanupBulkLoad() RPC call.
- preCleanupBulkLoad(ObserverContext<RegionCoprocessorEnvironment>, SecureBulkLoadProtos.CleanupBulkLoadRequest) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
Authorization security check for
SecureBulkLoadProtocol.cleanupBulkLoad()
- preClearDeadServers(ObserverContext<MasterCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preClearDeadServers(ObserverContext<MasterCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preClearDeadServers(ObserverContext<MasterCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before clear dead region servers.
- preClearDeadServers() - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preClearDeadServers(ObserverContext<MasterCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preCloneSnapshot(ObserverContext<MasterCoprocessorEnvironment>, HBaseProtos.SnapshotDescription, HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preCloneSnapshot(ObserverContext<MasterCoprocessorEnvironment>, HBaseProtos.SnapshotDescription, HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preCloneSnapshot(ObserverContext<MasterCoprocessorEnvironment>, HBaseProtos.SnapshotDescription, HTableDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before a snapshot is cloned.
- preCloneSnapshot(HBaseProtos.SnapshotDescription, HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preCloneSnapshot(ObserverContext<MasterCoprocessorEnvironment>, HBaseProtos.SnapshotDescription, HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preClose(ObserverContext<RegionCoprocessorEnvironment>, boolean) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- preClose(ObserverContext<RegionCoprocessorEnvironment>, boolean) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before the region is reported as closed to the master.
- preClose(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Invoked before a region is closed
- preClose(ObserverContext<RegionCoprocessorEnvironment>, boolean) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preCloseWriter(StoreFile.Writer) - 类 中的方法org.apache.hadoop.hbase.regionserver.AbstractMultiFileWriter
-
Subclasses override this method to be called before we close the give writer.
- preCloseWriter(StoreFile.Writer) - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeMultiFileWriter
-
- preCommitStoreFile(ObserverContext<RegionCoprocessorEnvironment>, byte[], List<Pair<Path, Path>>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- preCommitStoreFile(ObserverContext<RegionCoprocessorEnvironment>, byte[], List<Pair<Path, Path>>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before moving bulk loaded hfile to region directory.
- preCommitStoreFile(byte[], List<Pair<Path, Path>>) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- preCommitStoreFile(ObserverContext<RegionCoprocessorEnvironment>, byte[], List<Pair<Path, Path>>) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationObserver
-
- preCommitWriters() - 类 中的方法org.apache.hadoop.hbase.regionserver.AbstractMultiFileWriter
-
Subclasses override this method to be called at the end of a successful sequence of append; all
appends are processed before this method is called.
- preCommitWriters() - 类 中的方法org.apache.hadoop.hbase.regionserver.DateTieredMultiFileWriter
-
- preCommitWriters() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeMultiFileWriter
-
- preCommitWritersInternal() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeMultiFileWriter.BoundaryMultiWriter
-
- preCommitWritersInternal() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeMultiFileWriter
-
- preCommitWritersInternal() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeMultiFileWriter.SizeMultiWriter
-
- preCompact(ObserverContext<RegionCoprocessorEnvironment>, Store, InternalScanner, ScanType) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- preCompact(ObserverContext<RegionCoprocessorEnvironment>, Store, InternalScanner, ScanType, CompactionRequest) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- preCompact(ObserverContext<RegionCoprocessorEnvironment>, Store, InternalScanner, ScanType, CompactionRequest) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called prior to writing the
StoreFiles selected for compaction into a new
StoreFile.
- preCompact(ObserverContext<RegionCoprocessorEnvironment>, Store, InternalScanner, ScanType) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
- preCompact(Store, InternalScanner, ScanType, CompactionRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Called prior to rewriting the store files selected for compaction
- preCompact(ObserverContext<RegionCoprocessorEnvironment>, Store, InternalScanner, ScanType) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preCompactScannerOpen(ObserverContext<RegionCoprocessorEnvironment>, Store, List<? extends KeyValueScanner>, ScanType, long, InternalScanner) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- preCompactScannerOpen(ObserverContext<RegionCoprocessorEnvironment>, Store, List<? extends KeyValueScanner>, ScanType, long, InternalScanner, CompactionRequest) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- preCompactScannerOpen(ObserverContext<RegionCoprocessorEnvironment>, Store, List<? extends KeyValueScanner>, ScanType, long, InternalScanner, CompactionRequest, long) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- preCompactScannerOpen(ObserverContext<RegionCoprocessorEnvironment>, Store, List<? extends KeyValueScanner>, ScanType, long, InternalScanner, CompactionRequest) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
- preCompactScannerOpen(ObserverContext<RegionCoprocessorEnvironment>, Store, List<? extends KeyValueScanner>, ScanType, long, InternalScanner, CompactionRequest, long) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called prior to writing the
StoreFiles selected for compaction into a new
StoreFile and prior to creating the scanner used to read the input files.
- preCompactScannerOpen(ObserverContext<RegionCoprocessorEnvironment>, Store, List<? extends KeyValueScanner>, ScanType, long, InternalScanner) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
- preCompactScannerOpen(Store, List<StoreFileScanner>, ScanType, long, CompactionRequest, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- preCompactSelection(ObserverContext<RegionCoprocessorEnvironment>, Store, List<StoreFile>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- preCompactSelection(ObserverContext<RegionCoprocessorEnvironment>, Store, List<StoreFile>, CompactionRequest) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- preCompactSelection(ObserverContext<RegionCoprocessorEnvironment>, Store, List<StoreFile>, CompactionRequest) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called prior to selecting the
StoreFiles to compact from the list of
available candidates.
- preCompactSelection(ObserverContext<RegionCoprocessorEnvironment>, Store, List<StoreFile>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
- preCompactSelection(Store, List<StoreFile>, CompactionRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Called prior to selecting the
StoreFiles for compaction from the list of currently
available candidates.
- preCreateCoprocScanner(CompactionRequest, ScanType, long, List<StoreFileScanner>, User, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.Compactor
-
Calls coprocessor, if any, to create compaction scanner - before normal scanner creation.
- preCreateNamespace(ObserverContext<MasterCoprocessorEnvironment>, NamespaceDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preCreateNamespace(ObserverContext<MasterCoprocessorEnvironment>, NamespaceDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preCreateNamespace(ObserverContext<MasterCoprocessorEnvironment>, NamespaceDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before a new namespace is created by
HMaster.
- preCreateNamespace(NamespaceDescriptor) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preCreateNamespace(ObserverContext<MasterCoprocessorEnvironment>, NamespaceDescriptor) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preCreateTable(ObserverContext<MasterCoprocessorEnvironment>, HTableDescriptor, HRegionInfo[]) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preCreateTable(ObserverContext<MasterCoprocessorEnvironment>, HTableDescriptor, HRegionInfo[]) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preCreateTable(ObserverContext<MasterCoprocessorEnvironment>, HTableDescriptor, HRegionInfo[]) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before a new table is created by
HMaster.
- preCreateTable(HTableDescriptor, HRegionInfo[]) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preCreateTable(ObserverContext<MasterCoprocessorEnvironment>, HTableDescriptor, HRegionInfo[]) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preCreateTableHandler(ObserverContext<MasterCoprocessorEnvironment>, HTableDescriptor, HRegionInfo[]) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preCreateTableHandler(ObserverContext<MasterCoprocessorEnvironment>, HTableDescriptor, HRegionInfo[]) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preCreateTableHandler(ObserverContext<MasterCoprocessorEnvironment>, HTableDescriptor, HRegionInfo[]) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before a new table is created by
HMaster.
- preCreateTableHandler(HTableDescriptor, HRegionInfo[]) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preDelete(ObserverContext<RegionCoprocessorEnvironment>, Delete, WALEdit, Durability) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- preDelete(ObserverContext<RegionCoprocessorEnvironment>, Delete, WALEdit, Durability) - 类 中的方法org.apache.hadoop.hbase.coprocessor.MetaTableMetrics
-
- preDelete(ObserverContext<RegionCoprocessorEnvironment>, Delete, WALEdit, Durability) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before the client deletes a value.
- preDelete(Delete, WALEdit, Durability) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- preDelete(ObserverContext<RegionCoprocessorEnvironment>, Delete, WALEdit, Durability) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preDeleteColumn(ObserverContext<MasterCoprocessorEnvironment>, TableName, byte[]) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preDeleteColumn(ObserverContext<MasterCoprocessorEnvironment>, TableName, byte[]) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preDeleteColumn(ObserverContext<MasterCoprocessorEnvironment>, TableName, byte[]) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called prior to deleting the entire column family.
- preDeleteColumn(TableName, byte[]) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preDeleteColumn(ObserverContext<MasterCoprocessorEnvironment>, TableName, byte[]) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preDeleteColumn(ObserverContext<MasterCoprocessorEnvironment>, TableName, byte[]) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityController
-
- preDeleteColumnHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName, byte[]) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preDeleteColumnHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName, byte[]) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preDeleteColumnHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName, byte[]) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called prior to deleting the entire column family.
- preDeleteColumnHandler(TableName, byte[]) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preDeleteNamespace(ObserverContext<MasterCoprocessorEnvironment>, String) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preDeleteNamespace(ObserverContext<MasterCoprocessorEnvironment>, String) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preDeleteNamespace(ObserverContext<MasterCoprocessorEnvironment>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before
HMaster deletes a
namespace
It can't bypass the default action, e.g., ctx.bypass() won't have effect.
- preDeleteNamespace(String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preDeleteNamespace(ObserverContext<MasterCoprocessorEnvironment>, String) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preDeleteSnapshot(ObserverContext<MasterCoprocessorEnvironment>, HBaseProtos.SnapshotDescription) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preDeleteSnapshot(ObserverContext<MasterCoprocessorEnvironment>, HBaseProtos.SnapshotDescription) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preDeleteSnapshot(ObserverContext<MasterCoprocessorEnvironment>, HBaseProtos.SnapshotDescription) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before a snapshot is deleted.
- preDeleteSnapshot(HBaseProtos.SnapshotDescription) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preDeleteSnapshot(ObserverContext<MasterCoprocessorEnvironment>, HBaseProtos.SnapshotDescription) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preDeleteTable(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preDeleteTable(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preDeleteTable(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before
HMaster deletes a
table.
- preDeleteTable(TableName) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preDeleteTable(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preDeleteTableHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preDeleteTableHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preDeleteTableHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before
HMaster deletes a
table.
- preDeleteTableHandler(TableName) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preDisable(MasterProcedureEnv, MasterProcedureProtos.DisableTableState) - 类 中的方法org.apache.hadoop.hbase.master.procedure.DisableTableProcedure
-
Action before disabling table.
- preDisableTable(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preDisableTable(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preDisableTable(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called prior to disabling a table.
- preDisableTable(TableName) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preDisableTable(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preDisableTable(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityController
-
- preDisableTableHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preDisableTableHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preDisableTableHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called prior to disabling a table.
- preDisableTableHandler(TableName) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preDispatchMerge(ObserverContext<MasterCoprocessorEnvironment>, HRegionInfo, HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preDispatchMerge(ObserverContext<MasterCoprocessorEnvironment>, HRegionInfo, HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preDispatchMerge(ObserverContext<MasterCoprocessorEnvironment>, HRegionInfo, HRegionInfo) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before dispatching region merge request.
- preDispatchMerge(HRegionInfo, HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preDispatchMerge(ObserverContext<MasterCoprocessorEnvironment>, HRegionInfo, HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preEnableTable(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preEnableTable(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preEnableTable(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called prior to enabling a table.
- preEnableTable(TableName) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preEnableTable(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preEnableTableHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preEnableTableHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preEnableTableHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called prior to enabling a table.
- preEnableTableHandler(TableName) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preEndpointInvocation(ObserverContext<RegionCoprocessorEnvironment>, Service, String, Message) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.EndpointObserver
-
Called before an Endpoint service method is invoked.
- preEndpointInvocation(Service, String, Message) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- preEndpointInvocation(ObserverContext<RegionCoprocessorEnvironment>, Service, String, Message) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preExists(ObserverContext<RegionCoprocessorEnvironment>, Get, boolean) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- preExists(ObserverContext<RegionCoprocessorEnvironment>, Get, boolean) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before the client tests for existence using a Get.
- preExists(Get) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- preExists(ObserverContext<RegionCoprocessorEnvironment>, Get, boolean) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- PREFETCH_BLOCKS_ON_OPEN_KEY - 类 中的静态变量org.apache.hadoop.hbase.io.hfile.CacheConfig
-
Configuration key to prefetch all blocks of a given file into the block cache
when the file is opened.
- PrefetchExecutor - org.apache.hadoop.hbase.io.hfile中的类
-
- PrefetchExecutor() - 类 的构造器org.apache.hadoop.hbase.io.hfile.PrefetchExecutor
-
- PREFIX_LENGTH_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.KeyPrefixRegionSplitPolicy
-
- PREFIX_LENGTH_KEY_DEPRECATED - 类 中的静态变量org.apache.hadoop.hbase.regionserver.KeyPrefixRegionSplitPolicy
-
已过时。
- preFlush(ObserverContext<RegionCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- preFlush(ObserverContext<RegionCoprocessorEnvironment>, Store, InternalScanner) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- preFlush(ObserverContext<RegionCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
- preFlush(ObserverContext<RegionCoprocessorEnvironment>, Store, InternalScanner) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before a Store's memstore is flushed to disk.
- preFlush(Store, InternalScanner) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Invoked before a memstore flush
- preFlush() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Invoked before a memstore flush
- preFlush(ObserverContext<RegionCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preFlushScannerOpen(ObserverContext<RegionCoprocessorEnvironment>, Store, KeyValueScanner, InternalScanner) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- preFlushScannerOpen(ObserverContext<RegionCoprocessorEnvironment>, Store, KeyValueScanner, InternalScanner, long) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- preFlushScannerOpen(ObserverContext<RegionCoprocessorEnvironment>, Store, KeyValueScanner, InternalScanner) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
- preFlushScannerOpen(ObserverContext<RegionCoprocessorEnvironment>, Store, KeyValueScanner, InternalScanner, long) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before a memstore is flushed to disk and prior to creating the scanner to read from
the memstore.
- preFlushScannerOpen(Store, KeyValueScanner, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- preGet(Get, List<Cell>) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- preGetClosestRowBefore(ObserverContext<RegionCoprocessorEnvironment>, byte[], byte[], Result) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- preGetClosestRowBefore(ObserverContext<RegionCoprocessorEnvironment>, byte[], byte[], Result) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before a client makes a GetClosestRowBefore request.
- preGetClosestRowBefore(byte[], byte[], Result) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- preGetClosestRowBefore(ObserverContext<RegionCoprocessorEnvironment>, byte[], byte[], Result) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preGetClusterStatus(ObserverContext<MasterCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preGetClusterStatus(ObserverContext<MasterCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preGetClusterStatus(ObserverContext<MasterCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before get cluster status.
- preGetClusterStatus() - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preGetNamespaceDescriptor(ObserverContext<MasterCoprocessorEnvironment>, String) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preGetNamespaceDescriptor(ObserverContext<MasterCoprocessorEnvironment>, String) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preGetNamespaceDescriptor(ObserverContext<MasterCoprocessorEnvironment>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before a getNamespaceDescriptor request has been processed.
- preGetNamespaceDescriptor(String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preGetNamespaceDescriptor(ObserverContext<MasterCoprocessorEnvironment>, String) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preGetOp(ObserverContext<RegionCoprocessorEnvironment>, Get, List<Cell>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- preGetOp(ObserverContext<RegionCoprocessorEnvironment>, Get, List<Cell>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.MetaTableMetrics
-
- preGetOp(ObserverContext<RegionCoprocessorEnvironment>, Get, List<Cell>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before the client performs a Get
Call CoprocessorEnvironment#bypass to skip default actions
Call CoprocessorEnvironment#complete to skip any subsequent chained
coprocessors
- preGetOp(ObserverContext<RegionCoprocessorEnvironment>, Get, List<Cell>) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preGetOp(ObserverContext<RegionCoprocessorEnvironment>, Get, List<Cell>) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityController
-
- preGetTableDescriptors(ObserverContext<MasterCoprocessorEnvironment>, List<TableName>, List<HTableDescriptor>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preGetTableDescriptors(ObserverContext<MasterCoprocessorEnvironment>, List<TableName>, List<HTableDescriptor>, String) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preGetTableDescriptors(ObserverContext<MasterCoprocessorEnvironment>, List<TableName>, List<HTableDescriptor>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preGetTableDescriptors(ObserverContext<MasterCoprocessorEnvironment>, List<TableName>, List<HTableDescriptor>, String) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preGetTableDescriptors(ObserverContext<MasterCoprocessorEnvironment>, List<TableName>, List<HTableDescriptor>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
已过时。
Use preGetTableDescriptors with regex instead.
- preGetTableDescriptors(ObserverContext<MasterCoprocessorEnvironment>, List<TableName>, List<HTableDescriptor>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before a getTableDescriptors request has been processed.
- preGetTableDescriptors(List<TableName>, List<HTableDescriptor>) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
已过时。
- preGetTableDescriptors(List<TableName>, List<HTableDescriptor>, String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preGetTableDescriptors(ObserverContext<MasterCoprocessorEnvironment>, List<TableName>, List<HTableDescriptor>, String) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preGetTableNames(ObserverContext<MasterCoprocessorEnvironment>, List<HTableDescriptor>, String) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preGetTableNames(ObserverContext<MasterCoprocessorEnvironment>, List<HTableDescriptor>, String) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preGetTableNames(ObserverContext<MasterCoprocessorEnvironment>, List<HTableDescriptor>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before a getTableNames request has been processed.
- preGetTableNames(List<HTableDescriptor>, String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preIncrement(ObserverContext<RegionCoprocessorEnvironment>, Increment) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- preIncrement(ObserverContext<RegionCoprocessorEnvironment>, Increment) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before Increment.
- preIncrement(Increment) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- preIncrement(ObserverContext<RegionCoprocessorEnvironment>, Increment) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preIncrement(ObserverContext<RegionCoprocessorEnvironment>, Increment) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityController
-
- preIncrementAfterRowLock(ObserverContext<RegionCoprocessorEnvironment>, Increment) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- preIncrementAfterRowLock(ObserverContext<RegionCoprocessorEnvironment>, Increment) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before Increment but after acquiring rowlock.
- preIncrementAfterRowLock(Increment) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- preIncrementAfterRowLock(ObserverContext<RegionCoprocessorEnvironment>, Increment) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preIncrementColumnValue(ObserverContext<RegionCoprocessorEnvironment>, byte[], byte[], byte[], long, boolean) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- preIncrementColumnValue(ObserverContext<RegionCoprocessorEnvironment>, byte[], byte[], byte[], long, boolean) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
已过时。
This hook is no longer called by the RegionServer
- preIncrementColumnValue(ObserverContext<RegionCoprocessorEnvironment>, byte[], byte[], byte[], long, boolean) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preListNamespaceDescriptors(ObserverContext<MasterCoprocessorEnvironment>, List<NamespaceDescriptor>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preListNamespaceDescriptors(ObserverContext<MasterCoprocessorEnvironment>, List<NamespaceDescriptor>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preListNamespaceDescriptors(ObserverContext<MasterCoprocessorEnvironment>, List<NamespaceDescriptor>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before a listNamespaceDescriptors request has been processed.
- preListNamespaceDescriptors(List<NamespaceDescriptor>) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preListProcedures(ObserverContext<MasterCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preListProcedures(ObserverContext<MasterCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preListProcedures(ObserverContext<MasterCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before a listProcedures request has been processed.
- preListProcedures() - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preListProcedures(ObserverContext<MasterCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preListSnapshot(ObserverContext<MasterCoprocessorEnvironment>, HBaseProtos.SnapshotDescription) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preListSnapshot(ObserverContext<MasterCoprocessorEnvironment>, HBaseProtos.SnapshotDescription) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preListSnapshot(ObserverContext<MasterCoprocessorEnvironment>, HBaseProtos.SnapshotDescription) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before listSnapshots request has been processed.
- preListSnapshot(HBaseProtos.SnapshotDescription) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preListSnapshot(ObserverContext<MasterCoprocessorEnvironment>, HBaseProtos.SnapshotDescription) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preLogArchive(Path, Path) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WALActionsListener.Base
-
- preLogArchive(Path, Path) - 接口 中的方法org.apache.hadoop.hbase.regionserver.wal.WALActionsListener
-
The WAL is going to be archived.
- preLogRoll(Path, Path) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WALActionsListener.Base
-
- preLogRoll(Path, Path) - 接口 中的方法org.apache.hadoop.hbase.regionserver.wal.WALActionsListener
-
The WAL is going to be rolled.
- preLogRoll(Path, Path) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.Replication
-
- preMasterInitialization(ObserverContext<MasterCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preMasterInitialization(ObserverContext<MasterCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preMasterInitialization(ObserverContext<MasterCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Call before the master initialization is set to true.
- preMasterInitialization() - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preMerge(ObserverContext<RegionServerCoprocessorEnvironment>, Region, Region) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionServerObserver
-
- preMerge(ObserverContext<RegionServerCoprocessorEnvironment>, Region, Region) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionServerObserver
-
Called before the regions merge.
- preMerge(HRegion, HRegion) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerCoprocessorHost
-
- preMerge(ObserverContext<RegionServerCoprocessorEnvironment>, Region, Region) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preMergeCommit(ObserverContext<RegionServerCoprocessorEnvironment>, Region, Region, List<Mutation>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionServerObserver
-
- preMergeCommit(ObserverContext<RegionServerCoprocessorEnvironment>, Region, Region, List<Mutation>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionServerObserver
-
This will be called before PONR step as part of regions merge transaction.
- preMergeCommit(HRegion, HRegion, List<Mutation>) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerCoprocessorHost
-
- preMergeCommit(ObserverContext<RegionServerCoprocessorEnvironment>, Region, Region, List<Mutation>) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preModifyColumn(ObserverContext<MasterCoprocessorEnvironment>, TableName, HColumnDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preModifyColumn(ObserverContext<MasterCoprocessorEnvironment>, TableName, HColumnDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preModifyColumn(ObserverContext<MasterCoprocessorEnvironment>, TableName, HColumnDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called prior to modifying a column family's attributes.
- preModifyColumn(TableName, HColumnDescriptor) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preModifyColumn(ObserverContext<MasterCoprocessorEnvironment>, TableName, HColumnDescriptor) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preModifyColumn(ObserverContext<MasterCoprocessorEnvironment>, TableName, HColumnDescriptor) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityController
-
- preModifyColumnHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName, HColumnDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preModifyColumnHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName, HColumnDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preModifyColumnHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName, HColumnDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called prior to modifying a column family's attributes.
- preModifyColumnHandler(TableName, HColumnDescriptor) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preModifyNamespace(ObserverContext<MasterCoprocessorEnvironment>, NamespaceDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preModifyNamespace(ObserverContext<MasterCoprocessorEnvironment>, NamespaceDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preModifyNamespace(ObserverContext<MasterCoprocessorEnvironment>, NamespaceDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called prior to modifying a namespace's properties.
- preModifyNamespace(NamespaceDescriptor) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preModifyNamespace(ObserverContext<MasterCoprocessorEnvironment>, NamespaceDescriptor) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preModifyTable(ObserverContext<MasterCoprocessorEnvironment>, TableName, HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preModifyTable(ObserverContext<MasterCoprocessorEnvironment>, TableName, HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preModifyTable(ObserverContext<MasterCoprocessorEnvironment>, TableName, HTableDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called prior to modifying a table's properties.
- preModifyTable(TableName, HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preModifyTable(ObserverContext<MasterCoprocessorEnvironment>, TableName, HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preModifyTable(ObserverContext<MasterCoprocessorEnvironment>, TableName, HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityController
-
- preModifyTableHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName, HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preModifyTableHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName, HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preModifyTableHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName, HTableDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called prior to modifying a table's properties.
- preModifyTableHandler(TableName, HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preMove(ObserverContext<MasterCoprocessorEnvironment>, HRegionInfo, ServerName, ServerName) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preMove(ObserverContext<MasterCoprocessorEnvironment>, HRegionInfo, ServerName, ServerName) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preMove(ObserverContext<MasterCoprocessorEnvironment>, HRegionInfo, ServerName, ServerName) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called prior to moving a given region from one region server to another.
- preMove(HRegionInfo, ServerName, ServerName) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preMove(ObserverContext<MasterCoprocessorEnvironment>, HRegionInfo, ServerName, ServerName) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preMoveServers(ObserverContext<MasterCoprocessorEnvironment>, Set<Address>, String) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preMoveServers(ObserverContext<MasterCoprocessorEnvironment>, Set<Address>, String) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preMoveServers(ObserverContext<MasterCoprocessorEnvironment>, Set<Address>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before servers are moved to target region server group
- preMoveServers(Set<Address>, String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preMoveServers(ObserverContext<MasterCoprocessorEnvironment>, Set<Address>, String) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preMoveServersAndTables(ObserverContext<MasterCoprocessorEnvironment>, Set<Address>, Set<TableName>, String) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preMoveServersAndTables(ObserverContext<MasterCoprocessorEnvironment>, Set<Address>, Set<TableName>, String) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preMoveServersAndTables(ObserverContext<MasterCoprocessorEnvironment>, Set<Address>, Set<TableName>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before servers are moved to target region server group
- preMoveServersAndTables(Set<Address>, Set<TableName>, String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preMoveServersAndTables(ObserverContext<MasterCoprocessorEnvironment>, Set<Address>, Set<TableName>, String) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preMoveTables(ObserverContext<MasterCoprocessorEnvironment>, Set<TableName>, String) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preMoveTables(ObserverContext<MasterCoprocessorEnvironment>, Set<TableName>, String) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preMoveTables(ObserverContext<MasterCoprocessorEnvironment>, Set<TableName>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before tables are moved to target region server group
- preMoveTables(Set<TableName>, String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preMoveTables(ObserverContext<MasterCoprocessorEnvironment>, Set<TableName>, String) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preOpen(ObserverContext<RegionCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- preOpen(ObserverContext<RegionCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before the region is reported as open to the master.
- preOpen() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Invoked before a region open.
- preOpen(ObserverContext<RegionCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preOpen(ObserverContext<RegionCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.tool.WriteSinkCoprocessor
-
- prepare(E) - 类 中的方法org.apache.hadoop.hbase.coprocessor.ObserverContext
-
- prepare() - 类 中的方法org.apache.hadoop.hbase.executor.EventHandler
-
Event handlers should do all the necessary checks in this method (rather than
in the constructor, or in process()) so that the caller, which is mostly executed
in the ipc context can fail fast.
- prepare() - 类 中的方法org.apache.hadoop.hbase.master.handler.CreateTableHandler
-
- prepare() - 类 中的方法org.apache.hadoop.hbase.master.handler.DisableTableHandler
-
- prepare() - 类 中的方法org.apache.hadoop.hbase.master.handler.EnableTableHandler
-
- prepare() - 类 中的方法org.apache.hadoop.hbase.master.handler.TableEventHandler
-
- prepare() - 类 中的方法org.apache.hadoop.hbase.master.snapshot.CloneSnapshotHandler
-
- prepare() - 类 中的方法org.apache.hadoop.hbase.master.snapshot.DisabledTableSnapshotHandler
-
- prepare() - 类 中的方法org.apache.hadoop.hbase.master.snapshot.EnabledTableSnapshotHandler
-
- prepare() - 类 中的方法org.apache.hadoop.hbase.master.snapshot.RestoreSnapshotHandler
-
- prepare() - 类 中的方法org.apache.hadoop.hbase.master.snapshot.TakeSnapshotHandler
-
- prepare(RegionServerServices) - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionMergeTransaction
-
Check merge inputs and prepare the transaction.
- prepare(RegionServerServices) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionMergeTransactionImpl
-
Does checks on merge inputs.
- prepare() - 接口 中的方法org.apache.hadoop.hbase.regionserver.SplitTransaction
-
Check split inputs and prepare the transaction.
- prepare() - 类 中的方法org.apache.hadoop.hbase.regionserver.SplitTransactionImpl
-
Does checks on split inputs.
- prepareBulkLoad(byte[], String) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region.BulkLoadListener
-
Called before an HFile is actually loaded
- prepareBulkLoad(RpcController, SecureBulkLoadProtos.PrepareBulkLoadRequest, RpcCallback<SecureBulkLoadProtos.PrepareBulkLoadResponse>) - 类 中的方法org.apache.hadoop.hbase.security.access.SecureBulkLoadEndpoint
-
- prepareDelete(Delete) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- prepareDelete(Delete) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Prepare a delete for a row mutation processor
- prepareDeleteTimestamps(Mutation, Map<byte[], List<Cell>>, byte[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- prepareDeleteTimestamps(Mutation, Map<byte[], List<Cell>>, byte[]) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Set up correct timestamps in the KVs in Delete object.
- prepareForBlockReader(boolean) - 类 中的方法org.apache.hadoop.hbase.io.FSDataInputStreamWrapper
-
Prepares the streams for block reader.
- prepareHFileQueue(Path, Table, Deque<LoadIncrementalHFiles.LoadQueueItem>, boolean) - 类 中的方法org.apache.hadoop.hbase.mapreduce.LoadIncrementalHFiles
-
Prepare a collection of
LoadIncrementalHFiles.LoadQueueItem from list of source hfiles contained in the
passed directory and validates whether the prepared queue has all the valid table column
families in it.
- prepareLogReplay(ServerName, Set<HRegionInfo>) - 类 中的方法org.apache.hadoop.hbase.master.MasterFileSystem
-
Mark regions in recovering state when distributedLogReplay are set true
- prepareMutationsForMerge(HRegionInfo, HRegionInfo, HRegionInfo, ServerName, List<Mutation>, int) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionMergeTransactionImpl
-
- prepareTask(String) - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogManagerCoordination
-
Prepare the new task
- prepareTask(String) - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination
-
- prepareToSplit() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Give the region a chance to prepare before it is split.
- prepareWithTableLock() - 类 中的方法org.apache.hadoop.hbase.master.handler.TableEventHandler
-
Called from prepare() while holding the table lock.
- prePrepareBulkLoad(ObserverContext<RegionCoprocessorEnvironment>, SecureBulkLoadProtos.PrepareBulkLoadRequest) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.BulkLoadObserver
-
Called as part of SecureBulkLoadEndpoint.prepareBulkLoad() RPC call.
- prePrepareBulkLoad(ObserverContext<RegionCoprocessorEnvironment>, SecureBulkLoadProtos.PrepareBulkLoadRequest) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
Authorization check for
SecureBulkLoadProtocol.prepareBulkLoad()
- prePrepareTimeStampForDeleteVersion(ObserverContext<RegionCoprocessorEnvironment>, Mutation, Cell, byte[], Get) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- prePrepareTimeStampForDeleteVersion(ObserverContext<RegionCoprocessorEnvironment>, Mutation, Cell, byte[], Get) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before the server updates the timestamp for version delete with latest timestamp.
- prePrepareTimeStampForDeleteVersion(Mutation, Cell, byte[], Get) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- prePrepareTimeStampForDeleteVersion(ObserverContext<RegionCoprocessorEnvironment>, Mutation, Cell, byte[], Get) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityController
-
- preProcess(HRegion, WALEdit) - 类 中的方法org.apache.hadoop.hbase.regionserver.BaseRowProcessor
-
- preProcess(HRegion, WALEdit) - 接口 中的方法org.apache.hadoop.hbase.regionserver.RowProcessor
-
The hook to be executed before process().
- prePut(ObserverContext<RegionCoprocessorEnvironment>, Put, WALEdit, Durability) - 类 中的方法org.apache.hadoop.hbase.constraint.ConstraintProcessor
-
- prePut(ObserverContext<RegionCoprocessorEnvironment>, Put, WALEdit, Durability) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- prePut(ObserverContext<RegionCoprocessorEnvironment>, Put, WALEdit, Durability) - 类 中的方法org.apache.hadoop.hbase.coprocessor.MetaTableMetrics
-
- prePut(ObserverContext<RegionCoprocessorEnvironment>, Put, WALEdit, Durability) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before the client stores a value.
- prePut(Put, WALEdit, Durability) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- prePut(ObserverContext<RegionCoprocessorEnvironment>, Put, WALEdit, Durability) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preRegionOffline(ObserverContext<MasterCoprocessorEnvironment>, HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preRegionOffline(ObserverContext<MasterCoprocessorEnvironment>, HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preRegionOffline(ObserverContext<MasterCoprocessorEnvironment>, HRegionInfo) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called prior to marking a given region as offline.
- preRegionOffline(HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preRegionOffline(ObserverContext<MasterCoprocessorEnvironment>, HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preRemoveRSGroup(ObserverContext<MasterCoprocessorEnvironment>, String) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preRemoveRSGroup(ObserverContext<MasterCoprocessorEnvironment>, String) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preRemoveRSGroup(ObserverContext<MasterCoprocessorEnvironment>, String) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before a region server group is removed
- preRemoveRSGroup(String) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preRemoveRSGroup(ObserverContext<MasterCoprocessorEnvironment>, String) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preRemoveServers(ObserverContext<MasterCoprocessorEnvironment>, Set<Address>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preRemoveServers(ObserverContext<MasterCoprocessorEnvironment>, Set<Address>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preRemoveServers(ObserverContext<MasterCoprocessorEnvironment>, Set<Address>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before servers are removed from rsgroup
- preRemoveServers(Set<Address>) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preRemoveServers(ObserverContext<MasterCoprocessorEnvironment>, Set<Address>) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preReplicateLogEntries(ObserverContext<RegionServerCoprocessorEnvironment>, List<AdminProtos.WALEntry>, CellScanner) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionServerObserver
-
- preReplicateLogEntries(ObserverContext<RegionServerCoprocessorEnvironment>, List<AdminProtos.WALEntry>, CellScanner) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionServerObserver
-
This will be called before executing replication request to shipping log entries.
- preReplicateLogEntries(List<AdminProtos.WALEntry>, CellScanner) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerCoprocessorHost
-
- preReplicateLogEntries(ObserverContext<RegionServerCoprocessorEnvironment>, List<AdminProtos.WALEntry>, CellScanner) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preRestoreSnapshot(ObserverContext<MasterCoprocessorEnvironment>, HBaseProtos.SnapshotDescription, HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preRestoreSnapshot(ObserverContext<MasterCoprocessorEnvironment>, HBaseProtos.SnapshotDescription, HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preRestoreSnapshot(ObserverContext<MasterCoprocessorEnvironment>, HBaseProtos.SnapshotDescription, HTableDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before a snapshot is restored.
- preRestoreSnapshot(HBaseProtos.SnapshotDescription, HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preRestoreSnapshot(ObserverContext<MasterCoprocessorEnvironment>, HBaseProtos.SnapshotDescription, HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preRollBackMerge(ObserverContext<RegionServerCoprocessorEnvironment>, Region, Region) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionServerObserver
-
- preRollBackMerge(ObserverContext<RegionServerCoprocessorEnvironment>, Region, Region) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionServerObserver
-
This will be called before the roll back of the regions merge.
- preRollBackMerge(HRegion, HRegion) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerCoprocessorHost
-
- preRollBackMerge(ObserverContext<RegionServerCoprocessorEnvironment>, Region, Region) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preRollBackSplit(ObserverContext<RegionCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- preRollBackSplit(ObserverContext<RegionCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
This will be called before the roll back of the split region is completed
- preRollBackSplit() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Invoked just before the rollback of a failed split is started
- preRollWALWriterRequest(ObserverContext<RegionServerCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionServerObserver
-
- preRollWALWriterRequest(ObserverContext<RegionServerCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionServerObserver
-
This will be called before executing user request to roll a region server WAL.
- preRollWALWriterRequest() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerCoprocessorHost
-
- preRollWALWriterRequest(ObserverContext<RegionServerCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preScannerClose(ObserverContext<RegionCoprocessorEnvironment>, InternalScanner) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- preScannerClose(ObserverContext<RegionCoprocessorEnvironment>, InternalScanner) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before the client closes a scanner.
- preScannerClose(InternalScanner) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- preScannerClose(ObserverContext<RegionCoprocessorEnvironment>, InternalScanner) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preScannerClose(ObserverContext<RegionCoprocessorEnvironment>, InternalScanner) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityController
-
- preScannerNext(ObserverContext<RegionCoprocessorEnvironment>, InternalScanner, List<Result>, int, boolean) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- preScannerNext(ObserverContext<RegionCoprocessorEnvironment>, InternalScanner, List<Result>, int, boolean) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before the client asks for the next row on a scanner.
- preScannerNext(InternalScanner, List<Result>, int) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- preScannerNext(ObserverContext<RegionCoprocessorEnvironment>, InternalScanner, List<Result>, int, boolean) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preScannerNext(ObserverContext<RegionCoprocessorEnvironment>, InternalScanner, List<Result>, int, boolean) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityController
-
- preScannerOpen(ObserverContext<RegionCoprocessorEnvironment>, Scan, RegionScanner) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- preScannerOpen(ObserverContext<RegionCoprocessorEnvironment>, Scan, RegionScanner) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before the client opens a new scanner.
- preScannerOpen(Scan) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- preScannerOpen(ObserverContext<RegionCoprocessorEnvironment>, Scan, RegionScanner) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preScannerOpen(ObserverContext<RegionCoprocessorEnvironment>, Scan, RegionScanner) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityController
-
- preSelect(List<StoreFile>) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionContext
-
Called before coprocessor preCompactSelection and should filter the candidates
for coprocessor; i.e. exclude the files that definitely cannot be compacted at this time.
- preSelectCompactionForCoprocessor(Collection<StoreFile>, List<StoreFile>) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.SortedCompactionPolicy
-
- preSelectFilesForCoprocessor(StripeCompactionPolicy.StripeInformationProvider, List<StoreFile>) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.StripeCompactionPolicy
-
- preSetNamespaceQuota(ObserverContext<MasterCoprocessorEnvironment>, String, QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preSetNamespaceQuota(ObserverContext<MasterCoprocessorEnvironment>, String, QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preSetNamespaceQuota(ObserverContext<MasterCoprocessorEnvironment>, String, QuotaProtos.Quotas) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before the quota for the namespace is stored.
- preSetNamespaceQuota(String, QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preSetNamespaceQuota(ObserverContext<MasterCoprocessorEnvironment>, String, QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preSetSplitOrMergeEnabled(ObserverContext<MasterCoprocessorEnvironment>, boolean, Admin.MasterSwitchType) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preSetSplitOrMergeEnabled(ObserverContext<MasterCoprocessorEnvironment>, boolean, Admin.MasterSwitchType) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preSetSplitOrMergeEnabled(ObserverContext<MasterCoprocessorEnvironment>, boolean, Admin.MasterSwitchType) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called prior to setting split / merge switch
- preSetSplitOrMergeEnabled(boolean, Admin.MasterSwitchType) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preSetSplitOrMergeEnabled(ObserverContext<MasterCoprocessorEnvironment>, boolean, Admin.MasterSwitchType) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preSetSplitOrMergeEnabled(ObserverContext<MasterCoprocessorEnvironment>, boolean, Admin.MasterSwitchType) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityController
-
- preSetTableQuota(ObserverContext<MasterCoprocessorEnvironment>, TableName, QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preSetTableQuota(ObserverContext<MasterCoprocessorEnvironment>, TableName, QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preSetTableQuota(ObserverContext<MasterCoprocessorEnvironment>, TableName, QuotaProtos.Quotas) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before the quota for the table is stored.
- preSetTableQuota(TableName, QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preSetTableQuota(ObserverContext<MasterCoprocessorEnvironment>, TableName, QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preSetUserQuota(ObserverContext<MasterCoprocessorEnvironment>, String, QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preSetUserQuota(ObserverContext<MasterCoprocessorEnvironment>, String, TableName, QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preSetUserQuota(ObserverContext<MasterCoprocessorEnvironment>, String, String, QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preSetUserQuota(ObserverContext<MasterCoprocessorEnvironment>, String, QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preSetUserQuota(ObserverContext<MasterCoprocessorEnvironment>, String, TableName, QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preSetUserQuota(ObserverContext<MasterCoprocessorEnvironment>, String, String, QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preSetUserQuota(ObserverContext<MasterCoprocessorEnvironment>, String, QuotaProtos.Quotas) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before the quota for the user is stored.
- preSetUserQuota(ObserverContext<MasterCoprocessorEnvironment>, String, TableName, QuotaProtos.Quotas) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before the quota for the user on the specified table is stored.
- preSetUserQuota(ObserverContext<MasterCoprocessorEnvironment>, String, String, QuotaProtos.Quotas) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before the quota for the user on the specified namespace is stored.
- preSetUserQuota(String, QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preSetUserQuota(String, TableName, QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preSetUserQuota(String, String, QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preSetUserQuota(ObserverContext<MasterCoprocessorEnvironment>, String, QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preSetUserQuota(ObserverContext<MasterCoprocessorEnvironment>, String, TableName, QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preSetUserQuota(ObserverContext<MasterCoprocessorEnvironment>, String, String, QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preShutdown(ObserverContext<MasterCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preShutdown(ObserverContext<MasterCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preShutdown(ObserverContext<MasterCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called prior to shutting down the full HBase cluster, including this
HMaster process.
- preShutdown() - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preShutdown(ObserverContext<MasterCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preSnapshot(ObserverContext<MasterCoprocessorEnvironment>, HBaseProtos.SnapshotDescription, HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preSnapshot(ObserverContext<MasterCoprocessorEnvironment>, HBaseProtos.SnapshotDescription, HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preSnapshot(ObserverContext<MasterCoprocessorEnvironment>, HBaseProtos.SnapshotDescription, HTableDescriptor) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before a new snapshot is taken.
- preSnapshot(HBaseProtos.SnapshotDescription, HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preSnapshot(ObserverContext<MasterCoprocessorEnvironment>, HBaseProtos.SnapshotDescription, HTableDescriptor) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preSnapshotOperation() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
Sets the store up for a region level snapshot operation.
- preSplit(ObserverContext<RegionCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- preSplit(ObserverContext<RegionCoprocessorEnvironment>, byte[]) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- preSplit(ObserverContext<RegionCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
已过时。
Use preSplit(
final ObserverContext<RegionCoprocessorEnvironment> c, byte[] splitRow)
- preSplit(ObserverContext<RegionCoprocessorEnvironment>, byte[]) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before the region is split.
- preSplit() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Invoked just before a split
- preSplit(byte[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Invoked just before a split
- preSplit(ObserverContext<RegionCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preSplit(ObserverContext<RegionCoprocessorEnvironment>, byte[]) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preSplitAfterPONR(ObserverContext<RegionCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- preSplitAfterPONR(ObserverContext<RegionCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
This will be called after PONR step as part of split transaction
Calling
ObserverContext.bypass() has no
effect in this hook.
- preSplitAfterPONR() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- preSplitBeforePONR(ObserverContext<RegionCoprocessorEnvironment>, byte[], List<Mutation>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- preSplitBeforePONR(ObserverContext<RegionCoprocessorEnvironment>, byte[], List<Mutation>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
This will be called before PONR step as part of split transaction.
- preSplitBeforePONR(byte[], List<Mutation>) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- PressureAwareCompactionThroughputController - org.apache.hadoop.hbase.regionserver.throttle中的类
-
A throughput controller which uses the follow schema to limit throughput
If compaction pressure is greater than 1.0, no limitation.
- PressureAwareCompactionThroughputController() - 类 的构造器org.apache.hadoop.hbase.regionserver.throttle.PressureAwareCompactionThroughputController
-
- PressureAwareFlushThroughputController - org.apache.hadoop.hbase.regionserver.throttle中的类
-
A throughput controller which uses the follow schema to limit throughput
If flush pressure is greater than or equal to 1.0, no limitation.
- PressureAwareFlushThroughputController() - 类 的构造器org.apache.hadoop.hbase.regionserver.throttle.PressureAwareFlushThroughputController
-
- PressureAwareThroughputController - org.apache.hadoop.hbase.regionserver.throttle中的类
-
- PressureAwareThroughputController() - 类 的构造器org.apache.hadoop.hbase.regionserver.throttle.PressureAwareThroughputController
-
- preStop(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerCoprocessorHost
-
- preStopMaster(ObserverContext<MasterCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preStopMaster(ObserverContext<MasterCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preStopMaster(ObserverContext<MasterCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called immediately prior to stopping this
HMaster process.
- preStopMaster() - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preStopMaster(ObserverContext<MasterCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preStopRegionServer(ObserverContext<RegionServerCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionServerObserver
-
- preStopRegionServer(ObserverContext<RegionServerCoprocessorEnvironment>) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionServerObserver
-
Called before stopping region server.
- preStopRegionServer(ObserverContext<RegionServerCoprocessorEnvironment>) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preStoreFileReaderOpen(ObserverContext<RegionCoprocessorEnvironment>, FileSystem, Path, FSDataInputStreamWrapper, long, CacheConfig, Reference, StoreFile.Reader) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- preStoreFileReaderOpen(ObserverContext<RegionCoprocessorEnvironment>, FileSystem, Path, FSDataInputStreamWrapper, long, CacheConfig, Reference, StoreFile.Reader) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before creation of Reader for a store file.
- preStoreFileReaderOpen(FileSystem, Path, FSDataInputStreamWrapper, long, CacheConfig, Reference) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- preStoreScannerOpen(ObserverContext<RegionCoprocessorEnvironment>, Store, Scan, NavigableSet<byte[]>, KeyValueScanner) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- preStoreScannerOpen(ObserverContext<RegionCoprocessorEnvironment>, Store, Scan, NavigableSet<byte[]>, KeyValueScanner) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before a store opens a new scanner.
- preStoreScannerOpen(Store, Scan, NavigableSet<byte[]>) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- preTableFlush(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preTableFlush(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preTableFlush(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before the table memstore is flushed to disk.
- preTableFlush(TableName) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preTableFlush(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preTruncateTable(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preTruncateTable(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preTruncateTable(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before
HMaster truncates a
table.
- preTruncateTable(TableName) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preTruncateTable(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- preTruncateTableHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preTruncateTableHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preTruncateTableHandler(ObserverContext<MasterCoprocessorEnvironment>, TableName) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called before
HMaster truncates a
table.
- preTruncateTableHandler(TableName) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- prettyPrintJournal() - 接口 中的方法org.apache.hadoop.hbase.monitoring.MonitoredTask
-
- preUnassign(ObserverContext<MasterCoprocessorEnvironment>, HRegionInfo, boolean) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- preUnassign(ObserverContext<MasterCoprocessorEnvironment>, HRegionInfo, boolean) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- preUnassign(ObserverContext<MasterCoprocessorEnvironment>, HRegionInfo, boolean) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.MasterObserver
-
Called prior to unassigning a given region.
- preUnassign(HRegionInfo, boolean) - 类 中的方法org.apache.hadoop.hbase.master.MasterCoprocessorHost
-
- preUnassign(ObserverContext<MasterCoprocessorEnvironment>, HRegionInfo, boolean) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- prevPtr - 类 中的变量org.apache.hadoop.hbase.regionserver.LruHashMap.Entry
-
The previous entry in the LRU list (towards LRU)
- preWALRestore(ObserverContext<? extends RegionCoprocessorEnvironment>, HRegionInfo, WALKey, WALEdit) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
Implementers should override this version of the method and leave the deprecated one as-is.
- preWALRestore(ObserverContext<RegionCoprocessorEnvironment>, HRegionInfo, HLogKey, WALEdit) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- preWALRestore(ObserverContext<? extends RegionCoprocessorEnvironment>, HRegionInfo, WALKey, WALEdit) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
Called before a
WALEdit
replayed for this region.
- preWALRestore(ObserverContext<RegionCoprocessorEnvironment>, HRegionInfo, HLogKey, WALEdit) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.RegionObserver
-
- preWALRestore(HRegionInfo, WALKey, WALEdit) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- preWALRestore(HRegionInfo, HLogKey, WALEdit) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
- preWALRoll(ObserverContext<? extends WALCoprocessorEnvironment>, Path, Path) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseWALObserver
-
- preWALRoll(ObserverContext<? extends WALCoprocessorEnvironment>, Path, Path) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.WALObserver
-
Called before rolling the current WAL
- preWALRoll(Path, Path) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WALCoprocessorHost
-
Called before rolling the current WAL
- preWALWrite(ObserverContext<? extends WALCoprocessorEnvironment>, HRegionInfo, WALKey, WALEdit) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseWALObserver
-
Implementers should override this method and leave the deprecated version as-is.
- preWALWrite(ObserverContext<WALCoprocessorEnvironment>, HRegionInfo, HLogKey, WALEdit) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseWALObserver
-
- preWALWrite(ObserverContext<? extends WALCoprocessorEnvironment>, HRegionInfo, WALKey, WALEdit) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.WALObserver
-
Called before a
WALEdit
is writen to WAL.
- preWALWrite(ObserverContext<WALCoprocessorEnvironment>, HRegionInfo, HLogKey, WALEdit) - 接口 中的方法org.apache.hadoop.hbase.coprocessor.WALObserver
-
- preWALWrite(HRegionInfo, WALKey, WALEdit) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WALCoprocessorHost
-
- print(boolean) - 类 中的方法org.apache.hadoop.hbase.master.AssignmentVerificationReport
-
- print(String) - 接口 中的方法org.apache.hadoop.hbase.util.HBaseFsck.ErrorReporter
-
- printAssignmentPlan(FavoredNodesPlan) - 类 中的静态方法org.apache.hadoop.hbase.master.RegionPlacementMaintainer
-
Print the assignment plan to the system output stream
- printDispersionScores(TableName, SnapshotOfRegionAssignmentFromMeta, int, FavoredNodesPlan, boolean) - 类 中的方法org.apache.hadoop.hbase.master.RegionPlacementMaintainer
-
- printLocalityAndDispersionForCurrentPlan(Map<String, Map<String, Float>>) - 类 中的方法org.apache.hadoop.hbase.master.RegionPlacementMaintainer
-
- printUsage() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.DumpReplicationQueues
-
- printUsage(String) - 类 中的静态方法org.apache.hadoop.hbase.replication.regionserver.DumpReplicationQueues
-
- printUsage(String, String) - 类 中的静态方法org.apache.hadoop.hbase.replication.regionserver.DumpReplicationQueues
-
- printUsageAndExit(String, int) - 类 中的静态方法org.apache.hadoop.hbase.replication.regionserver.DumpReplicationQueues
-
- printUsageAndExit() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- printUsageAndExit() - 类 中的静态方法org.apache.hadoop.hbase.util.hbck.OfflineMetaRepair
-
- priority - 类 中的变量org.apache.hadoop.hbase.coprocessor.CoprocessorHost.Environment
-
Chaining priority
- PRIORITY_USER - 接口 中的静态变量org.apache.hadoop.hbase.regionserver.Store
-
- PriorityFunction - org.apache.hadoop.hbase.ipc中的接口
-
Function to figure priority of incoming request.
- Procedure - org.apache.hadoop.hbase.procedure中的类
-
A globally-barriered distributed procedure.
- Procedure(ProcedureCoordinator, ForeignExceptionDispatcher, long, long, String, byte[], List<String>) - 类 的构造器org.apache.hadoop.hbase.procedure.Procedure
-
Creates a procedure.
- Procedure(ProcedureCoordinator, long, long, String, byte[], List<String>) - 类 的构造器org.apache.hadoop.hbase.procedure.Procedure
-
Create a procedure.
- ProcedureCoordinator - org.apache.hadoop.hbase.procedure中的类
-
This is the master side of a distributed complex procedure execution.
- ProcedureCoordinator(ProcedureCoordinatorRpcs, ThreadPoolExecutor) - 类 的构造器org.apache.hadoop.hbase.procedure.ProcedureCoordinator
-
Create and start a ProcedureCoordinator.
- ProcedureCoordinator(ProcedureCoordinatorRpcs, ThreadPoolExecutor, long, long) - 类 的构造器org.apache.hadoop.hbase.procedure.ProcedureCoordinator
-
Create and start a ProcedureCoordinator.
- ProcedureCoordinatorRpcs - org.apache.hadoop.hbase.procedure中的接口
-
RPCs for the coordinator to run a barriered procedure with subprocedures executed at
distributed members.
- ProcedureManager - org.apache.hadoop.hbase.procedure中的类
-
- ProcedureManager() - 类 的构造器org.apache.hadoop.hbase.procedure.ProcedureManager
-
- ProcedureManagerHost<E extends ProcedureManager> - org.apache.hadoop.hbase.procedure中的类
-
Provides the common setup framework and runtime services for globally
barriered procedure invocation from HBase services.
- ProcedureManagerHost() - 类 的构造器org.apache.hadoop.hbase.procedure.ProcedureManagerHost
-
- ProcedureMember - org.apache.hadoop.hbase.procedure中的类
-
Process to kick off and manage a running
Subprocedure on a member.
- ProcedureMember(ProcedureMemberRpcs, ThreadPoolExecutor, SubprocedureFactory) - 类 的构造器org.apache.hadoop.hbase.procedure.ProcedureMember
-
Instantiate a new ProcedureMember.
- ProcedureMemberRpcs - org.apache.hadoop.hbase.procedure中的接口
-
This is the notification interface for Procedures that encapsulates message passing from
members to a coordinator.
- ProcedurePrepareLatch - org.apache.hadoop.hbase.master.procedure中的类
-
Latch used by the Master to have the prepare() sync behaviour for old
clients, that can only get exceptions in a synchronous way.
- ProcedurePrepareLatch() - 类 的构造器org.apache.hadoop.hbase.master.procedure.ProcedurePrepareLatch
-
- ProcedurePrepareLatch.CompatibilityLatch - org.apache.hadoop.hbase.master.procedure中的类
-
- ProcedurePrepareLatch.CompatibilityLatch() - 类 的构造器org.apache.hadoop.hbase.master.procedure.ProcedurePrepareLatch.CompatibilityLatch
-
- procedures - 类 中的变量org.apache.hadoop.hbase.procedure.ProcedureManagerHost
-
- procedures_jsp - org.apache.hadoop.hbase.generated.master中的类
-
- procedures_jsp() - 类 的构造器org.apache.hadoop.hbase.generated.master.procedures_jsp
-
- ProcedureSyncWait - org.apache.hadoop.hbase.master.procedure中的类
-
Helper to synchronously wait on conditions.
- ProcedureSyncWait.Predicate<T> - org.apache.hadoop.hbase.master.procedure中的接口
-
- process(RpcController, RowProcessorProtos.ProcessRequest, RpcCallback<RowProcessorProtos.ProcessResponse>) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRowProcessorEndpoint
-
Pass a processor to region to process multiple rows atomically.
- process() - 类 中的方法org.apache.hadoop.hbase.executor.EventHandler
-
This method is the main processing loop to be implemented by the various
subclasses.
- process() - 类 中的方法org.apache.hadoop.hbase.master.handler.ClosedRegionHandler
-
- process() - 类 中的方法org.apache.hadoop.hbase.master.handler.CreateTableHandler
-
- process() - 类 中的方法org.apache.hadoop.hbase.master.handler.DisableTableHandler
-
- process() - 类 中的方法org.apache.hadoop.hbase.master.handler.DispatchMergingRegionHandler
-
- process() - 类 中的方法org.apache.hadoop.hbase.master.handler.EnableTableHandler
-
- process() - 类 中的方法org.apache.hadoop.hbase.master.handler.OpenedRegionHandler
-
- process() - 类 中的方法org.apache.hadoop.hbase.master.handler.TableEventHandler
-
- process() - 类 中的方法org.apache.hadoop.hbase.master.snapshot.TakeSnapshotHandler
-
Execute the core common portions of taking a snapshot.
- process() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactedHFilesDischargeHandler
-
- process() - 类 中的方法org.apache.hadoop.hbase.regionserver.handler.CloseRegionHandler
-
- process() - 类 中的方法org.apache.hadoop.hbase.regionserver.handler.FinishRegionRecoveringHandler
-
- process() - 类 中的方法org.apache.hadoop.hbase.regionserver.handler.OpenRegionHandler
-
- process() - 类 中的方法org.apache.hadoop.hbase.regionserver.handler.ParallelSeekHandler
-
- process() - 类 中的方法org.apache.hadoop.hbase.regionserver.handler.RegionReplicaFlushHandler
-
- process() - 类 中的方法org.apache.hadoop.hbase.regionserver.handler.WALSplitterHandler
-
- process(long, HRegion, List<Mutation>, WALEdit) - 接口 中的方法org.apache.hadoop.hbase.regionserver.RowProcessor
-
HRegion handles the locks and MVCC and invokes this method properly.
- processBatchCallback(List<? extends Row>, TableName, Object[], Batch.Callback<R>) - 类 中的方法org.apache.hadoop.hbase.util.MultiHConnection
-
Randomly pick a connection and process the batch of actions for a given table
- processDeadServer(ServerName, boolean) - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
- processFile(Path) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFilePrettyPrinter
-
- processFile(Configuration, Path) - 类 中的方法org.apache.hadoop.hbase.wal.WALPrettyPrinter
-
reads a log file and outputs its contents, one transaction at a time, as
specified by the currently configured options
- processKV(ImmutableBytesWritable, Result, Mapper<ImmutableBytesWritable, Result, ImmutableBytesWritable, Mutation>.Context, Put, Delete) - 类 中的方法org.apache.hadoop.hbase.mapreduce.Import.Importer
-
- processOptions(CommandLine) - 类 中的方法org.apache.hadoop.hbase.snapshot.CreateSnapshot
-
- processRegionMergeRequest(HRegionInfo, HRegionInfo, HRegionInfo, ServerName, RegionMergeCoordination.RegionMergeDetails) - 接口 中的方法org.apache.hadoop.hbase.coordination.RegionMergeCoordination
-
- processRegionMergeRequest(HRegionInfo, HRegionInfo, HRegionInfo, ServerName, RegionMergeCoordination.RegionMergeDetails) - 类 中的方法org.apache.hadoop.hbase.coordination.ZkRegionMergeCoordination
-
- processRequest(ByteBuffer) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer.Connection
-
- processResult(int, String, Object, String) - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination.CreateAsyncCallback
-
- processResult(int, String, Object, String) - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination.CreateRescanAsyncCallback
-
- processResult(int, String, Object) - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination.DeleteAsyncCallback
-
- processResult(int, String, Object, byte[], Stat) - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination.GetDataAsyncCallback
-
- processResult(int, String, Object, String) - 类 中的方法org.apache.hadoop.hbase.master.OfflineCallback
-
- processRowsWithLocks(RowProcessor<?, ?>) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- processRowsWithLocks(RowProcessor<?, ?>, long, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- processRowsWithLocks(RowProcessor<?, ?>, long, long, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- processRowsWithLocks(RowProcessor<?, ?>) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Performs atomic multiple reads and writes on a given row.
- processRowsWithLocks(RowProcessor<?, ?>, long, long) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Performs atomic multiple reads and writes on a given row.
- processRowsWithLocks(RowProcessor<?, ?>, long, long, long) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Performs atomic multiple reads and writes on a given row.
- processTransition(HRegionInfo, HRegionInfo, HRegionInfo, ServerName, SplitTransactionCoordination.SplitTransactionDetails) - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitTransactionCoordination
-
Required by AssignmentManager
- processTransition(HRegionInfo, HRegionInfo, HRegionInfo, ServerName, SplitTransactionCoordination.SplitTransactionDetails) - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitTransactionCoordination
-
- ProcessUtils - org.apache.hadoop.hbase.util中的类
-
Process related utilities.
- ProfileOutputServlet - org.apache.hadoop.hbase.http中的类
-
- ProfileOutputServlet() - 类 的构造器org.apache.hadoop.hbase.http.ProfileOutputServlet
-
- ProfileServlet - org.apache.hadoop.hbase.http中的类
-
Servlet that runs async-profiler as web-endpoint.
- ProfileServlet() - 类 的构造器org.apache.hadoop.hbase.http.ProfileServlet
-
- ProfileServlet.DisabledServlet - org.apache.hadoop.hbase.http中的类
-
- ProfileServlet.DisabledServlet() - 类 的构造器org.apache.hadoop.hbase.http.ProfileServlet.DisabledServlet
-
- progress - 类 中的变量org.apache.hadoop.hbase.regionserver.compactions.Compactor
-
- progress() - 接口 中的方法org.apache.hadoop.hbase.util.CancelableProgressable
-
Report progress.
- progress() - 接口 中的方法org.apache.hadoop.hbase.util.HBaseFsck.ErrorReporter
-
- PropagatingConfigurationObserver - org.apache.hadoop.hbase.conf中的接口
-
This extension to ConfigurationObserver allows the configuration to propagate to the children of
the current
ConfigurationObserver.
- ProtobufLogReader - org.apache.hadoop.hbase.regionserver.wal中的类
-
A Protobuf based WAL has the following structure:
<PB_WAL_MAGIC><WALHeader><WALEdits>...
- ProtobufLogReader() - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- ProtobufLogWriter - org.apache.hadoop.hbase.regionserver.wal中的类
-
Writer for protobuf-based WAL.
- ProtobufLogWriter() - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.ProtobufLogWriter
-
- PROTOCOL_HTTP - 类 中的静态变量org.apache.hadoop.hbase.http.log.LogLevel
-
- PROTOCOL_HTTPS - 类 中的静态变量org.apache.hadoop.hbase.http.log.LogLevel
-
- ProtoUtil - org.apache.hadoop.hbase.util中的类
-
- ProtoUtil() - 类 的构造器org.apache.hadoop.hbase.util.ProtoUtil
-
- publish(ClusterStatus) - 类 中的方法org.apache.hadoop.hbase.master.ClusterStatusPublisher.MulticastPublisher
-
- publish(ClusterStatus) - 接口 中的方法org.apache.hadoop.hbase.master.ClusterStatusPublisher.Publisher
-
- publishReadFailure(String, String) - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.RegionServerStdOutSink
-
- publishReadFailure(ServerName, HRegionInfo, Exception) - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.RegionStdOutSink
-
- publishReadFailure(ServerName, HRegionInfo, HColumnDescriptor, Exception) - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.RegionStdOutSink
-
- publishReadFailure(String, String) - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.ZookeeperStdOutSink
-
- publishReadTiming(String, String, long) - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.RegionServerStdOutSink
-
- publishReadTiming(ServerName, HRegionInfo, HColumnDescriptor, long) - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.RegionStdOutSink
-
- publishReadTiming(String, String, long) - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.ZookeeperStdOutSink
-
- publishWriteFailure(ServerName, HRegionInfo, Exception) - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.RegionStdOutSink
-
- publishWriteFailure(ServerName, HRegionInfo, HColumnDescriptor, Exception) - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.RegionStdOutSink
-
- publishWriteTiming(ServerName, HRegionInfo, HColumnDescriptor, long) - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.RegionStdOutSink
-
- purgeTimeout - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer
-
- put(Put) - 类 中的方法org.apache.hadoop.hbase.client.HTableWrapper
-
- put(List<Put>) - 类 中的方法org.apache.hadoop.hbase.client.HTableWrapper
-
- put(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFile.FileInfo
-
- put(CallRunner) - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- put(Put) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- put(K, V) - 类 中的方法org.apache.hadoop.hbase.regionserver.LruHashMap
-
Insert a key-value mapping into the map.
- put(Put) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Puts some data in the table.
- put(E) - 类 中的方法org.apache.hadoop.hbase.util.BoundedPriorityBlockingQueue
-
- putAll(Map<? extends byte[], ? extends byte[]>) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFile.FileInfo
-
- putAll(Map<? extends K, ? extends V>) - 类 中的方法org.apache.hadoop.hbase.regionserver.LruHashMap
-
Intentionally unimplemented.
- PutCombiner<K> - org.apache.hadoop.hbase.mapreduce中的类
-
Combine Puts.
- PutCombiner() - 类 的构造器org.apache.hadoop.hbase.mapreduce.PutCombiner
-
- PutSortReducer - org.apache.hadoop.hbase.mapreduce中的类
-
Emits sorted Puts.
- PutSortReducer() - 类 的构造器org.apache.hadoop.hbase.mapreduce.PutSortReducer
-
- rackManager - 类 中的变量org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer.Cluster
-
- rackManager - 类 中的变量org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer
-
- RackManager - org.apache.hadoop.hbase.master中的类
-
Wrapper over the rack resolution utility in Hadoop.
- RackManager() - 类 的构造器org.apache.hadoop.hbase.master.RackManager
-
- RackManager(Configuration) - 类 的构造器org.apache.hadoop.hbase.master.RackManager
-
- randomAssignment(HRegionInfo, List<ServerName>) - 类 中的方法org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer
-
Used to assign a single region to a random server.
- randomAssignment(HRegionInfo, List<ServerName>) - 类 中的方法org.apache.hadoop.hbase.master.balancer.FavoredNodeLoadBalancer
-
- randomAssignment(HRegionInfo, List<ServerName>) - 接口 中的方法org.apache.hadoop.hbase.master.LoadBalancer
-
Get a random region server from the list
- RateLimiter - org.apache.hadoop.hbase.quotas中的类
-
Simple rate limiter.
- RateLimiter() - 类 的构造器org.apache.hadoop.hbase.quotas.RateLimiter
-
- RatioBasedCompactionPolicy - org.apache.hadoop.hbase.regionserver.compactions中的类
-
The default algorithm for selecting files for compaction.
- RatioBasedCompactionPolicy(Configuration, StoreConfigInformation) - 类 的构造器org.apache.hadoop.hbase.regionserver.compactions.RatioBasedCompactionPolicy
-
- RawScanQueryMatcher - org.apache.hadoop.hbase.regionserver.querymatcher中的类
-
Query matcher for raw scan.
- RawScanQueryMatcher(Scan, ScanInfo, ColumnTracker, boolean, long, long) - 类 的构造器org.apache.hadoop.hbase.regionserver.querymatcher.RawScanQueryMatcher
-
- REACHED_BARRIER_ZNODE_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.procedure.ZKProcedureUtil
-
- reachedZnode - 类 中的变量org.apache.hadoop.hbase.procedure.ZKProcedureUtil
-
- read(ByteBuffer, long) - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.ByteBufferIOEngine
-
Transfers data from the buffer array to the given byte buffer
- read(ByteBuffer, long) - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.FileIOEngine
-
Transfers data from file to the given byte buffer
- read(ByteBuffer, long) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.bucket.IOEngine
-
Transfers data from IOEngine to the given byte buffer
- read(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.io.Reference
-
Read a Reference from FileSystem.
- read(Configuration, Path) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.HashTable.TableHash
-
- READ_LOCK_CHILD_NODE_PREFIX - 类 中的静态变量org.apache.hadoop.hbase.zookeeper.lock.ZKInterProcessLockBase
-
ZNode prefix used by processes acquiring reader locks
- readAndProcess() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer.Connection
-
Read off the wire.
- readBlock(long, long, boolean, boolean, boolean, boolean, BlockType, DataBlockEncoding) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.CachingBlockReader
-
Read in a file block.
- readBlock(long, long, boolean, boolean, boolean, boolean, BlockType, DataBlockEncoding) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2
-
- reader - 类 中的变量org.apache.hadoop.hbase.io.hfile.AbstractHFileReader.Scanner
-
- reader - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.SequenceFileLogReader
-
- ReaderBase - org.apache.hadoop.hbase.regionserver.wal中的类
-
- ReaderBase() - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.ReaderBase
-
Default constructor.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hbase.io.Reference
-
已过时。
Writables are going away. Use the pb serialization methods instead.
Remove in a release after 0.96 goes out. This is here only to migrate
old Reference files written with Writables before 0.96.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hbase.mapred.TableSnapshotInputFormat.TableSnapshotRegionSplit
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hbase.mapred.TableSplit
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hbase.mapreduce.Import.KeyValueWritableComparable
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormat.TableSnapshotRegionSplit
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl.InputSplit
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSplit
-
Reads the values of each field.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hbase.regionserver.TimeRangeTracker
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.HLogKey
-
已过时。
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WALEdit
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hbase.security.token.AuthenticationKey
-
- readFieldsFromPb(WALProtos.WALKey, WALCellCodec.ByteStringUncompressor) - 类 中的方法org.apache.hadoop.hbase.wal.WALKey
-
- readFromCells(Codec.Decoder, int) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WALEdit
-
Reads WALEdit from cells.
- readFromStream(FSDataInputStream, long) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
Reads a file trailer from the given file.
- readHeader(WALProtos.WALHeader.Builder, FSDataInputStream) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- readHeader(WALProtos.WALHeader.Builder, FSDataInputStream) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.SecureProtobufLogReader
-
- readKeyValueLen() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2.ScannerV2
-
- readKeyValueLen() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV3.ScannerV3
-
- readLabelsFromZKData(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.security.visibility.VisibilityUtils
-
Reads back from the zookeeper.
- readLock(byte[]) - 接口 中的方法org.apache.hadoop.hbase.InterProcessReadWriteLock
-
Obtain a read lock containing given metadata.
- readLock(TableName, String) - 类 中的方法org.apache.hadoop.hbase.master.TableLockManager.NullTableLockManager
-
- readLock(TableName, String) - 类 中的方法org.apache.hadoop.hbase.master.TableLockManager
-
Returns a TableLock for locking the table for shared access among read-lock holders
- readLock(byte[]) - 类 中的方法org.apache.hadoop.hbase.zookeeper.lock.ZKInterProcessReadWriteLock
-
Obtain a read lock containing given metadata.
- readMultiLevelIndexRoot(HFileBlock, int) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlockIndex.BlockIndexReader
-
Read the root-level metadata of a multi-level block index.
- readMvccVersion(int) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2.ScannerV2
-
Read mvcc.
- readMvccVersion() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2.ScannerV2
-
- readMyEphemeralNodeOnDisk() - 类 中的静态方法org.apache.hadoop.hbase.ZNodeClearer
-
read the content of znode file, expects a single line.
- readNext(WAL.Entry) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- readNext(WAL.Entry) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ReaderBase
-
Read next entry.
- readNext(WAL.Entry) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.SequenceFileLogReader
-
fill in the passed entry with teh next key/value.
- readNextDataBlock() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2.AbstractScannerV2
-
Scans blocks in the "scanned" section of the
HFile until the next
data block is found.
- readOlderScopes(NavigableMap<byte[], Integer>) - 类 中的方法org.apache.hadoop.hbase.wal.WALKey
-
- readOnly() - 接口 中的方法org.apache.hadoop.hbase.regionserver.RowProcessor
-
Is this operation read only?
- readPermissions(byte[], Configuration) - 类 中的静态方法org.apache.hadoop.hbase.security.access.AccessControlLists
-
Reads a set of permissions as Writable instances
from the input stream.
- readRawVarint32(DataInput) - 类 中的静态方法org.apache.hadoop.hbase.util.ProtoUtil
-
Read a variable length integer in the same format that ProtoBufs encodes.
- readRootIndex(DataInput, int) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlockIndex.BlockIndexReader
-
Read in the root-level index from the given input stream.
- readRootIndex(HFileBlock, int) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlockIndex.BlockIndexReader
-
Read in the root-level index from the given input stream.
- readSnapshotInfo(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils
-
- readUserAuthsFromZKData(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.security.visibility.VisibilityUtils
-
Reads back User auth data written to zookeeper.
- readZKNodes(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.zookeeper.ZKServerTool
-
- realSeekDone() - 接口 中的方法org.apache.hadoop.hbase.regionserver.KeyValueScanner
-
We optimize our store scanners by checking the most recent store file
first, so we sometimes pretend we have done a seek but delay it until the
store scanner bubbles up to the top of the key-value heap.
- realSeekDone() - 类 中的方法org.apache.hadoop.hbase.regionserver.NonLazyKeyValueScanner
-
- realSeekDone() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
- reapAllExpiredLocks() - 类 中的方法org.apache.hadoop.hbase.master.TableLockManager.NullTableLockManager
-
- reapAllExpiredLocks() - 类 中的方法org.apache.hadoop.hbase.master.TableLockManager
-
Force releases all table locks(read and write) that have been held longer than
"hbase.table.lock.expire.ms".
- reapAllLocks() - 接口 中的方法org.apache.hadoop.hbase.InterProcessLock
-
If supported, attempts to reap all the locks of this type by forcefully
deleting the locks (both held and attempted).
- reapAllLocks() - 类 中的方法org.apache.hadoop.hbase.zookeeper.lock.ZKInterProcessLockBase
-
- reapExpiredLocks(long) - 接口 中的方法org.apache.hadoop.hbase.InterProcessLock
-
If supported, attempts to reap all the locks of this type by forcefully
deleting the locks (both held and attempted) that have expired according
to the given timeout.
- reapExpiredLocks(long) - 类 中的方法org.apache.hadoop.hbase.zookeeper.lock.ZKInterProcessLockBase
-
Will delete all lock znodes of this type (either read or write) which are "expired"
according to timeout.
- reapWriteLocks() - 类 中的方法org.apache.hadoop.hbase.master.TableLockManager.NullTableLockManager
-
- reapWriteLocks() - 类 中的方法org.apache.hadoop.hbase.master.TableLockManager
-
Force releases table write locks and lock attempts even if this thread does
not own the lock.
- rebuildMeta(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
Rebuilds meta from information in hdfs/fs.
- receive(ForeignException) - 类 中的方法org.apache.hadoop.hbase.errorhandling.ForeignExceptionDispatcher
-
- receive(ForeignException) - 接口 中的方法org.apache.hadoop.hbase.errorhandling.ForeignExceptionListener
-
Receive a ForeignException.
- receive(ForeignException) - 类 中的方法org.apache.hadoop.hbase.procedure.Procedure
-
A callback that handles incoming ForeignExceptions.
- receiveAbortProcedure(String, ForeignException) - 类 中的方法org.apache.hadoop.hbase.procedure.ProcedureMember
-
Send abort to the specified procedure
- receivedReachedGlobalBarrier(String) - 类 中的方法org.apache.hadoop.hbase.procedure.ProcedureMember
-
Notification that procedure coordinator has reached the global barrier
- receiveReachedGlobalBarrier() - 类 中的方法org.apache.hadoop.hbase.procedure.Subprocedure
-
Callback for the member rpcs to call when the global barrier has been reached.
- reconnect(KeeperException) - 类 中的方法org.apache.hadoop.hbase.replication.HBaseReplicationEndpoint
-
A private method used to re-establish a zookeeper session with a peer cluster.
- recoverFileLease(FileSystem, Path) - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureEnv.WALStoreLeaseRecovery
-
- recoverFileLease(FileSystem, Path, Configuration, CancelableProgressable) - 类 中的方法org.apache.hadoop.hbase.util.FSHDFSUtils
-
Recover the lease from HDFS, retrying multiple times.
- recoverFileLease(FileSystem, Path, Configuration, CancelableProgressable) - 类 中的方法org.apache.hadoop.hbase.util.FSMapRUtils
-
- recoverFileLease(FileSystem, Path, Configuration, CancelableProgressable) - 类 中的方法org.apache.hadoop.hbase.util.FSUtils
-
Recover file lease.
- recoveringRegionLock - 类 中的变量org.apache.hadoop.hbase.master.SplitLogManager
-
In distributedLogReplay mode, we need touch both splitlog and recovering-regions znodes in one
operation.
- recoveringRegions - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
Set of regions currently being in recovering state which means it can accept writes(edits from
previous failed region server) but not reads.
- RecoveringRegionWatcher - org.apache.hadoop.hbase.zookeeper中的类
-
Watcher used to be notified of the recovering region coming out of recovering state
- RecoveringRegionWatcher(ZooKeeperWatcher, HRegionServer) - 类 的构造器org.apache.hadoop.hbase.zookeeper.RecoveringRegionWatcher
-
Construct a ZooKeeper event listener.
- recoverTask(TaskAttemptContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableOutputCommitter
-
- reduce(ImmutableBytesWritable, Iterator<Put>, OutputCollector<ImmutableBytesWritable, Put>, Reporter) - 类 中的方法org.apache.hadoop.hbase.mapred.IdentityTableReduce
-
No aggregation, output pairs of (key, record)
- reduce(Writable, Iterable<Mutation>, Reducer<Writable, Mutation, Writable, Mutation>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.IdentityTableReducer
-
Writes each given record, consisting of the row key and the given values,
to the configured OutputFormat.
- reduce(Import.KeyValueWritableComparable, Iterable<KeyValue>, Reducer<Import.KeyValueWritableComparable, KeyValue, ImmutableBytesWritable, KeyValue>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.Import.KeyValueReducer
-
- reduce(ImmutableBytesWritable, Iterable<KeyValue>, Reducer<ImmutableBytesWritable, KeyValue, ImmutableBytesWritable, KeyValue>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.KeyValueSortReducer
-
- reduce(K, Iterable<Put>, Reducer<K, Put, K, Put>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.PutCombiner
-
- reduce(ImmutableBytesWritable, Iterable<Put>, Reducer<ImmutableBytesWritable, Put, ImmutableBytesWritable, KeyValue>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.PutSortReducer
-
- reduce(ImmutableBytesWritable, Iterable<Text>, Reducer<ImmutableBytesWritable, Text, ImmutableBytesWritable, KeyValue>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TextSortReducer
-
- Reference - org.apache.hadoop.hbase.io中的类
-
A reference to the top or bottom half of a store file where 'bottom' is the first half
of the file containing the keys that sort lowest and 'top' is the second half
of the file with keys that sort greater than those of the bottom half.
- Reference() - 类 的构造器org.apache.hadoop.hbase.io.Reference
-
已过时。
need by pb serialization
- refill(long) - 类 中的方法org.apache.hadoop.hbase.quotas.AverageIntervalRateLimiter
-
- refill(long) - 类 中的方法org.apache.hadoop.hbase.quotas.FixedIntervalRateLimiter
-
- REFRESH_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.quotas.QuotaCache
-
- refreshAgeOfLastAppliedOp() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.MetricsSink
-
Refreshing the age makes sure the value returned is the actual one and
not the one set a replication time
- refreshAgeOfLastShippedOp(String) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.MetricsSource
-
Convenience method to use the last given timestamp to refresh the age of the last edit.
- refreshAndGetReplicationLoad() - 接口 中的方法org.apache.hadoop.hbase.regionserver.ReplicationService
-
Refresh and Get ReplicationLoad
- refreshAndGetReplicationLoad() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.Replication
-
- refreshAuthManager(Configuration, PolicyProvider) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer
-
- refreshAuthManager(Configuration, PolicyProvider) - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcServerInterface
-
Refresh authentication manager policy.
- refreshLabelsCache(byte[]) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityLabelsCache
-
- refreshNamespaceCacheFromWritable(String, byte[]) - 类 中的方法org.apache.hadoop.hbase.security.access.TableAuthManager
-
- refreshStoreFiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- refreshStoreFiles() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
Checks the underlying store files, and opens the files that have not
been opened, and removes the store file readers for store files no longer
available.
- refreshStoreFiles(Collection<String>) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- refreshStoreFiles() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Check the region's underlying store files, open the files that have not
been opened yet, and remove the store file readers for store files no
longer available.
- refreshStoreFiles() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
Checks the underlying store files, and opens the files that have not
been opened, and removes the store file readers for store files no longer
available.
- refreshStoreFiles(Collection<String>) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
Replaces the store files that the store has with the given files.
- refreshTableCacheFromWritable(TableName, byte[]) - 类 中的方法org.apache.hadoop.hbase.security.access.TableAuthManager
-
- refreshUserAuthsCache(byte[]) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityLabelsCache
-
- region - 类 中的变量org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer.Cluster.AssignRegionAction
-
- region - 类 中的变量org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer.Cluster.MoveRegionAction
-
- region - 类 中的变量org.apache.hadoop.hbase.regionserver.FlushPolicy
-
The region configured for this flush policy.
- Region - org.apache.hadoop.hbase.regionserver中的接口
-
Regions store data for a certain region of a table.
- region - 类 中的变量org.apache.hadoop.hbase.regionserver.RegionSplitPolicy
-
The region configured for this split policy.
- Region.BulkLoadListener - org.apache.hadoop.hbase.regionserver中的接口
-
Listener class to enable callers of
bulkLoadHFile() to perform any necessary
pre/post processing of a given bulkload call
- Region.FlushResult - org.apache.hadoop.hbase.regionserver中的接口
-
- Region.FlushResult.Result - org.apache.hadoop.hbase.regionserver中的枚举
-
- Region.Operation - org.apache.hadoop.hbase.regionserver中的枚举
-
- Region.RowLock - org.apache.hadoop.hbase.regionserver中的接口
-
Row lock held by a given thread.
- REGION_COPROCESSOR_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.coprocessor.CoprocessorHost
-
- REGION_EVENT - 类 中的静态变量org.apache.hadoop.hbase.regionserver.wal.WALEdit
-
- REGION_GROUPING_STRATEGY - 类 中的静态变量org.apache.hadoop.hbase.wal.RegionGroupingProvider
-
- REGION_INFO_FILE - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
Name of the region info file that resides just under the region directory.
- region_jsp - org.apache.hadoop.hbase.generated.regionserver中的类
-
- region_jsp() - 类 的构造器org.apache.hadoop.hbase.generated.regionserver.region_jsp
-
- REGION_MERGES_DIR - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
Temporary subdirectory of the region directory used for merges.
- REGION_REPLICA_REPLICATION_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.util.ServerRegionReplicaUtil
-
Whether asynchronous WAL replication to the secondary region replicas is enabled or not.
- REGION_REPLICA_STORE_FILE_REFRESH - 类 中的静态变量org.apache.hadoop.hbase.util.ServerRegionReplicaUtil
-
Enables or disables refreshing store files of secondary region replicas when the memory is
above the global memstore lower limit.
- REGION_REPLICA_STORE_FILE_REFRESH_MEMSTORE_MULTIPLIER - 类 中的静态变量org.apache.hadoop.hbase.util.ServerRegionReplicaUtil
-
The multiplier to use when we want to refresh a secondary region instead of flushing a primary
region.
- REGION_SERVER_CLASS - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableOutputFormat
-
Optional specification of the rs class name of the peer cluster
- REGION_SERVER_IMPL - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableOutputFormat
-
Optional specification of the rs impl name of the peer cluster
- REGION_SERVER_REGION_SPLIT_LIMIT - 类 中的静态变量org.apache.hadoop.hbase.regionserver.CompactSplitThread
-
- REGION_SERVER_RPC_SCHEDULER_FACTORY_CLASS - 类 中的静态变量org.apache.hadoop.hbase.regionserver.RSRpcServices
-
RPC scheduler to use for the region server.
- REGION_SPLITS_DIR - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
Temporary subdirectory of the region directory used for splits.
- REGION_STATE_COMPARATOR - 类 中的静态变量org.apache.hadoop.hbase.master.RegionStates
-
- regionClosed(HRegionInfo) - 接口 中的方法org.apache.hadoop.hbase.master.AssignmentListener
-
The region was closed on the region server.
- RegionCoprocessorEnvironment - org.apache.hadoop.hbase.coprocessor中的接口
-
- RegionCoprocessorHost - org.apache.hadoop.hbase.regionserver中的类
-
Implements the coprocessor environment and runtime support for coprocessors
loaded within a
Region.
- RegionCoprocessorHost(Region, RegionServerServices, Configuration) - 类 的构造器org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Constructor
- regionDict - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.CompressionContext
-
- regionDirPattern - 类 中的静态变量org.apache.hadoop.hbase.util.FSUtils.RegionDirFilter
-
- regionFavoredNodesMap - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
Map of encoded region names to the DataNode locations they should be hosted on
We store the value as InetSocketAddress since this is used only in HDFS
API (create() that takes favored nodes as hints for placing file blocks).
- regionFinder - 类 中的变量org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer
-
- RegionGroupingProvider - org.apache.hadoop.hbase.wal中的类
-
A WAL Provider that returns a WAL per group of regions.
- RegionGroupingProvider() - 类 的构造器org.apache.hadoop.hbase.wal.RegionGroupingProvider
-
- RegionGroupingProvider.RegionGroupingStrategy - org.apache.hadoop.hbase.wal中的接口
-
Map identifiers to a group number.
- RegionListTmpl - org.apache.hadoop.hbase.tmpl.regionserver中的类
-
- RegionListTmpl(TemplateManager) - 类 的构造器org.apache.hadoop.hbase.tmpl.regionserver.RegionListTmpl
-
- RegionListTmpl(String) - 类 的构造器org.apache.hadoop.hbase.tmpl.regionserver.RegionListTmpl
-
- RegionListTmpl() - 类 的构造器org.apache.hadoop.hbase.tmpl.regionserver.RegionListTmpl
-
- RegionListTmpl.ImplData - org.apache.hadoop.hbase.tmpl.regionserver中的类
-
- RegionListTmpl.ImplData() - 类 的构造器org.apache.hadoop.hbase.tmpl.regionserver.RegionListTmpl.ImplData
-
- RegionListTmpl.Intf - org.apache.hadoop.hbase.tmpl.regionserver中的接口
-
- RegionListTmplImpl - org.apache.hadoop.hbase.tmpl.regionserver中的类
-
- RegionListTmplImpl(TemplateManager, RegionListTmpl.ImplData) - 类 的构造器org.apache.hadoop.hbase.tmpl.regionserver.RegionListTmplImpl
-
- regionMaximumEditLogSeqNum - 类 中的变量org.apache.hadoop.hbase.wal.WALSplitter.OutputSink
-
- regionMaxSeqIdInStores - 类 中的变量org.apache.hadoop.hbase.wal.WALSplitter
-
- RegionMergeCoordination - org.apache.hadoop.hbase.coordination中的接口
-
Coordination operations for region merge transaction.
- regionMergeCoordination - 类 中的变量org.apache.hadoop.hbase.coordination.ZkCoordinatedStateManager
-
- RegionMergeCoordination.RegionMergeDetails - org.apache.hadoop.hbase.coordination中的接口
-
Dummy interface for region merge transaction details.
- RegionMergeTransaction - org.apache.hadoop.hbase.regionserver中的接口
-
Executes region merge as a "transaction".
- RegionMergeTransaction.JournalEntry - org.apache.hadoop.hbase.regionserver中的接口
-
Split transaction journal entry
- RegionMergeTransaction.RegionMergeTransactionPhase - org.apache.hadoop.hbase.regionserver中的枚举
-
Each enum is a step in the merge transaction.
- RegionMergeTransaction.TransactionListener - org.apache.hadoop.hbase.regionserver中的接口
-
Split transaction listener
- RegionMergeTransactionFactory - org.apache.hadoop.hbase.regionserver中的类
-
A factory for creating RegionMergeTransactions, which execute region split as a "transaction".
- RegionMergeTransactionFactory(Configuration) - 类 的构造器org.apache.hadoop.hbase.regionserver.RegionMergeTransactionFactory
-
- RegionMergeTransactionImpl - org.apache.hadoop.hbase.regionserver中的类
-
- RegionMergeTransactionImpl(Region, Region, boolean) - 类 的构造器org.apache.hadoop.hbase.regionserver.RegionMergeTransactionImpl
-
Constructor
- RegionMergeTransactionImpl(Region, Region, boolean, long) - 类 的构造器org.apache.hadoop.hbase.regionserver.RegionMergeTransactionImpl
-
Constructor
- RegionMergeTransactionImpl.JournalEntryImpl - org.apache.hadoop.hbase.regionserver中的类
-
- RegionMergeTransactionImpl.JournalEntryImpl(RegionMergeTransaction.RegionMergeTransactionPhase) - 类 的构造器org.apache.hadoop.hbase.regionserver.RegionMergeTransactionImpl.JournalEntryImpl
-
- RegionMergeTransactionImpl.JournalEntryImpl(RegionMergeTransaction.RegionMergeTransactionPhase, long) - 类 的构造器org.apache.hadoop.hbase.regionserver.RegionMergeTransactionImpl.JournalEntryImpl
-
- regionName - 类 中的变量org.apache.hadoop.hbase.regionserver.handler.FinishRegionRecoveringHandler
-
- RegionNormalizer - org.apache.hadoop.hbase.master.normalizer中的接口
-
Performs "normalization" of regions on the cluster, making sure that suboptimal
choice of split keys doesn't leave cluster in a situation when some regions are
substantially larger than others for considerable amount of time.
- RegionNormalizerChore - org.apache.hadoop.hbase.master.normalizer中的类
-
- RegionNormalizerChore(HMaster) - 类 的构造器org.apache.hadoop.hbase.master.normalizer.RegionNormalizerChore
-
- RegionNormalizerFactory - org.apache.hadoop.hbase.master.normalizer中的类
-
- RegionNormalizerTracker - org.apache.hadoop.hbase.zookeeper中的类
-
Tracks region normalizer state up in ZK
- RegionNormalizerTracker(ZooKeeperWatcher, Abortable) - 类 的构造器org.apache.hadoop.hbase.zookeeper.RegionNormalizerTracker
-
- RegionObserver - org.apache.hadoop.hbase.coprocessor中的接口
-
Coprocessors implement this interface to observe and mediate client actions
on the region.
- RegionObserver.MutationType - org.apache.hadoop.hbase.coprocessor中的枚举
-
Mutation type for postMutationBeforeWAL hook
- regionOffline(HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.master.AssignmentManager
-
Marks the region as offline.
- regionOffline(HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer
-
- regionOffline(HRegionInfo) - 接口 中的方法org.apache.hadoop.hbase.master.LoadBalancer
-
Marks the region as offline at balancer.
- regionOffline(HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.master.RegionStates
-
A region is offline, won't be in transition any more.
- regionOffline(HRegionInfo, RegionState.State) - 类 中的方法org.apache.hadoop.hbase.master.RegionStates
-
A region is offline, won't be in transition any more.
- regionOnline(HRegionInfo, ServerName) - 类 中的方法org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer
-
- regionOnline(HRegionInfo, ServerName) - 接口 中的方法org.apache.hadoop.hbase.master.LoadBalancer
-
Marks the region as online at balancer.
- regionOnline(HRegionInfo, ServerName) - 类 中的方法org.apache.hadoop.hbase.master.RegionStates
-
- regionOnline(HRegionInfo, ServerName, long) - 类 中的方法org.apache.hadoop.hbase.master.RegionStates
-
A region is online, won't be in transition any more.
- regionOpened(HRegionInfo, ServerName) - 接口 中的方法org.apache.hadoop.hbase.master.AssignmentListener
-
The region was opened on the specified server.
- RegionPlacementMaintainer - org.apache.hadoop.hbase.master中的类
-
A tool that is used for manipulating and viewing favored nodes information
for regions.
- RegionPlacementMaintainer(Configuration) - 类 的构造器org.apache.hadoop.hbase.master.RegionPlacementMaintainer
-
- RegionPlacementMaintainer(Configuration, boolean, boolean) - 类 的构造器org.apache.hadoop.hbase.master.RegionPlacementMaintainer
-
- RegionPlacementMaintainer.RandomizedMatrix - org.apache.hadoop.hbase.master中的类
-
Some algorithms for solving the assignment problem may traverse workers or
jobs in linear order which may result in skewing the assignments of the
first jobs in the matrix toward the last workers in the matrix if the
costs are uniform.
- RegionPlacementMaintainer.RandomizedMatrix(int, int) - 类 的构造器org.apache.hadoop.hbase.master.RegionPlacementMaintainer.RandomizedMatrix
-
Create a randomization scheme for a matrix of a given size.
- RegionPlan - org.apache.hadoop.hbase.master中的类
-
Stores the plan for the move of an individual region.
- RegionPlan(HRegionInfo, ServerName, ServerName) - 类 的构造器org.apache.hadoop.hbase.master.RegionPlan
-
Instantiate a plan for a region move, moving the specified region from
the specified source server to the specified destination server.
- RegionPlan.RegionPlanComparator - org.apache.hadoop.hbase.master中的类
-
- RegionPlan.RegionPlanComparator() - 类 的构造器org.apache.hadoop.hbase.master.RegionPlan.RegionPlanComparator
-
- RegionReplicaFlushHandler - org.apache.hadoop.hbase.regionserver.handler中的类
-
HBASE-11580: With the async wal approach (HBASE-11568), the edits are not persisted to wal in
secondary region replicas.
- RegionReplicaFlushHandler(Server, ClusterConnection, RpcRetryingCallerFactory, RpcControllerFactory, int, HRegion) - 类 的构造器org.apache.hadoop.hbase.regionserver.handler.RegionReplicaFlushHandler
-
- RegionReplicaReplicationEndpoint - org.apache.hadoop.hbase.replication.regionserver中的类
-
A
ReplicationEndpoint endpoint which receives the WAL edits from the
WAL, and sends the edits to replicas of regions.
- RegionReplicaReplicationEndpoint() - 类 的构造器org.apache.hadoop.hbase.replication.regionserver.RegionReplicaReplicationEndpoint
-
- RegionScanner - org.apache.hadoop.hbase.regionserver中的接口
-
RegionScanner describes iterators over rows in an HRegion.
- REGIONSERVER - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
region server process name
- REGIONSERVER_COPROCESSOR_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.coprocessor.CoprocessorHost
-
- regionserver_jsp - org.apache.hadoop.hbase.generated.regionserver中的类
-
- regionserver_jsp() - 类 的构造器org.apache.hadoop.hbase.generated.regionserver.regionserver_jsp
-
- REGIONSERVER_META_STOREFILE_REFRESH_PERIOD - 类 中的静态变量org.apache.hadoop.hbase.regionserver.StorefileRefresherChore
-
Whether all storefiles should be refreshed, as opposed to just hbase:meta's
Meta region doesn't have WAL replication for replicas enabled yet
- REGIONSERVER_PROCEDURE_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.procedure.ProcedureManagerHost
-
- REGIONSERVER_STOREFILE_REFRESH_PERIOD - 类 中的静态变量org.apache.hadoop.hbase.regionserver.StorefileRefresherChore
-
The period (in milliseconds) for refreshing the store files for the secondary regions.
- RegionServerAccounting - org.apache.hadoop.hbase.regionserver中的类
-
RegionServerAccounting keeps record of some basic real time information about
the Region Server.
- RegionServerAccounting() - 类 的构造器org.apache.hadoop.hbase.regionserver.RegionServerAccounting
-
- RegionServerCoprocessorEnvironment - org.apache.hadoop.hbase.coprocessor中的接口
-
- RegionServerCoprocessorHost - org.apache.hadoop.hbase.regionserver中的类
-
- RegionServerCoprocessorHost(RegionServerServices, Configuration) - 类 的构造器org.apache.hadoop.hbase.regionserver.RegionServerCoprocessorHost
-
- RegionServerFlushTableProcedureManager - org.apache.hadoop.hbase.procedure.flush中的类
-
This manager class handles flushing of the regions for table on a
HRegionServer.
- RegionServerFlushTableProcedureManager() - 类 的构造器org.apache.hadoop.hbase.procedure.flush.RegionServerFlushTableProcedureManager
-
- RegionServerFlushTableProcedureManager.FlushTableSubprocedureBuilder - org.apache.hadoop.hbase.procedure.flush中的类
-
- RegionServerFlushTableProcedureManager.FlushTableSubprocedureBuilder() - 类 的构造器org.apache.hadoop.hbase.procedure.flush.RegionServerFlushTableProcedureManager.FlushTableSubprocedureBuilder
-
- RegionServerListTmpl - org.apache.hadoop.hbase.tmpl.master中的类
-
- RegionServerListTmpl(TemplateManager) - 类 的构造器org.apache.hadoop.hbase.tmpl.master.RegionServerListTmpl
-
- RegionServerListTmpl(String) - 类 的构造器org.apache.hadoop.hbase.tmpl.master.RegionServerListTmpl
-
- RegionServerListTmpl() - 类 的构造器org.apache.hadoop.hbase.tmpl.master.RegionServerListTmpl
-
- RegionServerListTmpl.ImplData - org.apache.hadoop.hbase.tmpl.master中的类
-
- RegionServerListTmpl.ImplData() - 类 的构造器org.apache.hadoop.hbase.tmpl.master.RegionServerListTmpl.ImplData
-
- RegionServerListTmpl.Intf - org.apache.hadoop.hbase.tmpl.master中的接口
-
- RegionServerListTmplImpl - org.apache.hadoop.hbase.tmpl.master中的类
-
- RegionServerListTmplImpl(TemplateManager, RegionServerListTmpl.ImplData) - 类 的构造器org.apache.hadoop.hbase.tmpl.master.RegionServerListTmplImpl
-
- RegionServerObserver - org.apache.hadoop.hbase.coprocessor中的接口
-
Defines coprocessor hooks for interacting with operations on the
HRegionServer process.
- RegionServerProcedureManager - org.apache.hadoop.hbase.procedure中的类
-
A life-cycle management interface for globally barriered procedures on
region servers.
- RegionServerProcedureManager() - 类 的构造器org.apache.hadoop.hbase.procedure.RegionServerProcedureManager
-
- RegionServerProcedureManagerHost - org.apache.hadoop.hbase.procedure中的类
-
Provides the globally barriered procedure framework and environment
for region server oriented operations.
- RegionServerProcedureManagerHost() - 类 的构造器org.apache.hadoop.hbase.procedure.RegionServerProcedureManagerHost
-
- RegionServerQuotaManager - org.apache.hadoop.hbase.quotas中的类
-
Region Server Quota Manager.
- RegionServerQuotaManager(RegionServerServices) - 类 的构造器org.apache.hadoop.hbase.quotas.RegionServerQuotaManager
-
- regionServerRemoved(String) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSourceManager
-
- regionServerReport(RpcController, RegionServerStatusProtos.RegionServerReportRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- RegionServerServices - org.apache.hadoop.hbase.regionserver中的接口
-
- RegionServerServices.PostOpenDeployContext - org.apache.hadoop.hbase.regionserver中的类
-
Context for postOpenDeployTasks().
- RegionServerServices.PostOpenDeployContext(Region, long) - 类 的构造器org.apache.hadoop.hbase.regionserver.RegionServerServices.PostOpenDeployContext
-
- RegionServerServices.RegionStateTransitionContext - org.apache.hadoop.hbase.regionserver中的类
-
- RegionServerServices.RegionStateTransitionContext(RegionServerStatusProtos.RegionStateTransition.TransitionCode, long, long, HRegionInfo...) - 类 的构造器org.apache.hadoop.hbase.regionserver.RegionServerServices.RegionStateTransitionContext
-
- RegionServerSnapshotManager - org.apache.hadoop.hbase.regionserver.snapshot中的类
-
This manager class handles the work dealing with snapshots for a
HRegionServer.
- RegionServerSnapshotManager() - 类 的构造器org.apache.hadoop.hbase.regionserver.snapshot.RegionServerSnapshotManager
-
- RegionServerSnapshotManager.SnapshotSubprocedureBuilder - org.apache.hadoop.hbase.regionserver.snapshot中的类
-
Build the actual snapshot runner that will do all the 'hard' work
- RegionServerSnapshotManager.SnapshotSubprocedureBuilder() - 类 的构造器org.apache.hadoop.hbase.regionserver.snapshot.RegionServerSnapshotManager.SnapshotSubprocedureBuilder
-
- regionServerStartup(RpcController, RegionServerStatusProtos.RegionServerStartupRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- RegionServerTableMetrics - org.apache.hadoop.hbase.regionserver中的类
-
Captures operation metrics by table.
- RegionServerTableMetrics() - 类 的构造器org.apache.hadoop.hbase.regionserver.RegionServerTableMetrics
-
- RegionServerTracker - org.apache.hadoop.hbase.zookeeper中的类
-
Tracks the online region servers via ZK.
- RegionServerTracker(ZooKeeperWatcher, MasterServices, ServerManager) - 类 的构造器org.apache.hadoop.hbase.zookeeper.RegionServerTracker
-
- regionsInTransitionInRS - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
- RegionSizeCalculator - org.apache.hadoop.hbase.util中的类
-
Computes size of each region for given table and given column families.
- RegionSizeCalculator(HTable) - 类 的构造器org.apache.hadoop.hbase.util.RegionSizeCalculator
-
- RegionSizeCalculator(RegionLocator, Admin) - 类 的构造器org.apache.hadoop.hbase.util.RegionSizeCalculator
-
Computes size of each region for table and given column families.
- RegionSplitCalculator<R extends KeyRange> - org.apache.hadoop.hbase.util中的类
-
This is a generic region split calculator.
- RegionSplitCalculator(Comparator<R>) - 类 的构造器org.apache.hadoop.hbase.util.RegionSplitCalculator
-
- RegionSplitPolicy - org.apache.hadoop.hbase.regionserver中的类
-
A split policy determines when a region should be split.
- RegionSplitPolicy() - 类 的构造器org.apache.hadoop.hbase.regionserver.RegionSplitPolicy
-
- RegionSplitter - org.apache.hadoop.hbase.util中的类
-
The
RegionSplitter class provides several utilities to help in the
administration lifecycle for developers who choose to manually split regions
instead of having HBase handle that automatically.
- RegionSplitter() - 类 的构造器org.apache.hadoop.hbase.util.RegionSplitter
-
- RegionSplitter.DecimalStringSplit - org.apache.hadoop.hbase.util中的类
-
The format of a DecimalStringSplit region boundary is the ASCII representation of
reversed sequential number, or any other uniformly distributed decimal value.
- RegionSplitter.DecimalStringSplit() - 类 的构造器org.apache.hadoop.hbase.util.RegionSplitter.DecimalStringSplit
-
- RegionSplitter.HexStringSplit - org.apache.hadoop.hbase.util中的类
-
- RegionSplitter.HexStringSplit() - 类 的构造器org.apache.hadoop.hbase.util.RegionSplitter.HexStringSplit
-
- RegionSplitter.NumberStringSplit - org.apache.hadoop.hbase.util中的类
-
- RegionSplitter.SplitAlgorithm - org.apache.hadoop.hbase.util中的接口
-
A generic interface for the RegionSplitter code to use for all it's
functionality.
- RegionSplitter.UniformSplit - org.apache.hadoop.hbase.util中的类
-
A SplitAlgorithm that divides the space of possible keys evenly.
- RegionSplitter.UniformSplit() - 类 的构造器org.apache.hadoop.hbase.util.RegionSplitter.UniformSplit
-
- RegionStateListener - org.apache.hadoop.hbase中的接口
-
The listener interface for receiving region state events.
- RegionStates - org.apache.hadoop.hbase.master中的类
-
Region state accountant.
- RegionStateStore - org.apache.hadoop.hbase.master中的类
-
A helper to persist region state in meta.
- register(E) - 类 中的方法org.apache.hadoop.hbase.procedure.ProcedureManagerHost
-
- registerChildren(ConfigurationManager) - 接口 中的方法org.apache.hadoop.hbase.conf.PropagatingConfigurationObserver
-
Needs to be called to register the children to the manager.
- registerChildren(ConfigurationManager) - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplitThread
-
Needs to be called to register the children to the manager.
- registerChildren(ConfigurationManager) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Needs to be called to register the children to the manager.
- registerChildren(ConfigurationManager) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
Needs to be called to register the children to the manager.
- registerDeserializer(CacheableDeserializer<Cacheable>) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.CacheableDeserializerIdManager
-
Register the given cacheable deserializer and generate an unique identifier
id for it
- registerFlushRequestListener(FlushRequestListener) - 接口 中的方法org.apache.hadoop.hbase.regionserver.FlushRequester
-
Register a FlushRequestListener
- registerForWrite(RpcServer.Connection) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer.Responder
-
Add a connection to the list that want to write,
- registerListener() - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogWorkerCoordination
-
set the listener for task changes.
- registerListener() - 类 中的方法org.apache.hadoop.hbase.coordination.ZkSplitLogWorkerCoordination
-
- registerListener(EventType, EventHandler.EventHandlerListener) - 类 中的方法org.apache.hadoop.hbase.executor.ExecutorService
-
Subscribe to updates before and after processing instances of
EventType.
- registerListener(AssignmentListener) - 类 中的方法org.apache.hadoop.hbase.master.AssignmentManager
-
Add the listener to the notification list.
- registerListener(ServerListener) - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
Add the listener to the notification list.
- registerMBean(String, String, Object) - 类 中的静态方法org.apache.hadoop.hbase.util.MBeanUtil
-
Register the MBean using our standard MBeanName format
"hadoop:service=,name="
Where the and are the supplied parameters
- registerObserver(ConfigurationObserver) - 类 中的方法org.apache.hadoop.hbase.conf.ConfigurationManager
-
Register an observer class
- registerService(Service) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- registerService(Service) - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
Registers a new protocol buffer Service subclass as a master coprocessor endpoint.
- registerService(Service) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- registerService(Service) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- registerService(Service) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
- registerService(Service) - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
Registers a new protocol buffer Service subclass as a coprocessor endpoint to be
available for handling
- registerTransactionListener(RegionMergeTransaction.TransactionListener) - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionMergeTransaction
-
Register a listener for transaction preparation, execution, and possibly
rollback phases.
- registerTransactionListener(RegionMergeTransaction.TransactionListener) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionMergeTransactionImpl
-
- registerTransactionListener(SplitTransaction.TransactionListener) - 接口 中的方法org.apache.hadoop.hbase.regionserver.SplitTransaction
-
Register a listener for transaction preparation, execution, and possibly
rollback phases.
- registerTransactionListener(SplitTransaction.TransactionListener) - 类 中的方法org.apache.hadoop.hbase.regionserver.SplitTransactionImpl
-
- registerWALActionsListener(WALActionsListener) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
- registerWALActionsListener(WALActionsListener) - 接口 中的方法org.apache.hadoop.hbase.wal.WAL
-
Registers WALActionsListener
- release() - 接口 中的方法org.apache.hadoop.hbase.InterProcessLock
-
Release the lock.
- release() - 接口 中的方法org.apache.hadoop.hbase.master.TableLockManager.TableLock
-
Release the lock already held.
- release() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion.RowLockImpl
-
- release() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region.RowLock
-
Release the given lock.
- release(TableAuthManager) - 类 中的静态方法org.apache.hadoop.hbase.security.access.TableAuthManager
-
Releases the resources for the given TableAuthManager if the reference count is down to 0.
- release() - 类 中的方法org.apache.hadoop.hbase.zookeeper.lock.ZKInterProcessLockBase
-
Release the lock.
- releaseBarrier() - 类 中的方法org.apache.hadoop.hbase.procedure.flush.FlushTableSubprocedure
-
- releaseBarrier() - 类 中的方法org.apache.hadoop.hbase.regionserver.snapshot.FlushSnapshotSubprocedure
-
Hooray!
- releaseDelegationToken() - 类 中的方法org.apache.hadoop.hbase.security.token.FsDelegationToken
-
Releases a previously acquired delegation token.
- releaseLatch(ProcedurePrepareLatch, Procedure) - 类 中的静态方法org.apache.hadoop.hbase.master.procedure.ProcedurePrepareLatch
-
- releaseLock(MasterProcedureEnv) - 类 中的方法org.apache.hadoop.hbase.master.procedure.AddColumnFamilyProcedure
-
- releaseLock(MasterProcedureEnv) - 类 中的方法org.apache.hadoop.hbase.master.procedure.CreateNamespaceProcedure
-
- releaseLock(MasterProcedureEnv) - 类 中的方法org.apache.hadoop.hbase.master.procedure.CreateTableProcedure
-
- releaseLock(MasterProcedureEnv) - 类 中的方法org.apache.hadoop.hbase.master.procedure.DeleteColumnFamilyProcedure
-
- releaseLock(MasterProcedureEnv) - 类 中的方法org.apache.hadoop.hbase.master.procedure.DeleteNamespaceProcedure
-
- releaseLock(MasterProcedureEnv) - 类 中的方法org.apache.hadoop.hbase.master.procedure.DeleteTableProcedure
-
- releaseLock(MasterProcedureEnv) - 类 中的方法org.apache.hadoop.hbase.master.procedure.DisableTableProcedure
-
- releaseLock(MasterProcedureEnv) - 类 中的方法org.apache.hadoop.hbase.master.procedure.EnableTableProcedure
-
- releaseLock(MasterProcedureEnv) - 类 中的方法org.apache.hadoop.hbase.master.procedure.ModifyColumnFamilyProcedure
-
- releaseLock(MasterProcedureEnv) - 类 中的方法org.apache.hadoop.hbase.master.procedure.ModifyNamespaceProcedure
-
- releaseLock(MasterProcedureEnv) - 类 中的方法org.apache.hadoop.hbase.master.procedure.ModifyTableProcedure
-
- releaseLock(MasterProcedureEnv) - 类 中的方法org.apache.hadoop.hbase.master.procedure.ServerCrashProcedure
-
- releaseLock(MasterProcedureEnv) - 类 中的方法org.apache.hadoop.hbase.master.procedure.TruncateTableProcedure
-
- releaseLockEntry(IdLock.Entry) - 类 中的方法org.apache.hadoop.hbase.util.IdLock
-
Must be called in a finally block to decrease the internal counter and
remove the monitor object for the given id if the caller is the last
client.
- releaseNamespaceExclusiveLock(Procedure, String) - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureScheduler
-
Release the exclusive lock
- releaseRowLocks(List<Region.RowLock>) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- releaseRowLocks(List<Region.RowLock>) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
If the given list of row locks is not null, releases all locks.
- releaseServerExclusiveLock(Procedure, ServerName) - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureScheduler
-
Release the exclusive lock
- releaseServerSharedLock(Procedure, ServerName) - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureScheduler
-
Release the shared lock taken
- releaseTableExclusiveLock(Procedure, TableName) - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureScheduler
-
Release the exclusive lock taken with tryAcquireTableWrite()
- releaseTableLock() - 类 中的方法org.apache.hadoop.hbase.master.handler.TableEventHandler
-
- releaseTableLock() - 类 中的方法org.apache.hadoop.hbase.master.snapshot.TakeSnapshotHandler
-
- releaseTableSharedLock(Procedure, TableName) - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureScheduler
-
Release the shared lock taken with tryAcquireTableRead()
- remainingCapacity() - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- remainingCapacity() - 类 中的方法org.apache.hadoop.hbase.util.BoundedPriorityBlockingQueue
-
- remainingTasksInCoordination() - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogManagerCoordination
-
Return the number of remaining tasks
- remainingTasksInCoordination() - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination
-
- remotePort - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer.Connection
-
- remove(HTableDescriptor) - 类 中的静态方法org.apache.hadoop.hbase.constraint.Constraints
-
Remove all
Constraints that have been added to the table
and turn off the constraint processing.
- remove(HTableDescriptor, Class<? extends Constraint>) - 类 中的静态方法org.apache.hadoop.hbase.constraint.Constraints
-
Remove the constraint (and associated information) for the table
descriptor.
- remove(Object) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFile.FileInfo
-
- remove(Object) - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- remove() - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- remove(Object) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSkipListSet
-
- remove(Object) - 类 中的方法org.apache.hadoop.hbase.regionserver.LruHashMap
-
Deletes the mapping for the specified key if it exists.
- remove() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.WALEntryStream
-
Not supported.
- remove(TableName) - 接口 中的方法org.apache.hadoop.hbase.TableDescriptors
-
- remove(Object) - 类 中的方法org.apache.hadoop.hbase.util.BoundedPriorityBlockingQueue
-
- remove(TableName) - 类 中的方法org.apache.hadoop.hbase.util.FSTableDescriptors
-
Removes the table descriptor from the local cache and returns it.
- remove(Object) - 类 中的方法org.apache.hadoop.hbase.util.SortedCopyOnWriteSet
-
- remove(Object) - 类 中的方法org.apache.hadoop.hbase.util.SortedList
-
- remove(int) - 类 中的方法org.apache.hadoop.hbase.util.SortedList
-
- remove(String) - 类 中的方法org.apache.hadoop.hbase.ZKNamespaceManager
-
- removeAll(Collection<?>) - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- removeAll(Collection<?>) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSkipListSet
-
- removeAll(Collection<?>) - 类 中的方法org.apache.hadoop.hbase.util.SortedCopyOnWriteSet
-
- removeAll(Collection<?>) - 类 中的方法org.apache.hadoop.hbase.util.SortedList
-
- removeClosedRegion(HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.master.AssignmentManager
-
When a region is closed, it should be removed from the regionsToReopen
- removeCompactedFiles(Collection<StoreFile>) - 接口 中的方法org.apache.hadoop.hbase.regionserver.StoreFileManager
-
Remove the compacted files
- removeCompactedFiles(Collection<StoreFile>) - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- removeDeadServer(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.DeadServer
-
remove the specified dead server
- removeExcessFiles(ArrayList<StoreFile>, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.SortedCompactionPolicy
-
- removeFromNamespaceUsage(TableName) - 类 中的方法org.apache.hadoop.hbase.namespace.NamespaceAuditor
-
- removeFromNSTable(String) - 类 中的方法org.apache.hadoop.hbase.master.TableNamespaceManager
-
- removeFromOnlineRegions(Region, ServerName) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- removeFromOnlineRegions(Region, ServerName) - 接口 中的方法org.apache.hadoop.hbase.regionserver.OnlineRegions
-
This method removes Region corresponding to hri from the Map of onlineRegions.
- removeFromZKNamespaceManager(MasterProcedureEnv, String) - 类 中的静态方法org.apache.hadoop.hbase.master.procedure.DeleteNamespaceProcedure
-
remove from Zookeeper.
- removeFromZKNamespaceManager(String) - 类 中的方法org.apache.hadoop.hbase.master.TableNamespaceManager
-
- removeHFileRefsQueues(Set<String>) - 类 中的方法org.apache.hadoop.hbase.master.cleaner.ReplicationZKNodeCleaner
-
Remove the undeleted hfile-refs queue's zk node for removed peers.
- removeKeyFromZK(AuthenticationKey) - 类 中的方法org.apache.hadoop.hbase.security.token.ZKSecretWatcher
-
- removeListener() - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogWorkerCoordination
-
remove the listener for task changes.
- removeListener() - 类 中的方法org.apache.hadoop.hbase.coordination.ZkSplitLogWorkerCoordination
-
- removeMetric(String) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.MetricsSource
-
- removeNamespace(byte[]) - 类 中的方法org.apache.hadoop.hbase.security.access.TableAuthManager
-
- removeNamespaceQuota(MasterProcedureEnv, String) - 类 中的静态方法org.apache.hadoop.hbase.master.procedure.DeleteNamespaceProcedure
-
remove quota for the namespace
- removeNamespaceQuota(String) - 类 中的方法org.apache.hadoop.hbase.quotas.MasterQuotaManager
-
- removeParentInMeta(Configuration, HRegionInfo) - 类 中的静态方法org.apache.hadoop.hbase.util.HBaseFsckRepair
-
- removePeer(String) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSourceManager
-
Thie method first deletes all the recovered sources for the specified
id, then deletes the normal source (deleting all related data in ZK).
- removeQueues(Map<String, List<String>>) - 类 中的方法org.apache.hadoop.hbase.master.cleaner.ReplicationZKNodeCleaner
-
Remove the undeleted replication queue's zk node for removed peers.
- removeRecoveringRegions(Set<String>, Boolean) - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogManagerCoordination
-
It removes recovering regions from Coordination
- removeRecoveringRegions(Set<String>, Boolean) - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination
-
It removes recovering regions under /hbase/recovering-regions/[encoded region name] so that the
region server hosting the region can allow reads to the recovered region
- removeRegion(HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
Called by delete table and similar to notify the ServerManager that a region was removed.
- removeRegionFromNamespaceUsage(HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.namespace.NamespaceAuditor
-
- removeRegions(List<HRegionInfo>) - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
Called by delete table and similar to notify the ServerManager that a region was removed.
- removeRegistry(MetricRegistry) - 类 中的静态方法org.apache.hadoop.hbase.coprocessor.MetricsCoprocessor
-
- removeServerFromDrainList(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
- removeShutdownHook(Runnable) - 类 中的方法org.apache.hadoop.hbase.util.ShutdownHookManager
-
- removeStaleRecoveringRegions(Set<String>) - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogManagerCoordination
-
Removes known stale servers
- removeStaleRecoveringRegions(Set<String>) - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination
-
- removeStoreFile(String, Path) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
Archives the specified store file from the specified family.
- removeStoreFiles(String, Collection<StoreFile>) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionFileSystem
-
Closes and archives the specified store files from the specified family.
- removeTable(String) - 类 中的方法org.apache.hadoop.hbase.backup.example.HFileArchiveTableMonitor
-
- removeTable(TableName) - 类 中的方法org.apache.hadoop.hbase.security.access.TableAuthManager
-
- removeTableFromNamespaceQuota(TableName) - 类 中的方法org.apache.hadoop.hbase.quotas.MasterQuotaManager
-
Remove table from namespace quota.
- removeWALRootPath(Path, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Checks for the presence of the WAL log root path (using the provided conf object) in the given path.
- renameAndSetModifyTime(FileSystem, Path, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
- render(Writer) - 类 中的方法org.apache.hadoop.hbase.tmpl.common.TaskMonitorTmpl
-
- render(Writer, AssignmentManager) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.AssignmentManagerStatusTmpl
-
- render(Writer, HMaster) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.BackupMasterStatusTmpl
-
- render(Writer, HMaster) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl
-
- render(Writer, HMaster) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.RegionServerListTmpl
-
- render(Writer, CacheConfig, Configuration) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.BlockCacheTmpl
-
- render(Writer, CacheConfig, Configuration, String, String) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.BlockCacheViewTmpl
-
- render(Writer, HRegionServer, List<HRegionInfo>) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.RegionListTmpl
-
- render(Writer, HRegionServer) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.RSStatusTmpl
-
- render(Writer, MetricsRegionServerWrapper, MetricsHBaseServerWrapper) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.ServerMetricsTmpl
-
- renderNoFlush(Writer) - 接口 中的方法org.apache.hadoop.hbase.tmpl.common.TaskMonitorTmpl.Intf
-
- renderNoFlush(Writer) - 类 中的方法org.apache.hadoop.hbase.tmpl.common.TaskMonitorTmpl
-
- renderNoFlush(Writer) - 类 中的方法org.apache.hadoop.hbase.tmpl.common.TaskMonitorTmplImpl
-
- renderNoFlush(Writer) - 接口 中的方法org.apache.hadoop.hbase.tmpl.master.AssignmentManagerStatusTmpl.Intf
-
- renderNoFlush(Writer, AssignmentManager) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.AssignmentManagerStatusTmpl
-
- renderNoFlush(Writer) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.AssignmentManagerStatusTmplImpl
-
- renderNoFlush(Writer) - 接口 中的方法org.apache.hadoop.hbase.tmpl.master.BackupMasterStatusTmpl.Intf
-
- renderNoFlush(Writer, HMaster) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.BackupMasterStatusTmpl
-
- renderNoFlush(Writer) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.BackupMasterStatusTmplImpl
-
- renderNoFlush(Writer) - 接口 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl.Intf
-
- renderNoFlush(Writer, HMaster) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl
-
- renderNoFlush(Writer) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmplImpl
-
- renderNoFlush(Writer) - 接口 中的方法org.apache.hadoop.hbase.tmpl.master.RegionServerListTmpl.Intf
-
- renderNoFlush(Writer, HMaster) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.RegionServerListTmpl
-
- renderNoFlush(Writer) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.RegionServerListTmplImpl
-
- renderNoFlush(Writer) - 接口 中的方法org.apache.hadoop.hbase.tmpl.regionserver.BlockCacheTmpl.Intf
-
- renderNoFlush(Writer, CacheConfig, Configuration) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.BlockCacheTmpl
-
- renderNoFlush(Writer) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.BlockCacheTmplImpl
-
- renderNoFlush(Writer) - 接口 中的方法org.apache.hadoop.hbase.tmpl.regionserver.BlockCacheViewTmpl.Intf
-
- renderNoFlush(Writer, CacheConfig, Configuration, String, String) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.BlockCacheViewTmpl
-
- renderNoFlush(Writer) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.BlockCacheViewTmplImpl
-
- renderNoFlush(Writer) - 接口 中的方法org.apache.hadoop.hbase.tmpl.regionserver.RegionListTmpl.Intf
-
- renderNoFlush(Writer, HRegionServer, List<HRegionInfo>) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.RegionListTmpl
-
- renderNoFlush(Writer) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.RegionListTmplImpl
-
- renderNoFlush(Writer) - 接口 中的方法org.apache.hadoop.hbase.tmpl.regionserver.RSStatusTmpl.Intf
-
- renderNoFlush(Writer, HRegionServer) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.RSStatusTmpl
-
- renderNoFlush(Writer) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.RSStatusTmplImpl
-
- renderNoFlush(Writer) - 接口 中的方法org.apache.hadoop.hbase.tmpl.regionserver.ServerMetricsTmpl.Intf
-
- renderNoFlush(Writer, MetricsRegionServerWrapper, MetricsHBaseServerWrapper) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.ServerMetricsTmpl
-
- renderNoFlush(Writer) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.ServerMetricsTmplImpl
-
- renewLease() - 类 中的方法org.apache.hadoop.hbase.client.ClientSideRegionScanner
-
- renewLease() - 类 中的方法org.apache.hadoop.hbase.client.TableSnapshotScanner
-
- renewLease(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.Leases
-
Renew a lease
- reOpenAllRegions(List<HRegionInfo>) - 类 中的方法org.apache.hadoop.hbase.master.handler.TableEventHandler
-
- reOpenAllRegions(MasterProcedureEnv, TableName, List<HRegionInfo>) - 类 中的静态方法org.apache.hadoop.hbase.master.procedure.MasterDDLOperationHelper
-
Reopen all regions from a table after a schema change operation.
- replaceValue(V) - 类 中的方法org.apache.hadoop.hbase.regionserver.LruHashMap.Entry
-
Replace the value of this entry.
- replay(RpcController, AdminProtos.ReplicateWALEntryRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
Replay the given changes when distributedLogReplay WAL edits from a failed RS.
- replayCompactionMarker(WALProtos.CompactionDescriptor, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
Call to complete a compaction.
- replayCompactionMarker(WALProtos.CompactionDescriptor, boolean, boolean) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
Call to complete a compaction.
- replayEntries(List<Pair<HRegionLocation, WAL.Entry>>) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WALEditsReplaySink
-
Replay an array of actions of the same region directly into the newly assigned Region Server
- ReplayHLogKey - org.apache.hadoop.hbase.regionserver.wal中的类
-
An HLogKey specific to WalEdits coming from replay.
- ReplayHLogKey(byte[], TableName, long, List<UUID>, long, long, MultiVersionConcurrencyControl) - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.ReplayHLogKey
-
- ReplayHLogKey(byte[], TableName, long, long, List<UUID>, long, long, MultiVersionConcurrencyControl) - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.ReplayHLogKey
-
- replayRecoveredEditsIfAny(Map<byte[], Long>, CancelableProgressable, MonitoredTask) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Read the edits put under this region by wal splitting process.
- replicaRegionsNotRecordedInMeta(Set<HRegionInfo>, MasterServices) - 类 中的静态方法org.apache.hadoop.hbase.master.AssignmentManager
-
Get a list of replica regions that are:
not recorded in meta yet.
- replicate(ReplicationEndpoint.ReplicateContext) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.HBaseInterClusterReplicationEndpoint
-
Do the shipping logic
- replicate() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.HFileReplicator
-
- replicate(ReplicationEndpoint.ReplicateContext) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.RegionReplicaReplicationEndpoint
-
- replicate(ReplicationEndpoint.ReplicateContext) - 接口 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint
-
Replicate the given set of entries (in the context) to the other cluster.
- replicate(ReplicationEndpoint.ReplicateContext) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityReplicationEndpoint
-
- replicateEntries(AdminProtos.AdminService.BlockingInterface, List<WAL.Entry>, String, Path, Path) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.HBaseInterClusterReplicationEndpoint.Replicator
-
- replicateEntries(List<AdminProtos.WALEntry>, CellScanner, String, String, String) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSink
-
Replicate this array of entries directly into the local cluster using the native client.
- replicateLogEntries(List<AdminProtos.WALEntry>, CellScanner, String, String, String) - 接口 中的方法org.apache.hadoop.hbase.regionserver.ReplicationSinkService
-
Carry on the list of log entries down to the sink
- replicateLogEntries(List<AdminProtos.WALEntry>, CellScanner, String, String, String) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.Replication
-
Carry on the list of log entries down to the sink
- replicateWALEntry(AdminProtos.AdminService.BlockingInterface, WAL.Entry[], String, Path, Path) - 类 中的静态方法org.apache.hadoop.hbase.protobuf.ReplicationProtbufUtil
-
A helper to replicate a list of WAL entries using admin protocol.
- replicateWALEntry(RpcController, AdminProtos.ReplicateWALEntryRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
Replicate WAL entries on the region server.
- Replication - org.apache.hadoop.hbase.replication.regionserver中的类
-
Gateway to Replication.
- Replication(Server, FileSystem, Path, Path) - 类 的构造器org.apache.hadoop.hbase.replication.regionserver.Replication
-
Instantiate the replication management (if rep is enabled).
- Replication() - 类 的构造器org.apache.hadoop.hbase.replication.regionserver.Replication
-
Empty constructor
- REPLICATION_BULKLOAD_COPY_HFILES_PERTHREAD_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.replication.regionserver.HFileReplicator
-
- REPLICATION_BULKLOAD_COPY_HFILES_PERTHREAD_KEY - 类 中的静态变量org.apache.hadoop.hbase.replication.regionserver.HFileReplicator
-
Number of hfiles to copy per thread during replication
- REPLICATION_BULKLOAD_COPY_MAXTHREADS_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.replication.regionserver.HFileReplicator
-
- REPLICATION_BULKLOAD_COPY_MAXTHREADS_KEY - 类 中的静态变量org.apache.hadoop.hbase.replication.regionserver.HFileReplicator
-
Maximum number of threads to allow in pool to copy hfiles during replication
- ReplicationChecker - org.apache.hadoop.hbase.util.hbck中的类
-
- ReplicationChecker(Configuration, ZooKeeperWatcher, HConnection, HBaseFsck.ErrorReporter) - 类 的构造器org.apache.hadoop.hbase.util.hbck.ReplicationChecker
-
- ReplicationEndpoint - org.apache.hadoop.hbase.replication中的接口
-
ReplicationEndpoint is a plugin which implements replication
to other HBase clusters, or other systems.
- ReplicationEndpoint.Context - org.apache.hadoop.hbase.replication中的类
-
- ReplicationEndpoint.Context(Configuration, Configuration, FileSystem, String, UUID, ReplicationPeer, MetricsSource, TableDescriptors, Abortable) - 类 的构造器org.apache.hadoop.hbase.replication.ReplicationEndpoint.Context
-
- ReplicationEndpoint.ReplicateContext - org.apache.hadoop.hbase.replication中的类
-
- ReplicationEndpoint.ReplicateContext() - 类 的构造器org.apache.hadoop.hbase.replication.ReplicationEndpoint.ReplicateContext
-
- ReplicationHFileCleaner - org.apache.hadoop.hbase.replication.master中的类
-
Implementation of a file cleaner that checks if a hfile is still scheduled for replication before
deleting it from hfile archive directory.
- ReplicationHFileCleaner() - 类 的构造器org.apache.hadoop.hbase.replication.master.ReplicationHFileCleaner
-
- ReplicationLoad - org.apache.hadoop.hbase.replication.regionserver中的类
-
This class is used for exporting some of the info from replication metrics
- ReplicationLoad() - 类 的构造器org.apache.hadoop.hbase.replication.regionserver.ReplicationLoad
-
default constructor
- ReplicationLogCleaner - org.apache.hadoop.hbase.replication.master中的类
-
Implementation of a log cleaner that checks if a log is still scheduled for
replication before deleting it when its TTL is over.
- ReplicationLogCleaner() - 类 的构造器org.apache.hadoop.hbase.replication.master.ReplicationLogCleaner
-
- ReplicationLogCleaner.WarnOnlyAbortable - org.apache.hadoop.hbase.replication.master中的类
-
- ReplicationLogCleaner.WarnOnlyAbortable() - 类 的构造器org.apache.hadoop.hbase.replication.master.ReplicationLogCleaner.WarnOnlyAbortable
-
- ReplicationObserver - org.apache.hadoop.hbase.replication.regionserver中的类
-
An Observer to facilitate replication operations
- ReplicationObserver() - 类 的构造器org.apache.hadoop.hbase.replication.regionserver.ReplicationObserver
-
- ReplicationProtbufUtil - org.apache.hadoop.hbase.protobuf中的类
-
- ReplicationProtbufUtil() - 类 的构造器org.apache.hadoop.hbase.protobuf.ReplicationProtbufUtil
-
- ReplicationService - org.apache.hadoop.hbase.regionserver中的接口
-
Gateway to Cluster Replication.
- ReplicationSink - org.apache.hadoop.hbase.replication.regionserver中的类
-
This class is responsible for replicating the edits coming
from another cluster.
- ReplicationSink(Configuration, Stoppable) - 类 的构造器org.apache.hadoop.hbase.replication.regionserver.ReplicationSink
-
Create a sink for replication
- replicationSinkHandler - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
- ReplicationSinkManager - org.apache.hadoop.hbase.replication.regionserver中的类
-
Maintains a collection of peers to replicate to, and randomly selects a
single peer to replicate to per set of data to replicate.
- ReplicationSinkManager(HConnection, String, HBaseReplicationEndpoint, Configuration) - 类 的构造器org.apache.hadoop.hbase.replication.regionserver.ReplicationSinkManager
-
Instantiate for a single replication peer cluster.
- ReplicationSinkManager.SinkPeer - org.apache.hadoop.hbase.replication.regionserver中的类
-
Wraps a replication region server sink to provide the ability to identify
it.
- ReplicationSinkManager.SinkPeer(ServerName, AdminProtos.AdminService.BlockingInterface) - 类 的构造器org.apache.hadoop.hbase.replication.regionserver.ReplicationSinkManager.SinkPeer
-
- ReplicationSinkService - org.apache.hadoop.hbase.regionserver中的接口
-
A sink for a replication stream has to expose this service.
- ReplicationSource - org.apache.hadoop.hbase.replication.regionserver中的类
-
Class that handles the source of a replication stream.
- ReplicationSource() - 类 的构造器org.apache.hadoop.hbase.replication.regionserver.ReplicationSource
-
- ReplicationSource.LogsComparator - org.apache.hadoop.hbase.replication.regionserver中的类
-
Comparator used to compare logs together based on their start time
- ReplicationSource.LogsComparator() - 类 的构造器org.apache.hadoop.hbase.replication.regionserver.ReplicationSource.LogsComparator
-
- ReplicationSource.ReplicationSourceShipperThread - org.apache.hadoop.hbase.replication.regionserver中的类
-
- ReplicationSource.ReplicationSourceShipperThread(String, PriorityBlockingQueue<Path>, ReplicationQueueInfo, ReplicationSourceInterface) - 类 的构造器org.apache.hadoop.hbase.replication.regionserver.ReplicationSource.ReplicationSourceShipperThread
-
- ReplicationSource.WorkerState - org.apache.hadoop.hbase.replication.regionserver中的枚举
-
- replicationSourceHandler - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
- ReplicationSourceInterface - org.apache.hadoop.hbase.replication.regionserver中的接口
-
Interface that defines a replication source
- ReplicationSourceManager - org.apache.hadoop.hbase.replication.regionserver中的类
-
This class is responsible to manage all the replication
sources.
- ReplicationSourceManager(ReplicationQueues, ReplicationPeers, ReplicationTracker, Configuration, Server, FileSystem, Path, Path, UUID) - 类 的构造器org.apache.hadoop.hbase.replication.regionserver.ReplicationSourceManager
-
Creates a replication manager and sets the watch on all the other registered region servers
- ReplicationSourceService - org.apache.hadoop.hbase.regionserver中的接口
-
A source for a replication stream has to expose this service.
- ReplicationSourceWALReaderThread - org.apache.hadoop.hbase.replication.regionserver中的类
-
Reads and filters WAL entries, groups the filtered entries into batches, and puts the batches onto a queue
- ReplicationSourceWALReaderThread(ReplicationSourceManager, ReplicationQueueInfo, PriorityBlockingQueue<Path>, long, FileSystem, Configuration, WALEntryFilter, MetricsSource) - 类 的构造器org.apache.hadoop.hbase.replication.regionserver.ReplicationSourceWALReaderThread
-
Creates a reader worker for a given WAL queue.
- ReplicationSyncUp - org.apache.hadoop.hbase.replication.regionserver中的类
-
In a scenario of Replication based Disaster/Recovery, when hbase
Master-Cluster crashes, this tool is used to sync-up the delta from Master to
Slave using the info from Zookeeper.
- ReplicationSyncUp() - 类 的构造器org.apache.hadoop.hbase.replication.regionserver.ReplicationSyncUp
-
- ReplicationThrottler - org.apache.hadoop.hbase.replication.regionserver中的类
-
Per-peer per-node throttling controller for replication: enabled if
bandwidth > 0, a cycle = 100ms, by throttling we guarantee data pushed
to peer within each cycle won't exceed 'bandwidth' bytes
- ReplicationThrottler(double) - 类 的构造器org.apache.hadoop.hbase.replication.regionserver.ReplicationThrottler
-
ReplicationThrottler constructor
If bandwidth less than 1, throttling is disabled
- ReplicationZKLockCleanerChore - org.apache.hadoop.hbase.master.cleaner中的类
-
A cleaner that cleans replication locks on zk which is locked by dead region servers
- ReplicationZKLockCleanerChore(Stoppable, Abortable, int, ZooKeeperWatcher, Configuration) - 类 的构造器org.apache.hadoop.hbase.master.cleaner.ReplicationZKLockCleanerChore
-
- ReplicationZKNodeCleaner - org.apache.hadoop.hbase.master.cleaner中的类
-
Used to clean the replication queues belonging to the peer which does not exist.
- ReplicationZKNodeCleaner(Configuration, ZooKeeperWatcher, Abortable) - 类 的构造器org.apache.hadoop.hbase.master.cleaner.ReplicationZKNodeCleaner
-
- ReplicationZKNodeCleanerChore - org.apache.hadoop.hbase.master.cleaner中的类
-
Chore that will clean the replication queues belonging to the peer which does not exist.
- ReplicationZKNodeCleanerChore(Stoppable, int, ReplicationZKNodeCleaner) - 类 的构造器org.apache.hadoop.hbase.master.cleaner.ReplicationZKNodeCleanerChore
-
- report(String) - 接口 中的方法org.apache.hadoop.hbase.util.HBaseFsck.ErrorReporter
-
- report(HBaseFsck.ErrorReporter) - 类 中的方法org.apache.hadoop.hbase.util.hbck.HFileCorruptionChecker
-
Print a human readable summary of hfile quarantining operations.
- reportBadSink(ReplicationSinkManager.SinkPeer) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSinkManager
-
Report a SinkPeer as being bad (i.e. an attempt to replicate to it
failed).
- reportCompactionRequestEnd(boolean, int, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- reportCompactionRequestFailure() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- reportCompactionRequestStart(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- reporter - 类 中的变量org.apache.hadoop.hbase.wal.WALSplitter.OutputSink
-
- reportError(String) - 接口 中的方法org.apache.hadoop.hbase.util.HBaseFsck.ErrorReporter
-
- reportError(HBaseFsck.ErrorReporter.ERROR_CODE, String) - 接口 中的方法org.apache.hadoop.hbase.util.HBaseFsck.ErrorReporter
-
- reportError(HBaseFsck.ErrorReporter.ERROR_CODE, String, HBaseFsck.TableInfo) - 接口 中的方法org.apache.hadoop.hbase.util.HBaseFsck.ErrorReporter
-
- reportError(HBaseFsck.ErrorReporter.ERROR_CODE, String, HBaseFsck.TableInfo, HBaseFsck.HbckInfo) - 接口 中的方法org.apache.hadoop.hbase.util.HBaseFsck.ErrorReporter
-
- reportError(HBaseFsck.ErrorReporter.ERROR_CODE, String, HBaseFsck.TableInfo, HBaseFsck.HbckInfo, HBaseFsck.HbckInfo) - 接口 中的方法org.apache.hadoop.hbase.util.HBaseFsck.ErrorReporter
-
- reportOperationFromWal(long, long, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.ServerNonceManager
-
Reports the operation from WAL during replay.
- reportRegionStateTransition(RpcController, RegionServerStatusProtos.ReportRegionStateTransitionRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- reportRegionStateTransition(RegionServerStatusProtos.RegionStateTransition.TransitionCode, HRegionInfo...) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- reportRegionStateTransition(RegionServerStatusProtos.RegionStateTransition.TransitionCode, long, HRegionInfo...) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- reportRegionStateTransition(RegionServerServices.RegionStateTransitionContext) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- reportRegionStateTransition(RegionServerServices.RegionStateTransitionContext) - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
Notify master that a handler requests to change a region state
- reportRegionStateTransition(RegionServerStatusProtos.RegionStateTransition.TransitionCode, long, HRegionInfo...) - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
- reportRegionStateTransition(RegionServerStatusProtos.RegionStateTransition.TransitionCode, HRegionInfo...) - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionServerServices
-
- reportRSFatalError(RpcController, RegionServerStatusProtos.ReportRSFatalErrorRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- reportSinkSuccess(ReplicationSinkManager.SinkPeer) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSinkManager
-
Report that a SinkPeer successfully replicated a chunk of data.
- request(Path, Runnable) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.PrefetchExecutor
-
- request - 类 中的变量org.apache.hadoop.hbase.regionserver.compactions.CompactionContext
-
- request - 类 中的变量org.apache.hadoop.hbase.regionserver.compactions.StripeCompactionPolicy.StripeCompactionRequest
-
- requestCompaction(Region, String) - 接口 中的方法org.apache.hadoop.hbase.regionserver.CompactionRequestor
-
- requestCompaction(Region, String, List<Pair<CompactionRequest, Store>>) - 接口 中的方法org.apache.hadoop.hbase.regionserver.CompactionRequestor
-
- requestCompaction(Region, Store, String, CompactionRequest) - 接口 中的方法org.apache.hadoop.hbase.regionserver.CompactionRequestor
-
- requestCompaction(Region, String, int, List<Pair<CompactionRequest, Store>>, User) - 接口 中的方法org.apache.hadoop.hbase.regionserver.CompactionRequestor
-
- requestCompaction(Region, Store, String, int, CompactionRequest, User) - 接口 中的方法org.apache.hadoop.hbase.regionserver.CompactionRequestor
-
- requestCompaction(Region, String) - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplitThread
-
- requestCompaction(Region, String, List<Pair<CompactionRequest, Store>>) - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplitThread
-
- requestCompaction(Region, Store, String, CompactionRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplitThread
-
- requestCompaction(Region, String, int, List<Pair<CompactionRequest, Store>>, User) - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplitThread
-
- requestCompaction(Region, Store, String, int, CompactionRequest, User) - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplitThread
-
- requestCompaction() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- requestCompaction(int, CompactionRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- requestCompaction(int, CompactionRequest, User) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- requestCompaction() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- requestCompaction(int, CompactionRequest) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
已过时。
see requestCompaction(int, CompactionRequest, User)
- requestCompaction(int, CompactionRequest, User) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- requestDelayedFlush(Region, long, boolean) - 接口 中的方法org.apache.hadoop.hbase.regionserver.FlushRequester
-
Tell the listener the cache needs to be flushed after a delay
- requestedSize() - 异常错误 中的方法org.apache.hadoop.hbase.io.hfile.bucket.CacheFullException
-
- requestFlush(Region, boolean) - 接口 中的方法org.apache.hadoop.hbase.regionserver.FlushRequester
-
Tell the listener the cache needs to be flushed.
- requestLogRoll() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
- requestRegionsMerge(Region, Region, boolean, long, User) - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplitThread
-
- requestRollAll() - 类 中的方法org.apache.hadoop.hbase.regionserver.LogRoller
-
- requestSeek(Cell, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.KeyValueHeap
-
- requestSeek(Cell, boolean, boolean) - 接口 中的方法org.apache.hadoop.hbase.regionserver.KeyValueScanner
-
- requestSeek(Cell, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.NonLazyKeyValueScanner
-
- requestSeek(Cell, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.ReversedKeyValueHeap
-
- requestSeek(Cell, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
Pretend we have done a seek but don't do it yet, if possible.
- requestSplit(Region) - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplitThread
-
- requestSplit(Region, byte[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplitThread
-
- requestSplit(Region, byte[], User) - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplitThread
-
- requestSystemCompaction(Region, String) - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplitThread
-
- requestSystemCompaction(Region, Store, String) - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplitThread
-
- requireAccess(User, String, TableName, Permission.Action...) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessChecker
-
Authorizes that the current user has any of the given permissions to access the table.
- requireAccess(String, TableName, Permission.Action...) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
Authorizes that the current user has any of the given permissions to access the table.
- requireExclusiveLock(Procedure) - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureScheduler.ServerQueue
-
- requireExclusiveLock(Procedure) - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureScheduler.TableQueue
-
- requireGlobalPermission(User, String, Permission.Action, TableName, Map<byte[], ? extends Collection<byte[]>>) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessChecker
-
Checks that the user has the given global permission.
- requireGlobalPermission(User, String, Permission.Action, String) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessChecker
-
Checks that the user has the given global permission.
- requireGlobalPermission(String, Permission.Action, TableName, Map<byte[], ? extends Collection<byte[]>>) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
Checks that the user has the given global permission.
- requireGlobalPermission(String, Permission.Action, String) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
Checks that the user has the given global permission.
- requireNamespacePermission(User, String, String, Permission.Action...) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessChecker
-
Checks that the user has the given global or namespace permission.
- requireNamespacePermission(User, String, String, TableName, Map<byte[], ? extends Collection<byte[]>>, Permission.Action...) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessChecker
-
Checks that the user has the given global or namespace permission.
- requireNamespacePermission(String, String, Permission.Action...) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
Checks that the user has the given global or namespace permission.
- requireNamespacePermission(String, String, TableName, Map<byte[], ? extends Collection<byte[]>>, Permission.Action...) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
Checks that the user has the given global or namespace permission.
- requirePermission(User, String, TableName, byte[], byte[], Permission.Action...) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessChecker
-
Authorizes that the current user has any of the given permissions for the
given table, column family and column qualifier.
- requirePermission(User, String, Permission.Action) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessChecker
-
Authorizes that the current user has global privileges for the given action.
- requirePermission(String, TableName, byte[], byte[], Permission.Action...) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
Authorizes that the current user has any of the given permissions for the
given table, column family and column qualifier.
- requirePermission(String, Permission.Action) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
Authorizes that the current user has global privileges for the given action.
- requiresLayout() - 类 中的方法org.apache.hadoop.hbase.http.HttpRequestLogAppender
-
- requireTablePermission(User, String, TableName, byte[], byte[], Permission.Action...) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessChecker
-
Authorizes that the current user has any of the given permissions for the
given table, column family and column qualifier.
- requireTablePermission(String, TableName, byte[], byte[], Permission.Action...) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
Authorizes that the current user has any of the given permissions for the
given table, column family and column qualifier.
- reseek(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.DefaultMemStore.MemStoreScanner
-
Move forward on the sub-lists set previously by seek.
- reseek(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.KeyValueHeap
-
This function is identical to the
KeyValueHeap.seek(Cell) function except
that scanner.seek(seekKey) is changed to scanner.reseek(seekKey).
- reseek(Cell) - 接口 中的方法org.apache.hadoop.hbase.regionserver.KeyValueScanner
-
Reseek the scanner at or after the specified KeyValue.
- reseek(byte[]) - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionScanner
-
Do a reseek to the required row.
- reseek(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.ReversedKeyValueHeap
-
- reseek(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
- reseek(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreScanner
-
- reseek(Cell) - 类 中的方法org.apache.hadoop.hbase.util.CollectionBackedScanner
-
- reseekTo(byte[]) - 类 中的方法org.apache.hadoop.hbase.io.hfile.AbstractHFileReader.Scanner
-
- reseekTo(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2.AbstractScannerV2
-
- reseekTo(Cell) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2.AbstractScannerV2
-
- reseekTo(byte[]) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFileScanner
-
已过时。
- reseekTo(byte[], int, int) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFileScanner
-
已过时。
- reseekTo(Cell) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFileScanner
-
- reset() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketCacheStats
-
- reset() - 接口 中的方法org.apache.hadoop.hbase.regionserver.DeleteTracker
-
Called between rows.
- reset() - 接口 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ColumnTracker
-
Resets the Matcher
- reset() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.CompactionScanQueryMatcher
-
- reset() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ExplicitColumnTracker
-
- reset() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.LegacyScanQueryMatcher
-
已过时。
- reset() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.NormalUserScanQueryMatcher
-
- reset() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.RawScanQueryMatcher
-
- reset() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanDeleteTracker
-
- reset() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
- reset() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanWildcardColumnTracker
-
- reset() - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.StripeCompactionScanQueryMatcher
-
- reset() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- reset() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.SequenceFileLogReader
-
- reset() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.WALEntryStream
-
Should be called if the stream is to be reused (i.e. used again after hasNext() has returned
false)
- reset() - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityScanDeleteTracker
-
- reset() - 接口 中的方法org.apache.hadoop.hbase.wal.WAL.Reader
-
- resetCacheConfig(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Enable a basic on-heap cache for these jobs.
- resetCounters() - 类 中的静态方法org.apache.hadoop.hbase.SplitLogCounters
-
- resetErrors() - 接口 中的方法org.apache.hadoop.hbase.util.HBaseFsck.ErrorReporter
-
- resetKVHeap(List<? extends KeyValueScanner>, KeyValue.KVComparator) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreScanner
-
- resetMembers(Procedure) - 接口 中的方法org.apache.hadoop.hbase.procedure.ProcedureCoordinatorRpcs
-
Notify Members to reset the distributed state for procedure
- resetMembers(Procedure) - 类 中的方法org.apache.hadoop.hbase.procedure.ZKProcedureCoordinatorRpcs
-
Delete znodes that are no longer in use.
- resetScannerStack(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreScanner
-
- resetStartTick() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationThrottler
-
Reset the cycle start tick to NOW
- ResizableBlockCache - org.apache.hadoop.hbase.io.hfile中的接口
-
BlockCache which is resizable.
- resizeQueues(Configuration) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
Update current soft limit for executor's call queues
- responder - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer.Call
-
- responder - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer
-
- response - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer.Call
-
Chain of buffers to send as response.
- responseQueue - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer.Connection
-
- restart(byte[]) - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReader
-
Restart from survivable exceptions by creating a new scanner.
- restart(byte[]) - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReaderImpl
-
Restart from survivable exceptions by creating a new scanner.
- restart(byte[]) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableRecordReader
-
Restart from survivable exceptions by creating a new scanner.
- restart(byte[]) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableRecordReaderImpl
-
Restart from survivable exceptions by creating a new scanner.
- RESTORE_DIR_KEY - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl
-
- RESTORE_DIRS_KEY - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.MultiTableSnapshotInputFormatImpl
-
- restoreEdit(Store, Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Used by tests
- restoreHdfsRegions() - 类 中的方法org.apache.hadoop.hbase.snapshot.RestoreSnapshotHelper
-
Restore the on-disk table to a specified snapshot state.
- restoreSnapshot(RpcController, MasterProtos.RestoreSnapshotRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
Execute Restore/Clone snapshot operation.
- restoreSnapshot(HBaseProtos.SnapshotDescription) - 类 中的方法org.apache.hadoop.hbase.master.snapshot.SnapshotManager
-
已过时。
- restoreSnapshot(HBaseProtos.SnapshotDescription, boolean) - 类 中的方法org.apache.hadoop.hbase.master.snapshot.SnapshotManager
-
Restore the specified snapshot
- restoreSnapshotACL(HBaseProtos.SnapshotDescription, TableName, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.snapshot.RestoreSnapshotHelper
-
- RestoreSnapshotHandler - org.apache.hadoop.hbase.master.snapshot中的类
-
Handler to Restore a snapshot.
- RestoreSnapshotHandler(MasterServices, HBaseProtos.SnapshotDescription, HTableDescriptor, boolean) - 类 的构造器org.apache.hadoop.hbase.master.snapshot.RestoreSnapshotHandler
-
- RestoreSnapshotHelper - org.apache.hadoop.hbase.snapshot中的类
-
Helper to Restore/Clone a Snapshot
The helper assumes that a table is already created, and by calling restore()
the content present in the snapshot will be restored as the new content of the table.
- RestoreSnapshotHelper(Configuration, FileSystem, SnapshotManifest, HTableDescriptor, Path, ForeignExceptionDispatcher, MonitoredTask) - 类 的构造器org.apache.hadoop.hbase.snapshot.RestoreSnapshotHelper
-
- RestoreSnapshotHelper(Configuration, FileSystem, SnapshotManifest, HTableDescriptor, Path, ForeignExceptionDispatcher, MonitoredTask, boolean) - 类 的构造器org.apache.hadoop.hbase.snapshot.RestoreSnapshotHelper
-
- RestoreSnapshotHelper.RestoreMetaChanges - org.apache.hadoop.hbase.snapshot中的类
-
Describe the set of operations needed to update hbase:meta after restore.
- restoreSnapshots(Configuration, Map<String, Path>, FileSystem) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MultiTableSnapshotInputFormatImpl
-
Restore each (snapshot name, restore directory) pair in snapshotToDir
- resubmitTask(String, SplitLogManager.Task, SplitLogManager.ResubmitDirective) - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogManagerCoordination
-
Resubmit the task in case if found unassigned or failed
- resubmitTask(String, SplitLogManager.Task, SplitLogManager.ResubmitDirective) - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination
-
- resubmitThresholdReached - 类 中的变量org.apache.hadoop.hbase.master.SplitLogManager.Task
-
- ResultSerialization - org.apache.hadoop.hbase.mapreduce中的类
-
- ResultSerialization() - 类 的构造器org.apache.hadoop.hbase.mapreduce.ResultSerialization
-
- resume(String) - 接口 中的方法org.apache.hadoop.hbase.monitoring.MonitoredTask
-
- retainAll(Collection<?>) - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- retainAll(Collection<?>) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSkipListSet
-
- retainAll(Collection<?>) - 类 中的方法org.apache.hadoop.hbase.util.SortedCopyOnWriteSet
-
- retainAll(Collection<?>) - 类 中的方法org.apache.hadoop.hbase.util.SortedList
-
- retainAssignment(Map<HRegionInfo, ServerName>, List<ServerName>) - 类 中的方法org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer
-
Generates a bulk assignment startup plan, attempting to reuse the existing
assignment information from META, but adjusting for the specified list of
available/online servers available for assignment.
- retainAssignment(Map<HRegionInfo, ServerName>, List<ServerName>) - 接口 中的方法org.apache.hadoop.hbase.master.LoadBalancer
-
Assign regions to the previously hosting region server
- rethrowException() - 类 中的方法org.apache.hadoop.hbase.errorhandling.ForeignExceptionDispatcher
-
- rethrowException() - 接口 中的方法org.apache.hadoop.hbase.errorhandling.ForeignExceptionSnare
-
- rethrowException() - 类 中的方法org.apache.hadoop.hbase.master.snapshot.TakeSnapshotHandler
-
- rethrowExceptionIfFailed() - 类 中的方法org.apache.hadoop.hbase.master.snapshot.CloneSnapshotHandler
-
- rethrowExceptionIfFailed() - 类 中的方法org.apache.hadoop.hbase.master.snapshot.RestoreSnapshotHandler
-
- rethrowExceptionIfFailed() - 类 中的方法org.apache.hadoop.hbase.master.snapshot.TakeSnapshotHandler
-
- rethrowExceptionIfFailed() - 接口 中的方法org.apache.hadoop.hbase.master.SnapshotSentinel
-
- retrieveGetCounterWithStringsParams(TaskAttemptContext) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableRecordReaderImpl
-
In new mapreduce APIs, TaskAttemptContext has two getCounter methods
Check if getCounter(String, String) method is available.
- retrievePassword(AuthenticationTokenIdentifier) - 类 中的方法org.apache.hadoop.hbase.security.token.AuthenticationTokenSecretManager
-
- ReversedKeyValueHeap - org.apache.hadoop.hbase.regionserver中的类
-
ReversedKeyValueHeap is used for supporting reversed scanning.
- ReversedKeyValueHeap(List<? extends KeyValueScanner>, KeyValue.KVComparator) - 类 的构造器org.apache.hadoop.hbase.regionserver.ReversedKeyValueHeap
-
- reverseDNS(InetAddress) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
已过时。
mistakenly made public in 0.98.7. scope will change to package-private
- revoke(RpcController, AccessControlProtos.RevokeRequest, RpcCallback<AccessControlProtos.RevokeResponse>) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- RMI_CONNECTOR_PORT_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.JMXListener
-
- RMI_REGISTRY_PORT_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.JMXListener
-
- rollback(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.DefaultMemStore
-
Remove n key from the memstore.
- rollback(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- rollback(Cell) - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStore
-
Remove n key from the memstore.
- rollback(Server, RegionServerServices) - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionMergeTransaction
-
已过时。
use #rollback(Server, RegionServerServices, User)
- rollback(Server, RegionServerServices, User) - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionMergeTransaction
-
Roll back a failed transaction
- rollback(RegionMergeTransaction, RegionMergeTransaction.RegionMergeTransactionPhase, RegionMergeTransaction.RegionMergeTransactionPhase) - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionMergeTransaction.TransactionListener
-
Invoked when rolling back a transaction from one transaction phase to the
previous
- rollback(Server, RegionServerServices) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionMergeTransactionImpl
-
- rollback(Server, RegionServerServices, User) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionMergeTransactionImpl
-
- rollback(Server, RegionServerServices) - 接口 中的方法org.apache.hadoop.hbase.regionserver.SplitTransaction
-
已过时。
use #rollback(Server, RegionServerServices, User)
- rollback(Server, RegionServerServices, User) - 接口 中的方法org.apache.hadoop.hbase.regionserver.SplitTransaction
-
Roll back a failed transaction
- rollback(SplitTransaction, SplitTransaction.SplitTransactionPhase, SplitTransaction.SplitTransactionPhase) - 接口 中的方法org.apache.hadoop.hbase.regionserver.SplitTransaction.TransactionListener
-
Invoked when rolling back a transaction from one transaction phase to the
previous
- rollback(Server, RegionServerServices) - 类 中的方法org.apache.hadoop.hbase.regionserver.SplitTransactionImpl
-
- rollback(Server, RegionServerServices, User) - 类 中的方法org.apache.hadoop.hbase.regionserver.SplitTransactionImpl
-
- rollback(Cell) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
Removes a Cell from the memstore.
- rollbackRegionReplayEditsSize(byte[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionServerAccounting
-
Roll back the global MemStore size for a specified region when this region
can't be opened.
- rollbackState(MasterProcedureEnv, MasterProcedureProtos.AddColumnFamilyState) - 类 中的方法org.apache.hadoop.hbase.master.procedure.AddColumnFamilyProcedure
-
- rollbackState(MasterProcedureEnv, MasterProcedureProtos.CreateNamespaceState) - 类 中的方法org.apache.hadoop.hbase.master.procedure.CreateNamespaceProcedure
-
- rollbackState(MasterProcedureEnv, MasterProcedureProtos.CreateTableState) - 类 中的方法org.apache.hadoop.hbase.master.procedure.CreateTableProcedure
-
- rollbackState(MasterProcedureEnv, MasterProcedureProtos.DeleteColumnFamilyState) - 类 中的方法org.apache.hadoop.hbase.master.procedure.DeleteColumnFamilyProcedure
-
- rollbackState(MasterProcedureEnv, MasterProcedureProtos.DeleteNamespaceState) - 类 中的方法org.apache.hadoop.hbase.master.procedure.DeleteNamespaceProcedure
-
- rollbackState(MasterProcedureEnv, MasterProcedureProtos.DeleteTableState) - 类 中的方法org.apache.hadoop.hbase.master.procedure.DeleteTableProcedure
-
- rollbackState(MasterProcedureEnv, MasterProcedureProtos.DisableTableState) - 类 中的方法org.apache.hadoop.hbase.master.procedure.DisableTableProcedure
-
- rollbackState(MasterProcedureEnv, MasterProcedureProtos.EnableTableState) - 类 中的方法org.apache.hadoop.hbase.master.procedure.EnableTableProcedure
-
- rollbackState(MasterProcedureEnv, MasterProcedureProtos.ModifyColumnFamilyState) - 类 中的方法org.apache.hadoop.hbase.master.procedure.ModifyColumnFamilyProcedure
-
- rollbackState(MasterProcedureEnv, MasterProcedureProtos.ModifyNamespaceState) - 类 中的方法org.apache.hadoop.hbase.master.procedure.ModifyNamespaceProcedure
-
- rollbackState(MasterProcedureEnv, MasterProcedureProtos.ModifyTableState) - 类 中的方法org.apache.hadoop.hbase.master.procedure.ModifyTableProcedure
-
- rollbackState(MasterProcedureEnv, MasterProcedureProtos.ServerCrashState) - 类 中的方法org.apache.hadoop.hbase.master.procedure.ServerCrashProcedure
-
- rollbackState(MasterProcedureEnv, MasterProcedureProtos.TruncateTableState) - 类 中的方法org.apache.hadoop.hbase.master.procedure.TruncateTableProcedure
-
- RollingStatCalculator - org.apache.hadoop.hbase.util中的类
-
This class maintains mean and variation for any sequence of input provided to it.
- RollingStatCalculator(int) - 类 的构造器org.apache.hadoop.hbase.util.RollingStatCalculator
-
Creates a RollingStatCalculator with given number of rolling periods.
- rollMetricsPeriod() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- rollMetricsPeriod() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache.CombinedCacheStats
-
- rollWALWriter(RpcController, AdminProtos.RollWALWriterRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
Roll the WAL writer of the region server.
- rollWriter() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
- rollWriter(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
- rollWriter() - 接口 中的方法org.apache.hadoop.hbase.wal.WAL
-
Roll the log writer.
- rollWriter(boolean) - 接口 中的方法org.apache.hadoop.hbase.wal.WAL
-
Roll the log writer.
- rootBlockContainingKey(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlockIndex.BlockIndexReader
-
Finds the root-level index block containing the given key.
- rootBlockContainingKey(Cell) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlockIndex.BlockIndexReader
-
Finds the root-level index block containing the given key.
- rootDir - 类 中的变量org.apache.hadoop.hbase.master.snapshot.TakeSnapshotHandler
-
- rootFs - 类 中的变量org.apache.hadoop.hbase.master.snapshot.TakeSnapshotHandler
-
- roundRobinAssignment(List<HRegionInfo>, List<ServerName>) - 类 中的方法org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer
-
Generates a bulk assignment plan to be used on cluster startup using a
simple round-robin assignment.
- roundRobinAssignment(List<HRegionInfo>, List<ServerName>) - 类 中的方法org.apache.hadoop.hbase.master.balancer.FavoredNodeLoadBalancer
-
- roundRobinAssignment(List<HRegionInfo>, List<ServerName>) - 接口 中的方法org.apache.hadoop.hbase.master.LoadBalancer
-
Perform a Round Robin assignment of regions.
- roundUpToBucketSizeInfo(int) - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketAllocator
-
Round up the given block size to bucket size, and get the corresponding
BucketSizeInfo
- rowComparator - 类 中的变量org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
Row comparator for the region this query is for
- RowCounter - org.apache.hadoop.hbase.mapred中的类
-
A job with a map to count rows.
- RowCounter() - 类 的构造器org.apache.hadoop.hbase.mapred.RowCounter
-
- RowCounter - org.apache.hadoop.hbase.mapreduce中的类
-
A job with a just a map phase to count rows.
- RowCounter() - 类 的构造器org.apache.hadoop.hbase.mapreduce.RowCounter
-
- rowIsInRange(HRegionInfo, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HRegion
-
Determines if the specified row is within the row range specified by the
specified HRegionInfo
- rowIsInRange(HRegionInfo, byte[], int, short) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.HRegion
-
- ROWKEY_COLUMN_SPEC - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser
-
- RowProcessor<S extends com.google.protobuf.Message,T extends com.google.protobuf.Message> - org.apache.hadoop.hbase.regionserver中的接口
-
Defines the procedure to atomically perform multiple scans and mutations
on a HRegion.
- RowProcessorClient - org.apache.hadoop.hbase.client.coprocessor中的类
-
Convenience class that is used to make RowProcessorEndpoint invocations.
- RowProcessorClient() - 类 的构造器org.apache.hadoop.hbase.client.coprocessor.RowProcessorClient
-
- RowTooBigException - org.apache.hadoop.hbase.regionserver中的异常错误
-
Gets or Scans throw this exception if running without in-row scan flag
set and row size appears to exceed max configured size (configurable via
hbase.table.max.rowsize).
- RowTooBigException(String) - 异常错误 的构造器org.apache.hadoop.hbase.regionserver.RowTooBigException
-
- rowToStr(byte[]) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.NumberStringSplit
-
- rowToStr(byte[]) - 接口 中的方法org.apache.hadoop.hbase.util.RegionSplitter.SplitAlgorithm
-
- rowToStr(byte[]) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.UniformSplit
-
- RPC_WARN_TIME_KEY - 类 中的静态变量org.apache.hadoop.hbase.monitoring.TaskMonitor
-
- RpcCallContext - org.apache.hadoop.hbase.ipc中的接口
-
- RpcExecutor - org.apache.hadoop.hbase.ipc中的类
-
- RpcExecutor(String, int, int) - 类 的构造器org.apache.hadoop.hbase.ipc.RpcExecutor
-
已过时。
- RpcExecutor(String, int, int, Configuration, Abortable) - 类 的构造器org.apache.hadoop.hbase.ipc.RpcExecutor
-
已过时。
- RpcExecutor(String, int, int, PriorityFunction, Configuration, Abortable) - 类 的构造器org.apache.hadoop.hbase.ipc.RpcExecutor
-
- RpcExecutor(String, int, String, int, PriorityFunction, Configuration, Abortable) - 类 的构造器org.apache.hadoop.hbase.ipc.RpcExecutor
-
- RpcExecutor.Handler - org.apache.hadoop.hbase.ipc中的类
-
- RpcExecutor.QueueBalancer - org.apache.hadoop.hbase.ipc中的类
-
- RpcExecutor.QueueBalancer() - 类 的构造器org.apache.hadoop.hbase.ipc.RpcExecutor.QueueBalancer
-
- rpcs - 类 中的变量org.apache.hadoop.hbase.procedure.Subprocedure
-
- RpcScheduler - org.apache.hadoop.hbase.ipc中的类
-
An interface for RPC request scheduling algorithm.
- RpcScheduler() - 类 的构造器org.apache.hadoop.hbase.ipc.RpcScheduler
-
- RpcScheduler.Context - org.apache.hadoop.hbase.ipc中的类
-
Exposes runtime information of a RpcServer that a RpcScheduler may need.
- RpcScheduler.Context() - 类 的构造器org.apache.hadoop.hbase.ipc.RpcScheduler.Context
-
- RpcSchedulerFactory - org.apache.hadoop.hbase.regionserver中的接口
-
- RpcServer - org.apache.hadoop.hbase.ipc中的类
-
An RPC server that hosts protobuf described Services.
- RpcServer(Server, String, List<RpcServer.BlockingServiceAndInterface>, InetSocketAddress, Configuration, RpcScheduler) - 类 的构造器org.apache.hadoop.hbase.ipc.RpcServer
-
Constructs a server listening on the named port and address.
- RpcServer.BlockingServiceAndInterface - org.apache.hadoop.hbase.ipc中的类
-
Datastructure for passing a BlockingService and its associated class of
protobuf service interface.
- RpcServer.BlockingServiceAndInterface(BlockingService, Class<?>) - 类 的构造器org.apache.hadoop.hbase.ipc.RpcServer.BlockingServiceAndInterface
-
- RpcServer.Call - org.apache.hadoop.hbase.ipc中的类
-
Datastructure that holds all necessary to a method invocation and then afterward, carries
the result.
- RpcServer.Connection - org.apache.hadoop.hbase.ipc中的类
-
Reads calls from a connection and queues them for handling.
- RpcServer.Connection(SocketChannel, long) - 类 的构造器org.apache.hadoop.hbase.ipc.RpcServer.Connection
-
- RpcServer.Responder - org.apache.hadoop.hbase.ipc中的类
-
- RpcServerInterface - org.apache.hadoop.hbase.ipc中的接口
-
- rpcServices - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
- RS_ENABLE_TABLE_METRICS_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServer
-
- RS_ENABLE_TABLE_METRICS_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.MetricsRegionServer
-
- RSDumpServlet - org.apache.hadoop.hbase.regionserver中的类
-
- RSDumpServlet() - 类 的构造器org.apache.hadoop.hbase.regionserver.RSDumpServlet
-
- RSRpcServices - org.apache.hadoop.hbase.regionserver中的类
-
Implements the regionserver RPC services.
- RSRpcServices(HRegionServer) - 类 的构造器org.apache.hadoop.hbase.regionserver.RSRpcServices
-
- rss - 类 中的变量org.apache.hadoop.hbase.regionserver.handler.FinishRegionRecoveringHandler
-
- rsServices - 类 中的变量org.apache.hadoop.hbase.regionserver.handler.OpenRegionHandler
-
- RSStatusServlet - org.apache.hadoop.hbase.regionserver中的类
-
- RSStatusServlet() - 类 的构造器org.apache.hadoop.hbase.regionserver.RSStatusServlet
-
- RSStatusTmpl - org.apache.hadoop.hbase.tmpl.regionserver中的类
-
- RSStatusTmpl(TemplateManager) - 类 的构造器org.apache.hadoop.hbase.tmpl.regionserver.RSStatusTmpl
-
- RSStatusTmpl(String) - 类 的构造器org.apache.hadoop.hbase.tmpl.regionserver.RSStatusTmpl
-
- RSStatusTmpl() - 类 的构造器org.apache.hadoop.hbase.tmpl.regionserver.RSStatusTmpl
-
- RSStatusTmpl.ImplData - org.apache.hadoop.hbase.tmpl.regionserver中的类
-
- RSStatusTmpl.ImplData() - 类 的构造器org.apache.hadoop.hbase.tmpl.regionserver.RSStatusTmpl.ImplData
-
- RSStatusTmpl.Intf - org.apache.hadoop.hbase.tmpl.regionserver中的接口
-
- RSStatusTmplImpl - org.apache.hadoop.hbase.tmpl.regionserver中的类
-
- RSStatusTmplImpl(TemplateManager, RSStatusTmpl.ImplData) - 类 的构造器org.apache.hadoop.hbase.tmpl.regionserver.RSStatusTmplImpl
-
- run() - 类 中的方法org.apache.hadoop.hbase.executor.EventHandler
-
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFilePrettyPrinter
-
Runs the command-line pretty-printer, and returns the desired command
exit code (zero for success, non-zero for failure).
- run() - 类 中的方法org.apache.hadoop.hbase.ipc.CallRunner
-
- run() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor.Handler
-
- run() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer.Responder
-
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.mapred.RowCounter
-
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.mapreduce.CopyTable
-
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.mapreduce.HashTable
-
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.mapreduce.ImportTsv
-
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.mapreduce.LoadIncrementalHFiles
-
- run(Mapper<ImmutableBytesWritable, Result, K2, V2>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MultithreadedTableMapper
-
Run the application's maps using a thread pool.
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.mapreduce.replication.VerifyReplication
-
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.mapreduce.SyncTable
-
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.mapreduce.WALPlayer
-
- run() - 类 中的方法org.apache.hadoop.hbase.master.HMasterCommandLine.LocalHMaster
-
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.master.HMasterCommandLine
-
- run() - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureUtil.NonceProcedureRunnable
-
- run() - 类 中的方法org.apache.hadoop.hbase.master.snapshot.SnapshotFileCache.RefreshCacheTask
-
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.migration.NamespaceUpgrade
-
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.migration.UpgradeTo96
-
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactionTool
-
- run() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
The HRegionServer sticks in this loop until closed.
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServerCommandLine
-
- run() - 类 中的方法org.apache.hadoop.hbase.regionserver.Leases
-
- run() - 类 中的方法org.apache.hadoop.hbase.regionserver.LogRoller
-
- run() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsRegionWrapperImpl.HRegionMetricsWrapperRunnable
-
- run() - 类 中的方法org.apache.hadoop.hbase.regionserver.MetricsTableWrapperAggregateImpl.TableMetricsWrapperRunnable
-
- run() - 类 中的方法org.apache.hadoop.hbase.regionserver.SplitLogWorker
-
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.DumpReplicationQueues
-
- run() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSource.ReplicationSourceShipperThread
-
- run() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSource
-
- run() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSourceWALReaderThread
-
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSyncUp
-
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.snapshot.ExportSnapshot
-
Execute the export snapshot by copying the snapshot metadata, hfiles and wals.
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.snapshot.SnapshotInfo
-
已过时。
- run() - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.Monitor
-
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool
-
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.util.HFileV1Detector
-
Checks for HFileV1.
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.util.MapreduceDependencyClasspathTool
-
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.util.Merge
-
- run(String[]) - 类 中的方法org.apache.hadoop.hbase.util.ZKDataMigrator
-
- run(String[]) - 类 中的静态方法org.apache.hadoop.hbase.wal.WALPrettyPrinter
-
Pass one or more log file names and formatting options and it will dump out
a text version of the contents on stdout.
- run() - 类 中的方法org.apache.hadoop.hbase.wal.WALSplitter.WriterThread
-
- RUN_MAX_STEPS_KEY - 类 中的静态变量org.apache.hadoop.hbase.master.balancer.StochasticLoadBalancer
-
- RUN_SHUTDOWN_HOOK - 类 中的静态变量org.apache.hadoop.hbase.regionserver.ShutdownHook
-
Key for boolean configuration whose default is true.
- runCatalogScan(RpcController, MasterProtos.RunCatalogScanRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- runCleaner() - 类 中的方法org.apache.hadoop.hbase.master.cleaner.CleanerChore
-
- runCleanerChore(RpcController, MasterProtos.RunCleanerChoreRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- runCmdAsync(List<String>) - 类 中的静态方法org.apache.hadoop.hbase.util.ProcessUtils
-
- RWQueueRpcExecutor - org.apache.hadoop.hbase.ipc中的类
-
RPC Executor that uses different queues for reads and writes.
- RWQueueRpcExecutor(String, int, int, PriorityFunction, Configuration, Abortable) - 类 的构造器org.apache.hadoop.hbase.ipc.RWQueueRpcExecutor
-
- RWQueueRpcExecutor(String, int, int, float, int, Configuration, Abortable) - 类 的构造器org.apache.hadoop.hbase.ipc.RWQueueRpcExecutor
-
已过时。
- RWQueueRpcExecutor(String, int, int, float, float, int) - 类 的构造器org.apache.hadoop.hbase.ipc.RWQueueRpcExecutor
-
已过时。
- RWQueueRpcExecutor(String, int, int, float, float, int, Configuration, Abortable) - 类 的构造器org.apache.hadoop.hbase.ipc.RWQueueRpcExecutor
-
已过时。
- RWQueueRpcExecutor(String, int, int, float, int, Configuration, Abortable, Class<? extends BlockingQueue>, Object...) - 类 的构造器org.apache.hadoop.hbase.ipc.RWQueueRpcExecutor
-
已过时。
- RWQueueRpcExecutor(String, int, int, float, float, int, Configuration, Abortable, Class<? extends BlockingQueue>, Object...) - 类 的构造器org.apache.hadoop.hbase.ipc.RWQueueRpcExecutor
-
已过时。
- RWQueueRpcExecutor(String, int, int, float, float, Class<? extends BlockingQueue>, Object[], Class<? extends BlockingQueue>, Object[]) - 类 的构造器org.apache.hadoop.hbase.ipc.RWQueueRpcExecutor
-
已过时。
- RWQueueRpcExecutor(String, int, int, int, int, Class<? extends BlockingQueue>, Object[], Class<? extends BlockingQueue>, Object[]) - 类 的构造器org.apache.hadoop.hbase.ipc.RWQueueRpcExecutor
-
已过时。
- RWQueueRpcExecutor(String, int, int, int, int, float, Class<? extends BlockingQueue>, Object[], Class<? extends BlockingQueue>, Object[]) - 类 的构造器org.apache.hadoop.hbase.ipc.RWQueueRpcExecutor
-
已过时。
- sanityCheckLeft(byte[], byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeMultiFileWriter
-
Subclasses can call this method to make sure the first KV is within multi-writer range.
- sanityCheckRight(byte[], byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeMultiFileWriter
-
Subclasses can call this method to make sure the last KV is within multi-writer range.
- sanityCheckUncompressedSize() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlock
-
An additional sanity-check in case no compression or encryption is being used.
- saveMetadata(HFile.Writer) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFileDataBlockEncoder
-
Save metadata in HFile which will be written to disk
- saveMetadata(HFile.Writer) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileDataBlockEncoderImpl
-
- saveMetadata(HFile.Writer) - 类 中的方法org.apache.hadoop.hbase.io.hfile.NoOpDataBlockEncoder
-
- SCAN - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
Base-64 encoded scanner.
- scan(RpcController, ClientProtos.ScanRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
Scan data in a table.
- scan - 类 中的变量org.apache.hadoop.hbase.regionserver.StoreScanner
-
- SCAN_BATCHSIZE - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
Set the maximum number of values to return for each call to next().
- SCAN_CACHEBLOCKS - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
Set to false to disable server-side caching of blocks for this scan.
- SCAN_CACHEDROWS - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
The number of rows for caching that will be passed to scanners.
- SCAN_COLUMN_FAMILY - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
Column Family to Scan
- SCAN_COLUMNS - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
Space delimited list of columns and column families to scan.
- SCAN_MAXVERSIONS - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
The maximum number of version to return.
- SCAN_ROW_START - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
Scan start row
- SCAN_ROW_STOP - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
Scan stop row
- SCAN_TIMERANGE_END - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
The ending timestamp used to filter columns with a specific range of versions.
- SCAN_TIMERANGE_START - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
The starting timestamp used to filter columns with a specific range of versions.
- SCAN_TIMESTAMP - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
The timestamp used to filter columns with a specific timestamp.
- SCAN_VTIME_WEIGHT_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.AnnotationReadingPriorityFunction
-
Used to control the scan delay, currently sqrt(numNextCall * weight)
- ScanDeleteTracker - org.apache.hadoop.hbase.regionserver.querymatcher中的类
-
This class is responsible for the tracking and enforcement of Deletes during the course of a Scan
operation.
- ScanDeleteTracker() - 类 的构造器org.apache.hadoop.hbase.regionserver.querymatcher.ScanDeleteTracker
-
- ScanInfo - org.apache.hadoop.hbase.regionserver中的类
-
Immutable information for scans over a store.
- ScanInfo(Configuration, HColumnDescriptor, long, long, KeyValue.KVComparator) - 类 的构造器org.apache.hadoop.hbase.regionserver.ScanInfo
-
- ScanInfo(Configuration, byte[], int, int, long, KeepDeletedCells, long, KeyValue.KVComparator) - 类 的构造器org.apache.hadoop.hbase.regionserver.ScanInfo
-
- ScanLabelGenerator - org.apache.hadoop.hbase.security.visibility中的接口
-
This would be the interface which would be used add labels to the RPC context
and this would be stored against the UGI.
- ScannerContext - org.apache.hadoop.hbase.regionserver中的类
-
- ScannerContext.Builder - org.apache.hadoop.hbase.regionserver中的类
-
- ScannerContext.LimitScope - org.apache.hadoop.hbase.regionserver中的枚举
-
The various scopes where a limit can be enforced.
- ScannerContext.NextState - org.apache.hadoop.hbase.regionserver中的枚举
-
- ScannerIdGenerator - org.apache.hadoop.hbase.regionserver中的类
-
Generate a new style scanner id to prevent collision with previous started server or other RSs.
- ScannerIdGenerator(ServerName) - 类 的构造器org.apache.hadoop.hbase.regionserver.ScannerIdGenerator
-
- ScanQueryMatcher - org.apache.hadoop.hbase.regionserver.querymatcher中的类
-
A query matcher that is specifically designed for the scan case.
- ScanQueryMatcher(Cell, ScanInfo, ColumnTracker, long, long) - 类 的构造器org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
- ScanQueryMatcher.MatchCode - org.apache.hadoop.hbase.regionserver.querymatcher中的枚举
-
- SCANS - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.MultiTableInputFormat
-
Job parameter that specifies the scan list.
- ScanType - org.apache.hadoop.hbase.regionserver中的枚举
-
Enum to distinguish general scan types.
- ScanWildcardColumnTracker - org.apache.hadoop.hbase.regionserver.querymatcher中的类
-
Keeps track of the columns for a scan if they are not explicitly specified
- ScanWildcardColumnTracker(int, int, long) - 类 的构造器org.apache.hadoop.hbase.regionserver.querymatcher.ScanWildcardColumnTracker
-
Return maxVersions of every row.
- scopeWALEdits(HTableDescriptor, WALKey, WALEdit, Configuration, ReplicationSourceManager) - 类 中的静态方法org.apache.hadoop.hbase.replication.regionserver.Replication
-
Utility method used to set the correct scopes on each log key.
- ScopeWALEntryFilter - org.apache.hadoop.hbase.replication中的类
-
Keeps KVs that are scoped other than local
- ScopeWALEntryFilter() - 类 的构造器org.apache.hadoop.hbase.replication.ScopeWALEntryFilter
-
- secretManager - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer
-
- SecureBulkLoadEndpoint - org.apache.hadoop.hbase.security.access中的类
-
Coprocessor service for bulk loads in secure mode.
- SecureBulkLoadEndpoint() - 类 的构造器org.apache.hadoop.hbase.security.access.SecureBulkLoadEndpoint
-
- secureBulkLoadHFiles(RpcController, SecureBulkLoadProtos.SecureBulkLoadHFilesRequest, RpcCallback<SecureBulkLoadProtos.SecureBulkLoadHFilesResponse>) - 类 中的方法org.apache.hadoop.hbase.security.access.SecureBulkLoadEndpoint
-
- SecureProtobufLogReader - org.apache.hadoop.hbase.regionserver.wal中的类
-
- SecureProtobufLogReader() - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.SecureProtobufLogReader
-
- SecureProtobufLogWriter - org.apache.hadoop.hbase.regionserver.wal中的类
-
- SecureProtobufLogWriter() - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.SecureProtobufLogWriter
-
- SecureWALCellCodec - org.apache.hadoop.hbase.regionserver.wal中的类
-
A WALCellCodec that encrypts the WALedits.
- SecureWALCellCodec(Configuration, CompressionContext) - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.SecureWALCellCodec
-
- SecureWALCellCodec(Configuration, Encryptor) - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.SecureWALCellCodec
-
- SecureWALCellCodec(Configuration, Decryptor) - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.SecureWALCellCodec
-
- SecurityUtil - org.apache.hadoop.hbase.security中的类
-
Security related generic utility methods.
- SecurityUtil() - 类 的构造器org.apache.hadoop.hbase.security.SecurityUtil
-
- seek(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.DefaultMemStore.MemStoreScanner
-
Set the scanner at the seek key.
- seek(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.KeyValueHeap
-
Seeks all scanners at or below the specified seek key.
- seek(Cell) - 接口 中的方法org.apache.hadoop.hbase.regionserver.KeyValueScanner
-
Seek the scanner at or after the specified KeyValue.
- seek(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.ReversedKeyValueHeap
-
- seek(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
- seek(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreScanner
-
- seek(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ReaderBase
-
- seek(Cell) - 类 中的方法org.apache.hadoop.hbase.util.CollectionBackedScanner
-
- seek(long) - 接口 中的方法org.apache.hadoop.hbase.wal.WAL.Reader
-
- seekAsDirection(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreScanner
-
Do a reseek in a normal StoreScanner(scan forward)
- seekAtOrAfter(HFileScanner, Cell) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
- seekBefore(byte[]) - 类 中的方法org.apache.hadoop.hbase.io.hfile.AbstractHFileReader.Scanner
-
- seekBefore(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2.AbstractScannerV2
-
- seekBefore(Cell) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2.AbstractScannerV2
-
- seekBefore(byte[]) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFileScanner
-
已过时。
- seekBefore(byte[], int, int) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFileScanner
-
已过时。
- seekBefore(Cell) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFileScanner
-
- seekOnFs(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- seekOnFs(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ReaderBase
-
Performs a filesystem-level seek to a certain position in an underlying file.
- seekOnFs(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.SequenceFileLogReader
-
- seekScanners(List<? extends KeyValueScanner>, Cell, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreScanner
-
Seek the specified scanners with the given key
- seekTo(byte[]) - 类 中的方法org.apache.hadoop.hbase.io.hfile.AbstractHFileReader.Scanner
-
- seekTo(byte[], int, int) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2.AbstractScannerV2
-
- seekTo(Cell) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2.AbstractScannerV2
-
- seekTo(Cell, boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2.AbstractScannerV2
-
An internal API function.
- seekTo() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2.EncodedScannerV2
-
- seekTo() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2.ScannerV2
-
Positions this scanner at the start of the file.
- seekTo(byte[]) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFileScanner
-
已过时。
- seekTo(byte[], int, int) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFileScanner
-
已过时。
- seekTo(Cell) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFileScanner
-
- seekTo() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFileScanner
-
Positions this scanner at the start of the file.
- seekToDataBlock(Cell, HFileBlock, boolean, boolean, boolean, DataBlockEncoding) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlockIndex.BlockIndexReader
-
Return the data block which contains this key.
- seekToLastRow() - 类 中的方法org.apache.hadoop.hbase.regionserver.DefaultMemStore.MemStoreScanner
-
- seekToLastRow() - 接口 中的方法org.apache.hadoop.hbase.regionserver.KeyValueScanner
-
Seek the scanner at the first KeyValue of last row
- seekToLastRow() - 类 中的方法org.apache.hadoop.hbase.regionserver.NonReversedNonLazyKeyValueScanner
-
- seekToLastRow() - 类 中的方法org.apache.hadoop.hbase.regionserver.ReversedKeyValueHeap
-
- seekToLastRow() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
- seekToNextRow(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreScanner
-
- seekToPreviousRow(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.DefaultMemStore.MemStoreScanner
-
Separately get the KeyValue before the specified key from kvset and
snapshotset, and use the row of higher one as the previous row of
specified key, then seek to the first KeyValue of previous row
- seekToPreviousRow(Cell) - 接口 中的方法org.apache.hadoop.hbase.regionserver.KeyValueScanner
-
Seek the scanner at the first Cell of the row which is the previous row
of specified key
- seekToPreviousRow(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.NonReversedNonLazyKeyValueScanner
-
- seekToPreviousRow(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.ReversedKeyValueHeap
-
- seekToPreviousRow(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
- select(List<StoreFile>, boolean, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionContext
-
Called to select files for compaction.
- selectCompaction(Collection<StoreFile>, List<StoreFile>, boolean, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.FIFOCompactionPolicy
-
- selectCompaction(Collection<StoreFile>, List<StoreFile>, boolean, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.SortedCompactionPolicy
-
- selectCompaction(StripeCompactionPolicy.StripeInformationProvider, List<StoreFile>, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.StripeCompactionPolicy
-
- selectFlush(KeyValue.KVComparator, StripeCompactionPolicy.StripeInformationProvider, int) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.StripeCompactionPolicy
-
- selectMajorCompaction(ArrayList<StoreFile>) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.DateTieredCompactionPolicy
-
- selectMinorCompaction(ArrayList<StoreFile>, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.DateTieredCompactionPolicy
-
We receive store files sorted in ascending order by seqId then scan the list of files.
- selectScannersFrom(List<? extends KeyValueScanner>) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreScanner
-
Filters the given list of scanners using Bloom filter, time range, and
TTL.
- selectSingleStripeCompaction(StripeCompactionPolicy.StripeInformationProvider, boolean, boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.StripeCompactionPolicy
-
- selectStoresToFlush() - 类 中的方法org.apache.hadoop.hbase.regionserver.FlushAllStoresPolicy
-
- selectStoresToFlush() - 类 中的方法org.apache.hadoop.hbase.regionserver.FlushLargeStoresPolicy
-
- selectStoresToFlush() - 类 中的方法org.apache.hadoop.hbase.regionserver.FlushPolicy
-
- sendAbortToMembers(Procedure, ForeignException) - 接口 中的方法org.apache.hadoop.hbase.procedure.ProcedureCoordinatorRpcs
-
Notify the members that the coordinator has aborted the procedure and that it should release
barrier resources.
- sendAbortToMembers(Procedure, ForeignException) - 类 中的方法org.apache.hadoop.hbase.procedure.ZKProcedureCoordinatorRpcs
-
This is the abort message being sent by the coordinator to member
TODO this code isn't actually used but can be used to issue a cancellation from the
coordinator.
- sendGlobalBarrierAcquire(Procedure, byte[], List<String>) - 接口 中的方法org.apache.hadoop.hbase.procedure.ProcedureCoordinatorRpcs
-
Notify the members to acquire barrier for the procedure
- sendGlobalBarrierAcquire(Procedure, byte[], List<String>) - 类 中的方法org.apache.hadoop.hbase.procedure.ZKProcedureCoordinatorRpcs
-
The "acquire" phase.
- sendGlobalBarrierComplete() - 类 中的方法org.apache.hadoop.hbase.procedure.Procedure
-
- sendGlobalBarrierReached() - 类 中的方法org.apache.hadoop.hbase.procedure.Procedure
-
Sends a message to all members that the global barrier condition has been satisfied.
- sendGlobalBarrierReached(Procedure, List<String>) - 接口 中的方法org.apache.hadoop.hbase.procedure.ProcedureCoordinatorRpcs
-
Notify members that all members have acquired their parts of the barrier and that they can
now execute under the global barrier.
- sendGlobalBarrierReached(Procedure, List<String>) - 类 中的方法org.apache.hadoop.hbase.procedure.ZKProcedureCoordinatorRpcs
-
- sendGlobalBarrierStart() - 类 中的方法org.apache.hadoop.hbase.procedure.Procedure
-
- sendMemberAborted(Subprocedure, ForeignException) - 接口 中的方法org.apache.hadoop.hbase.procedure.ProcedureMemberRpcs
-
Notify the coordinator that we aborted the specified
Subprocedure
- sendMemberAborted(Subprocedure, ForeignException) - 类 中的方法org.apache.hadoop.hbase.procedure.ZKProcedureMemberRpcs
-
This should be called by the member and should write a serialized root cause exception as
to the abort znode.
- sendMemberAcquired(Subprocedure) - 接口 中的方法org.apache.hadoop.hbase.procedure.ProcedureMemberRpcs
-
Notify the coordinator that the specified
Subprocedure has acquired the locally required
barrier condition.
- sendMemberAcquired(Subprocedure) - 类 中的方法org.apache.hadoop.hbase.procedure.ZKProcedureMemberRpcs
-
This attempts to create an acquired state znode for the procedure (snapshot name).
- sendMemberCompleted(Subprocedure, byte[]) - 接口 中的方法org.apache.hadoop.hbase.procedure.ProcedureMemberRpcs
-
Notify the coordinator that the specified
Subprocedure has completed the work that
needed to be done under the global barrier.
- sendMemberCompleted(Subprocedure, byte[]) - 类 中的方法org.apache.hadoop.hbase.procedure.ZKProcedureMemberRpcs
-
This acts as the ack for a completed procedure
- sendRegionClose(ServerName, HRegionInfo, int, ServerName, boolean) - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
Sends an CLOSE RPC to the specified server to close the specified region.
- sendRegionClose(ServerName, HRegionInfo, int) - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
- sendRegionOpen(ServerName, HRegionInfo, int, List<ServerName>) - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
Sends an OPEN RPC to the specified server to open the specified region.
- sendRegionOpen(ServerName, List<Triple<HRegionInfo, Integer, List<ServerName>>>) - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
Sends an OPEN RPC to the specified server to open the specified region.
- sendRegionsMerge(ServerName, HRegionInfo, HRegionInfo, boolean, User) - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
Sends an MERGE REGIONS RPC to the specified server to merge the specified
regions.
- sendRegionWarmup(ServerName, HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
Sends a WARMUP RPC to the specified server to warmup the specified region.
- sendResponseIfReady() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer.Call
-
- sendShutdownInterrupt() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- sendShutdownInterrupt() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
Called on stop/abort before closing the cluster connection and meta locator.
- separator() - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.NumberStringSplit
-
- separator() - 接口 中的方法org.apache.hadoop.hbase.util.RegionSplitter.SplitAlgorithm
-
- separator() - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.UniformSplit
-
- SEPARATOR_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.ImportTsv
-
- SEQ_ID - 类 中的静态变量org.apache.hadoop.hbase.regionserver.StoreFile.Comparators
-
Comparator that compares based on the Sequence Ids of the
the StoreFiles.
- SEQ_ID_MAX_TIMESTAMP - 类 中的静态变量org.apache.hadoop.hbase.regionserver.StoreFile.Comparators
-
Comparator for time-aware compaction.
- seqids - 类 中的静态变量org.apache.hadoop.hbase.executor.EventHandler
-
- SequenceFileLogReader - org.apache.hadoop.hbase.regionserver.wal中的类
-
- SequenceFileLogReader() - 类 的构造器org.apache.hadoop.hbase.regionserver.wal.SequenceFileLogReader
-
- SequenceId - org.apache.hadoop.hbase.regionserver中的接口
-
Interface which abstracts implementations on log sequenceId assignment
- sequenceID - 类 中的变量org.apache.hadoop.hbase.regionserver.StoreFile.Reader
-
- sequenceIdChecker - 类 中的变量org.apache.hadoop.hbase.wal.WALSplitter
-
- serialize(String, Throwable) - 异常错误 中的静态方法org.apache.hadoop.hbase.errorhandling.ForeignException
-
Converts a ForeignException to an array of bytes.
- serialize(ByteBuffer, boolean) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.Cacheable
-
Serializes its data into destination.
- serialize(ByteBuffer, boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlock
-
- serialize(KeyValue) - 类 中的方法org.apache.hadoop.hbase.mapreduce.KeyValueSerialization.KeyValueSerializer
-
- serializeStateData(OutputStream) - 类 中的方法org.apache.hadoop.hbase.master.procedure.AddColumnFamilyProcedure
-
- serializeStateData(OutputStream) - 类 中的方法org.apache.hadoop.hbase.master.procedure.CreateNamespaceProcedure
-
- serializeStateData(OutputStream) - 类 中的方法org.apache.hadoop.hbase.master.procedure.CreateTableProcedure
-
- serializeStateData(OutputStream) - 类 中的方法org.apache.hadoop.hbase.master.procedure.DeleteColumnFamilyProcedure
-
- serializeStateData(OutputStream) - 类 中的方法org.apache.hadoop.hbase.master.procedure.DeleteNamespaceProcedure
-
- serializeStateData(OutputStream) - 类 中的方法org.apache.hadoop.hbase.master.procedure.DeleteTableProcedure
-
- serializeStateData(OutputStream) - 类 中的方法org.apache.hadoop.hbase.master.procedure.DisableTableProcedure
-
- serializeStateData(OutputStream) - 类 中的方法org.apache.hadoop.hbase.master.procedure.EnableTableProcedure
-
- serializeStateData(OutputStream) - 类 中的方法org.apache.hadoop.hbase.master.procedure.ModifyColumnFamilyProcedure
-
- serializeStateData(OutputStream) - 类 中的方法org.apache.hadoop.hbase.master.procedure.ModifyNamespaceProcedure
-
- serializeStateData(OutputStream) - 类 中的方法org.apache.hadoop.hbase.master.procedure.ModifyTableProcedure
-
- serializeStateData(OutputStream) - 类 中的方法org.apache.hadoop.hbase.master.procedure.ServerCrashProcedure
-
- serializeStateData(OutputStream) - 类 中的方法org.apache.hadoop.hbase.master.procedure.TruncateTableProcedure
-
- server - 类 中的变量org.apache.hadoop.hbase.coordination.ZkCoordinatedStateManager
-
- server - 类 中的变量org.apache.hadoop.hbase.executor.EventHandler
-
- server - 类 中的变量org.apache.hadoop.hbase.master.AssignmentManager
-
- server - 类 中的变量org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer.Cluster.AssignRegionAction
-
- server - 类 中的变量org.apache.hadoop.hbase.master.BulkAssigner
-
- Server - org.apache.hadoop.hbase中的接口
-
Defines the set of shared functions implemented by HBase servers (Masters
and RegionServers).
- serverAdded(ServerName) - 接口 中的方法org.apache.hadoop.hbase.master.ServerListener
-
The server has joined the cluster.
- ServerCommandLine - org.apache.hadoop.hbase.util中的类
-
Base class for command lines that start up various HBase daemons.
- ServerCommandLine() - 类 的构造器org.apache.hadoop.hbase.util.ServerCommandLine
-
- ServerConfigurationKeys - org.apache.hadoop.hbase.http中的接口
-
This interface contains constants for configuration keys used
in the hbase http server code.
- ServerCrashProcedure - org.apache.hadoop.hbase.master.procedure中的类
-
Handle crashed server.
- ServerCrashProcedure(MasterProcedureEnv, ServerName, boolean, boolean) - 类 的构造器org.apache.hadoop.hbase.master.procedure.ServerCrashProcedure
-
Call this constructor queuing up a Procedure.
- ServerCrashProcedure() - 类 的构造器org.apache.hadoop.hbase.master.procedure.ServerCrashProcedure
-
- serverHasTooFewRegions(int) - 类 中的方法org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer.Cluster
-
Returns true iff a given server has less regions than the balanced amount
- ServerListener - org.apache.hadoop.hbase.master中的接口
-
Get notification of server registration events.
- ServerManager - org.apache.hadoop.hbase.master中的类
-
The ServerManager class manages info about region servers.
- ServerManager(Server, MasterServices) - 类 的构造器org.apache.hadoop.hbase.master.ServerManager
-
Constructor.
- serverManager - 类 中的变量org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl
-
- ServerMetricsTmpl - org.apache.hadoop.hbase.tmpl.regionserver中的类
-
- ServerMetricsTmpl(TemplateManager) - 类 的构造器org.apache.hadoop.hbase.tmpl.regionserver.ServerMetricsTmpl
-
- ServerMetricsTmpl(String) - 类 的构造器org.apache.hadoop.hbase.tmpl.regionserver.ServerMetricsTmpl
-
- ServerMetricsTmpl() - 类 的构造器org.apache.hadoop.hbase.tmpl.regionserver.ServerMetricsTmpl
-
- ServerMetricsTmpl.ImplData - org.apache.hadoop.hbase.tmpl.regionserver中的类
-
- ServerMetricsTmpl.ImplData() - 类 的构造器org.apache.hadoop.hbase.tmpl.regionserver.ServerMetricsTmpl.ImplData
-
- ServerMetricsTmpl.Intf - org.apache.hadoop.hbase.tmpl.regionserver中的接口
-
- ServerMetricsTmplImpl - org.apache.hadoop.hbase.tmpl.regionserver中的类
-
- ServerMetricsTmplImpl(TemplateManager, ServerMetricsTmpl.ImplData) - 类 的构造器org.apache.hadoop.hbase.tmpl.regionserver.ServerMetricsTmplImpl
-
- serverName - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
The server name the Master sees us as.
- ServerNonceManager - org.apache.hadoop.hbase.regionserver中的类
-
Implementation of nonce manager that stores nonces in a hash map and cleans them up after
some time; if nonce group/client ID is supplied, nonces are stored by client ID.
- ServerNonceManager(Configuration) - 类 的构造器org.apache.hadoop.hbase.regionserver.ServerNonceManager
-
- serverOffline(ZooKeeperWatcher, ServerName) - 类 中的方法org.apache.hadoop.hbase.master.RegionStates
-
A server is offline, all regions on it are dead.
- ServerProcedureInterface - org.apache.hadoop.hbase.master.procedure中的接口
-
Procedures that handle servers -- e.g. server crash -- must implement this Interface.
- ServerProcedureInterface.ServerOperationType - org.apache.hadoop.hbase.master.procedure中的枚举
-
- ServerRegionReplicaUtil - org.apache.hadoop.hbase.util中的类
-
- ServerRegionReplicaUtil() - 类 的构造器org.apache.hadoop.hbase.util.ServerRegionReplicaUtil
-
- serverRemoved(ServerName) - 接口 中的方法org.apache.hadoop.hbase.master.ServerListener
-
The server was removed from the cluster.
- servers - 类 中的变量org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl
-
- servers - 类 中的变量org.apache.hadoop.hbase.tmpl.master.RegionServerListTmpl
-
- service - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer.Call
-
- service - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
- services - 类 中的变量org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer
-
- services - 类 中的变量org.apache.hadoop.hbase.regionserver.LogRoller
-
- services - 类 中的静态变量org.apache.hadoop.hbase.security.HBasePolicyProvider
-
- set(long, TimeUnit) - 类 中的方法org.apache.hadoop.hbase.quotas.RateLimiter
-
Set the RateLimiter max available resources and refill period.
- set(int, E) - 类 中的方法org.apache.hadoop.hbase.util.SortedList
-
- setACL(AccessControlList) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.Builder
-
- setAgeOfLastAppliedOp(long) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.MetricsSink
-
Set the age of the last applied operation
- setAgeOfLastShippedOp(long, String) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.MetricsSource
-
Set the age of the last edit that was shipped
- setAgeOfLastShippedOpByTable(long, String) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.MetricsSource
-
Set the age of the last edit that was shipped group by table
- setAllowed(boolean) - 类 中的方法org.apache.hadoop.hbase.security.access.AuthResult
-
- setAppDir(String) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.Builder
-
- setArchiveTables(List<String>) - 类 中的方法org.apache.hadoop.hbase.backup.example.HFileArchiveTableMonitor
-
Set the tables to be archived.
- setAssignmentManager(AssignmentManager) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.AssignmentManagerStatusTmpl.ImplData
-
- setAssignmentManager(AssignmentManager) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl.ImplData
-
- setAssignmentManager(AssignmentManager) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl
-
- setAttribute(String, Object) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
Set a value in the webapp context.
- setAttribute(String, Object) - 类 中的方法org.apache.hadoop.hbase.http.InfoServer
-
- setAuths(byte[], List<byte[]>) - 类 中的方法org.apache.hadoop.hbase.security.visibility.DefaultVisibilityLabelServiceImpl
-
- setAuths(RpcController, VisibilityLabelsProtos.SetAuthsRequest, RpcCallback<VisibilityLabelsProtos.VisibilityLabelsResponse>) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityController
-
- setAuths(byte[], List<byte[]>) - 接口 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityLabelService
-
Sets given labels globally authorized for the user.
- setAutoFlush(boolean) - 类 中的方法org.apache.hadoop.hbase.client.HTableWrapper
-
- setAutoFlush(boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.client.HTableWrapper
-
- setAutoFlushTo(boolean) - 类 中的方法org.apache.hadoop.hbase.client.HTableWrapper
-
- setBalancerOn(boolean) - 类 中的方法org.apache.hadoop.hbase.zookeeper.LoadBalancerTracker
-
Set the balancer on/off
- setBalancerRunning(RpcController, MasterProtos.SetBalancerRunningRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- setBandwidth(double) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationThrottler
-
- setBatchLimit(int) - 类 中的方法org.apache.hadoop.hbase.regionserver.ScannerContext.Builder
-
- setBcn(String) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.BlockCacheViewTmpl.ImplData
-
- setBcn(String) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.RSStatusTmpl.ImplData
-
- setBcn(String) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.RSStatusTmpl
-
- setBcv(String) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.BlockCacheViewTmpl.ImplData
-
- setBcv(String) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.RSStatusTmpl.ImplData
-
- setBcv(String) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.RSStatusTmpl
-
- setBindAddress(String) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.Builder
-
已过时。
- setBlockCacheSize(float) - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerResult
-
- setBlockedFlushCount(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerContext
-
- setBulkLoaded(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile.Reader
-
- setBulkToken(String) - 类 中的方法org.apache.hadoop.hbase.mapreduce.LoadIncrementalHFiles
-
Called from replication sink, where it manages bulkToken(staging directory) by itself.
- setCacheConfig(CacheConfig) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.BlockCacheTmpl.ImplData
-
- setCacheConfig(CacheConfig) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.BlockCacheViewTmpl.ImplData
-
- setCacheDataInL1(boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
Only used for testing.
- setCacheDataOnWrite(boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
Only used for testing.
- setCacheMissCount(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerContext
-
- setCacheOff() - 接口 中的方法org.apache.hadoop.hbase.TableDescriptors
-
Disables the tabledescriptor cache
- setCacheOff() - 类 中的方法org.apache.hadoop.hbase.util.FSTableDescriptors
-
- setCacheOn() - 接口 中的方法org.apache.hadoop.hbase.TableDescriptors
-
Enables the tabledescriptor cache
- setCacheOn() - 类 中的方法org.apache.hadoop.hbase.util.FSTableDescriptors
-
- setCatalogJanitorEnabled(boolean) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
Switch for the background CatalogJanitor thread.
- setCatalogJanitorEnabled(boolean) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl.ImplData
-
- setCatalogJanitorEnabled(boolean) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl
-
- setCells(ArrayList<Cell>) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WALEdit
-
This is not thread safe.
- setCheckHdfs(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- setCleanerChoreRunning(RpcController, MasterProtos.SetCleanerChoreRunningRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- setClosedState(HRegion, ServerName, CloseRegionCoordination.CloseRegionDetails) - 接口 中的方法org.apache.hadoop.hbase.coordination.CloseRegionCoordination
-
Called after region is closed to notify all interesting parties / "register"
region as finally closed.
- setClosedState(HRegion, ServerName, CloseRegionCoordination.CloseRegionDetails) - 类 中的方法org.apache.hadoop.hbase.coordination.ZkCloseRegionCoordination
-
In ZK-based version we do some znodes transitioning.
- setClosing(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Exposed for some very specific unit tests.
- setClusterDown() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ClusterStatusTracker
-
Sets the cluster as down by deleting the znode.
- setClusterId(FileSystem, Path, ClusterId, int) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Writes a new unique identifier for this cluster to the "hbase.id" file
in the HBase root directory
- setClusterIds(List<String>) - 类 中的方法org.apache.hadoop.hbase.mapreduce.LoadIncrementalHFiles
-
- setClusterStatus(ClusterStatus) - 类 中的方法org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer
-
- setClusterStatus(ClusterStatus) - 类 中的方法org.apache.hadoop.hbase.master.balancer.StochasticLoadBalancer
-
- setClusterStatus(ClusterStatus) - 接口 中的方法org.apache.hadoop.hbase.master.LoadBalancer
-
Set the current cluster status.
- setClusterUp() - 类 中的方法org.apache.hadoop.hbase.zookeeper.ClusterStatusTracker
-
Sets the cluster as up.
- setComparatorClass(Class<? extends KeyValue.KVComparator>) - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- setCompressionCodec(Compression.Algorithm) - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- setCompressionContext(CompressionContext) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WALEdit
-
- setCompressionContext(CompressionContext) - 类 中的方法org.apache.hadoop.hbase.wal.WAL.Entry
-
Set compression context for this entry.
- setCompressionContext(CompressionContext) - 类 中的方法org.apache.hadoop.hbase.wal.WALKey
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.backup.example.LongTermArchivingHFileCleaner
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.Builder
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.io.hfile.AbstractHFileReader
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.mapreduce.DefaultVisibilityExpressionResolver
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.mapreduce.GroupingTableMapper
-
Sets the configuration.
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.mapreduce.HRegionPartitioner
-
Sets the configuration.
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MultiTableInputFormat
-
Sets the configuration.
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.mapreduce.SimpleTotalOrderPartitioner
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
Sets the configuration.
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableOutputFormat
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.master.balancer.FavoredNodeLoadBalancer
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.master.balancer.StochasticLoadBalancer
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.master.cleaner.HFileLinkCleaner
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.master.cleaner.TimeToLiveHFileCleaner
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.master.cleaner.TimeToLiveLogCleaner
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.master.snapshot.SnapshotHFileCleaner
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.migration.NamespaceUpgrade
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionPolicy
-
Inform the policy that some configuration has been change,
so cached value should be updated it any.
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.regionserver.NoOpHeapMemoryTuner
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionMergeTransactionFactory
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.regionserver.SplitTransactionFactory
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.PressureAwareCompactionThroughputController
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.PressureAwareFlushThroughputController
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.replication.master.ReplicationHFileCleaner
-
- setConf(Configuration, ZooKeeperWatcher) - 类 中的方法org.apache.hadoop.hbase.replication.master.ReplicationHFileCleaner
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.replication.master.ReplicationLogCleaner
-
- setConf(Configuration, ZooKeeperWatcher) - 类 中的方法org.apache.hadoop.hbase.replication.master.ReplicationLogCleaner
-
- setConf(Configuration, ZooKeeperWatcher, ReplicationQueuesClient) - 类 中的方法org.apache.hadoop.hbase.replication.master.ReplicationLogCleaner
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.security.visibility.DefaultVisibilityLabelServiceImpl
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.security.visibility.DefinedSetFilterScanLabelGenerator
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.security.visibility.EnforcingScanLabelGenerator
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.security.visibility.FeedUserAuthScanLabelGenerator
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.security.visibility.SimpleScanLabelGenerator
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.BlockCacheViewTmpl.ImplData
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hbase.util.MapreduceDependencyClasspathTool
-
- setConfig(Configuration) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.BlockCacheTmpl.ImplData
-
- setConfiguration(HTableDescriptor, Class<? extends Constraint>, Configuration) - 类 中的静态方法org.apache.hadoop.hbase.constraint.Constraints
-
Update the configuration for the
Constraint; does not change the
order in which the constraint is run.
- setConfigure(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSyncUp
-
- setConflictWaitIterationMs(int) - 类 中的方法org.apache.hadoop.hbase.regionserver.ServerNonceManager
-
- setConnection(String, int) - 接口 中的方法org.apache.hadoop.hbase.monitoring.MonitoredRPCHandler
-
- setConnection(String, int) - 类 中的方法org.apache.hadoop.hbase.monitoring.MonitoredRPCHandlerImpl
-
Registers current handler client details.
- setConnector(Connector) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.Builder
-
- setCoprocessorHost(RegionCoprocessorHost) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- setCurBlockCacheSize(float) - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerContext
-
- setCurBlockCacheUsed(float) - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerContext
-
- setCurMemStoreSize(float) - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerContext
-
- setCurMemStoreUsed(float) - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerContext
-
- setCurrentCell(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
- setCurTaskZKVersion(MutableInt) - 类 中的方法org.apache.hadoop.hbase.coordination.ZkSplitLogWorkerCoordination.ZkSplitTaskDetails
-
- setDataIndexCount(int) - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- setDeadServers(Set<ServerName>) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl.ImplData
-
- setDeadServers(Set<ServerName>) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl
-
- setDefaultClientPort(int) - 类 中的方法org.apache.hadoop.hbase.zookeeper.MiniZooKeeperCluster
-
- setDeletedTable(TableName) - 接口 中的方法org.apache.hadoop.hbase.TableStateManager
-
Mark table as deleted.
- setDeletedTable(TableName) - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKTableStateManager
-
Deletes the table in zookeeper.
- setDeleteFamilyBloomFilterFaulty() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile.Reader
-
- setDepth(int) - 类 中的方法org.apache.hadoop.hbase.mapreduce.LoadIncrementalHFiles
-
- setDescription(String) - 接口 中的方法org.apache.hadoop.hbase.monitoring.MonitoredTask
-
- setDescription(String, String) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionRequest
-
Sets the region/store name, for logging.
- setDestination(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.RegionPlan
-
Set the destination server for the plan for this region.
- setDetails(SplitLogManagerCoordination.SplitLogManagerDetails) - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogManagerCoordination
-
Provide the configuration from the SplitLogManager
- setDetails(SplitLogManagerCoordination.SplitLogManagerDetails) - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination
-
- setDisplayFullReport() - 类 中的静态方法org.apache.hadoop.hbase.util.HBaseFsck
-
Display the full report from fsck.
- setEffectiveUser(String) - 类 中的方法org.apache.hadoop.hbase.util.ConnectionCache
-
Set the current thread local effective user
- setEnabled(boolean) - 类 中的方法org.apache.hadoop.hbase.master.CatalogJanitor
-
- setEnabled(boolean) - 类 中的方法org.apache.hadoop.hbase.master.cleaner.CleanerChore
-
- setEnabledTable(TableName) - 类 中的方法org.apache.hadoop.hbase.master.AssignmentManager
-
- setEncryptionKey(byte[]) - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- setEndKey(Configuration, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.SimpleTotalOrderPartitioner
-
- setEndRow(byte[]) - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReader
-
- setEndRow(byte[]) - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReaderImpl
-
- setEntries(List<WAL.Entry>) - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint.ReplicateContext
-
- setEntryCount(long) - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- setErr(Throwable) - 类 中的方法org.apache.hadoop.hbase.regionserver.handler.ParallelSeekHandler
-
- setErrorHandler(HBaseRPCErrorHandler) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer
-
Set the handler for calling out of RPC for error conditions.
- setErrorHandler(HBaseRPCErrorHandler) - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcServerInterface
-
- setEventReady(MasterProcedureScheduler.ProcedureEvent, boolean) - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureEnv
-
- setEvictCount(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerContext
-
- setEvictOnClose(boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
Only used for testing.
- setExpectedVersion(int) - 类 中的方法org.apache.hadoop.hbase.coordination.ZkCloseRegionCoordination.ZkCloseRegionDetails
-
- setExpiration(long) - 类 中的方法org.apache.hadoop.hbase.security.token.AuthenticationKey
-
- setFamilies(Map<byte[], ? extends Collection<?>>) - 类 中的方法org.apache.hadoop.hbase.security.access.AuthResult.Params
-
- setFamily(byte[]) - 类 中的方法org.apache.hadoop.hbase.security.access.AuthResult.Params
-
- setFileInfoOffset(long) - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- setFilename(String) - 类 中的方法org.apache.hadoop.hbase.http.HttpRequestLogAppender
-
- setFilter(String) - 类 中的方法org.apache.hadoop.hbase.tmpl.common.TaskMonitorTmpl.ImplData
-
- setFilter(String) - 类 中的方法org.apache.hadoop.hbase.tmpl.common.TaskMonitorTmpl
-
- setFilter(String) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl.ImplData
-
- setFilter(String) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl
-
- setFilter(String) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.RSStatusTmpl.ImplData
-
- setFilter(String) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.RSStatusTmpl
-
- setFindPort(boolean) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.Builder
-
- setFirstDataBlockOffset(long) - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- setFirstRow(String) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.NumberStringSplit
-
- setFirstRow(byte[]) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.NumberStringSplit
-
- setFirstRow(String) - 接口 中的方法org.apache.hadoop.hbase.util.RegionSplitter.SplitAlgorithm
-
In HBase, the last row is represented by an empty byte array.
- setFirstRow(byte[]) - 接口 中的方法org.apache.hadoop.hbase.util.RegionSplitter.SplitAlgorithm
-
Set the first row
- setFirstRow(String) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.UniformSplit
-
- setFirstRow(byte[]) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.UniformSplit
-
- setFixAssignments(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
Fix inconsistencies found by fsck.
- setFixEmptyMetaCells(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- setFixHdfsHoles(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- setFixHdfsOrphans(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- setFixHdfsOverlaps(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- setFixHFileLinks(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- setFixMeta(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- setFixReferenceFiles(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- setFixReplication(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
Set replication fix mode.
- setFixSplitParents(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- setFixTableLocks(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
Set table locks fix mode.
- setFixTableOrphans(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- setFixTableZNodes(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
Set orphaned table ZNodes fix mode.
- setFixVersionFile(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- setForceExclusive() - 类 中的静态方法org.apache.hadoop.hbase.util.HBaseFsck
-
Set exclusive mode.
- setFormat(String) - 类 中的方法org.apache.hadoop.hbase.tmpl.common.TaskMonitorTmpl.ImplData
-
- setFormat(String) - 类 中的方法org.apache.hadoop.hbase.tmpl.common.TaskMonitorTmpl
-
- setFormat(String) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl.ImplData
-
- setFormat(String) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl
-
- setFormat(String) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.RSStatusTmpl.ImplData
-
- setFormat(String) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.RSStatusTmpl
-
- setFrags(Map<String, Integer>) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl.ImplData
-
- setFrags(Map<String, Integer>) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl
-
- setFsDefault(Configuration, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
- setGauge(String, long) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.MetricsSource
-
- setGeneralBloomFilterFaulty() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile.Reader
-
- setGlobalMemstoreLimit(long) - 接口 中的方法org.apache.hadoop.hbase.regionserver.FlushRequester
-
Sets the global memstore limit to a new size.
- setHFileCorruptionChecker(HFileCorruptionChecker) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- setHTable(HTable) - 类 中的方法org.apache.hadoop.hbase.mapred.TableInputFormatBase
-
- setHTable(Table) - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReader
-
- setHTable(Table) - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReaderImpl
-
- setHTable(HTable) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
- setHTable(Table) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableRecordReader
-
已过时。
Use setTable() instead.
- setHTable(Table) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableRecordReaderImpl
-
Sets the HBase table.
- setIgnoreDeleteForTesting(boolean) - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination
-
Temporary function that is used by unit tests only
- setIgnorePreCheckPermission(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- setInfoFamilyCachingForMeta(HTableDescriptor, boolean) - 类 中的静态方法org.apache.hadoop.hbase.master.MasterFileSystem
-
Enable in memory caching for hbase:meta
- setInfoPort(int) - 类 中的方法org.apache.hadoop.hbase.master.ActiveMasterManager
-
- setInitialized(boolean) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- setInitLatch(CountDownLatch) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- setInput(Configuration, Map<String, Collection<Scan>>, Path) - 类 中的静态方法org.apache.hadoop.hbase.mapred.MultiTableSnapshotInputFormat
-
Configure conf to read from snapshotScans, with snapshots restored to a subdirectory of
restoreDir.
- setInput(JobConf, String, Path) - 类 中的静态方法org.apache.hadoop.hbase.mapred.TableSnapshotInputFormat
-
Configures the job to use TableSnapshotInputFormat to read from a snapshot.
- setInput(JobConf, String, Path, RegionSplitter.SplitAlgorithm, int) - 类 中的静态方法org.apache.hadoop.hbase.mapred.TableSnapshotInputFormat
-
Configures the job to use TableSnapshotInputFormat to read from a snapshot.
- setInput(Configuration, Map<String, Collection<Scan>>, Path) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.MultiTableSnapshotInputFormat
-
- setInput(Configuration, Map<String, Collection<Scan>>, Path) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MultiTableSnapshotInputFormatImpl
-
Configure conf to read from snapshotScans, with snapshots restored to a subdirectory of
restoreDir.
- setInput(Job, String, Path) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormat
-
Configures the job to use TableSnapshotInputFormat to read from a snapshot.
- setInput(Job, String, Path, RegionSplitter.SplitAlgorithm, int) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormat
-
Configures the job to use TableSnapshotInputFormat to read from a snapshot.
- setInput(Configuration, String, Path) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl
-
Configures the job to use TableSnapshotInputFormat to read from a snapshot.
- setInput(Configuration, String, Path, RegionSplitter.SplitAlgorithm, int) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl
-
Configures the job to use TableSnapshotInputFormat to read from a snapshot.
- setInputColumns(byte[][]) - 类 中的方法org.apache.hadoop.hbase.mapred.TableInputFormatBase
-
- setInputColumns(byte[][]) - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReader
-
- setInputColumns(byte[][]) - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReaderImpl
-
- setIsMajor(boolean, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionRequest
-
Specify if this compaction should be a major compaction based on the state of the store
- setKeepProgress(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.ScannerContext.Builder
-
- setKerberosNameRulesKey(String) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.Builder
-
- setKeytabConfKey(String) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.Builder
-
- setKeyValues(Configuration, String, Collection<Map.Entry<String, String>>) - 类 中的静态方法org.apache.hadoop.hbase.util.ConfigurationUtil
-
- setKeyValues(Configuration, String, Collection<Map.Entry<String, String>>, char) - 类 中的静态方法org.apache.hadoop.hbase.util.ConfigurationUtil
-
Store a collection of Map.Entry's in conf, with each entry separated by ','
and key values delimited by delimiter.
- setLastContact(long) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer.Connection
-
- setLastDataBlockOffset(long) - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- setLastPeekedCell(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.ScannerContext
-
- setLastQuery(long) - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaState
-
- setLastRow(String) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.NumberStringSplit
-
- setLastRow(byte[]) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.NumberStringSplit
-
- setLastRow(String) - 接口 中的方法org.apache.hadoop.hbase.util.RegionSplitter.SplitAlgorithm
-
In HBase, the last row is represented by an empty byte array.
- setLastRow(byte[]) - 接口 中的方法org.apache.hadoop.hbase.util.RegionSplitter.SplitAlgorithm
-
Set the last row
- setLastRow(String) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.UniformSplit
-
- setLastRow(byte[]) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.UniformSplit
-
- setLimit(int) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.AssignmentManagerStatusTmpl.ImplData
-
- setLimit(int) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.AssignmentManagerStatusTmpl
-
- setListener(EventHandler.EventHandlerListener) - 类 中的方法org.apache.hadoop.hbase.executor.EventHandler
-
- setLoadOnOpenOffset(long) - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- setLocations(Path, Path...) - 类 中的方法org.apache.hadoop.hbase.io.FileLink
-
NOTE: This method must be used only in the constructor!
- setLogDir(String) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.Builder
-
- setLogRecoveryMode() - 类 中的方法org.apache.hadoop.hbase.master.MasterFileSystem
-
The function is used in SSH to set recovery mode based on configuration after all outstanding
log split tasks drained.
- setMajorRange(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.StripeCompactionPolicy.StripeCompactionRequest
-
Sets compaction "major range".
- setMapperClass(Job, Class<? extends Mapper<ImmutableBytesWritable, Result, K2, V2>>) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.MultithreadedTableMapper
-
Set the application's mapper class.
- setMaster(HMaster) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.BackupMasterStatusTmpl.ImplData
-
- setMaster(HMaster) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl.ImplData
-
- setMaster(HMaster) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.RegionServerListTmpl.ImplData
-
- setMasterRpcServices(MasterRpcServices) - 接口 中的方法org.apache.hadoop.hbase.master.normalizer.RegionNormalizer
-
Set the master RPC service.
- setMasterRpcServices(MasterRpcServices) - 类 中的方法org.apache.hadoop.hbase.master.normalizer.SimpleRegionNormalizer
-
- setMasterServices(MasterServices) - 类 中的方法org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer
-
- setMasterServices(MasterServices) - 类 中的方法org.apache.hadoop.hbase.master.balancer.StochasticLoadBalancer
-
- setMasterServices(MasterServices) - 接口 中的方法org.apache.hadoop.hbase.master.LoadBalancer
-
Set the master service.
- setMasterServices(MasterServices) - 接口 中的方法org.apache.hadoop.hbase.master.normalizer.RegionNormalizer
-
Set the master service.
- setMasterServices(MasterServices) - 类 中的方法org.apache.hadoop.hbase.master.normalizer.SimpleRegionNormalizer
-
Set the master service.
- setMaxChunkSize(int) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlockIndex.BlockIndexWriter
-
- setMaxMemstoreTS(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
- setMaxMerge(int) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- setMaxOverlapsToSideline(int) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- setMaxSize(long) - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache
-
- setMaxSize(long) - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
- setMaxSize(long) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.ResizableBlockCache
-
Sets the max heap size that can be used by the BlockCache.
- setMaxThroughput(double) - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.PressureAwareThroughputController
-
- setMemstoreSize(float) - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerResult
-
- setMerged(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck.HbckInfo
-
- setMetaIndexCount(int) - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- setMetaLocation(ServerName) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl.ImplData
-
- setMetaLocation(ServerName) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl
-
- setMetricsSource(JvmPauseMonitorSource) - 类 中的方法org.apache.hadoop.hbase.util.JvmPauseMonitor
-
- setMinFilesToCompact(int) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionConfiguration
-
Set upper bound on number of files to be included in minor compactions
- setMinIndexNumEntries(int) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlockIndex.BlockIndexWriter
-
- setMinThreshold(int) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.RatioBasedCompactionPolicy
-
Overwrite min threshold for compaction
- setMServerWrap(MetricsHBaseServerWrapper) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.ServerMetricsTmpl.ImplData
-
- setMWrap(MetricsRegionServerWrapper) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.ServerMetricsTmpl.ImplData
-
- setName(String) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.Builder
-
已过时。
- setNamespace(String) - 类 中的方法org.apache.hadoop.hbase.security.access.AuthResult.Params
-
- setNamespaceGroupPermissions(String, String, List<TablePermission>) - 类 中的方法org.apache.hadoop.hbase.security.access.TableAuthManager
-
Overwrites the existing permission set for a group and triggers an update
for zookeeper synchronization.
- setNamespaceQuota(MasterProcedureEnv, NamespaceDescriptor) - 类 中的静态方法org.apache.hadoop.hbase.master.procedure.CreateNamespaceProcedure
-
Set quota for the namespace
- setNamespaceQuota(String, MasterProtos.SetQuotaRequest) - 类 中的方法org.apache.hadoop.hbase.quotas.MasterQuotaManager
-
- setNamespaceQuota(NamespaceDescriptor) - 类 中的方法org.apache.hadoop.hbase.quotas.MasterQuotaManager
-
- setNamespaceUserPermissions(String, String, List<TablePermission>) - 类 中的方法org.apache.hadoop.hbase.security.access.TableAuthManager
-
Overwrites the existing permission set for a given user for a table, and
triggers an update for zookeeper synchronization.
- setNextPtr(LruHashMap.Entry<K, V>) - 类 中的方法org.apache.hadoop.hbase.regionserver.LruHashMap.Entry
-
Sets the next pointer for the entry in the LRU.
- setNextRefillTime(long) - 类 中的方法org.apache.hadoop.hbase.quotas.AverageIntervalRateLimiter
-
- setNextRefillTime(long) - 类 中的方法org.apache.hadoop.hbase.quotas.FixedIntervalRateLimiter
-
- setNextRefillTime(long) - 类 中的方法org.apache.hadoop.hbase.quotas.RateLimiter
-
- setNextState(MasterProcedureProtos.AddColumnFamilyState) - 类 中的方法org.apache.hadoop.hbase.master.procedure.AddColumnFamilyProcedure
-
- setNextState(MasterProcedureProtos.CreateNamespaceState) - 类 中的方法org.apache.hadoop.hbase.master.procedure.CreateNamespaceProcedure
-
- setNextState(MasterProcedureProtos.CreateTableState) - 类 中的方法org.apache.hadoop.hbase.master.procedure.CreateTableProcedure
-
- setNextState(MasterProcedureProtos.DeleteColumnFamilyState) - 类 中的方法org.apache.hadoop.hbase.master.procedure.DeleteColumnFamilyProcedure
-
- setNextState(MasterProcedureProtos.DeleteNamespaceState) - 类 中的方法org.apache.hadoop.hbase.master.procedure.DeleteNamespaceProcedure
-
- setNextState(MasterProcedureProtos.DisableTableState) - 类 中的方法org.apache.hadoop.hbase.master.procedure.DisableTableProcedure
-
- setNextState(MasterProcedureProtos.EnableTableState) - 类 中的方法org.apache.hadoop.hbase.master.procedure.EnableTableProcedure
-
- setNextState(MasterProcedureProtos.ModifyColumnFamilyState) - 类 中的方法org.apache.hadoop.hbase.master.procedure.ModifyColumnFamilyProcedure
-
- setNextState(MasterProcedureProtos.ModifyNamespaceState) - 类 中的方法org.apache.hadoop.hbase.master.procedure.ModifyNamespaceProcedure
-
- setNextState(MasterProcedureProtos.ModifyTableState) - 类 中的方法org.apache.hadoop.hbase.master.procedure.ModifyTableProcedure
-
- setNonSeekedState() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2.ScannerV2
-
- setNonSeekedState() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV3.ScannerV3
-
- setNormalizerOn(boolean) - 类 中的方法org.apache.hadoop.hbase.zookeeper.RegionNormalizerTracker
-
Set region normalizer on/off
- setNormalizerRunning(RpcController, MasterProtos.SetNormalizerRunningRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- setNoStripeMetadata() - 类 中的方法org.apache.hadoop.hbase.regionserver.StripeMultiFileWriter
-
- setNumberOfThreads(Job, int) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.MultithreadedTableMapper
-
Set the number of threads in the pool for running maps.
- setNumDataIndexLevels(int) - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- setNumMapTasks(String, JobConf) - 类 中的静态方法org.apache.hadoop.hbase.mapred.TableMapReduceUtil
-
Sets the number of map tasks for the given job configuration to the
number of regions the given table has.
- setNumMovedRegions(int) - 类 中的方法org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer.Cluster
-
- setNumReduceTasks(String, JobConf) - 类 中的静态方法org.apache.hadoop.hbase.mapred.TableMapReduceUtil
-
Sets the number of reduce tasks for the given job configuration to the
number of regions the given table has.
- setNumReduceTasks(String, Job) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Sets the number of reduce tasks for the given job configuration to the
number of regions the given table has.
- setNumRegions(int) - 类 中的方法org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer.Cluster
-
- setOffPeak(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionRequest
-
- setOnlineRegions(List<HRegionInfo>) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.RegionListTmpl.ImplData
-
- setOperationStatus(int, OperationStatus) - 类 中的方法org.apache.hadoop.hbase.regionserver.MiniBatchOperationInProgress
-
Sets the status code for the operation(Mutation) at the specified position.
- setOperationTimeout(int) - 类 中的方法org.apache.hadoop.hbase.client.HTableWrapper
-
- setOrigLogSeqNum(long) - 类 中的方法org.apache.hadoop.hbase.wal.WALKey
-
Used to set original seq Id for WALKey during wal replay
- setPathSpec(String[]) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.Builder
-
- setPolicy(HttpConfig.Policy) - 类 中的方法org.apache.hadoop.hbase.http.HttpConfig
-
- setPort(int) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.Builder
-
已过时。
- setPosition(long) - 类 中的方法org.apache.hadoop.hbase.wal.WALPrettyPrinter
-
- setPrevPtr(LruHashMap.Entry<K, V>) - 类 中的方法org.apache.hadoop.hbase.regionserver.LruHashMap.Entry
-
Sets the previous pointer for the entry in the LRU.
- setPrimaryReplicaReader(boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.AbstractHFileReader
-
- setPrimaryReplicaReader(boolean) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFile.Reader
-
- setPrintStreams(PrintStream, PrintStream) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFilePrettyPrinter
-
- setPriority(int) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionRequest
-
Sets the priority for the request
- setProcId(long) - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureUtil.NonceProcedureRunnable
-
- setPublishStatusInZk(boolean) - 类 中的方法org.apache.hadoop.hbase.coordination.ZkCloseRegionCoordination.ZkCloseRegionDetails
-
- setQualifier(byte[]) - 类 中的方法org.apache.hadoop.hbase.security.access.AuthResult.Params
-
- setQuota(RpcController, MasterProtos.SetQuotaRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- setQuota(MasterProtos.SetQuotaRequest) - 类 中的方法org.apache.hadoop.hbase.quotas.MasterQuotaManager
-
- setQuotas(QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaState
-
Setup the global quota information.
- setQuotas(QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.quotas.UserQuotaState
-
- setQuotas(TableName, QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.quotas.UserQuotaState
-
Add the quota information of the specified table.
- setQuotas(String, QuotaProtos.Quotas) - 类 中的方法org.apache.hadoop.hbase.quotas.UserQuotaState
-
Add the quota information of the specified namespace.
- setRackManager(RackManager) - 类 中的方法org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer
-
- setRandomGeneratorForTest(Random) - 类 中的静态方法org.apache.hadoop.hbase.util.ByteBloomFilter
-
Sets a random generator to be used for look-ups instead of computing hashes.
- setReaderRunning(boolean) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSourceWALReaderThread
-
- setReadLatency(long) - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.RegionTaskResult
-
- setReadRpcTimeout(int) - 类 中的方法org.apache.hadoop.hbase.client.HTableWrapper
-
- setReadsEnabled(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- setReadSuccess() - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.RegionTaskResult
-
- setReason(String) - 类 中的方法org.apache.hadoop.hbase.security.access.AuthResult
-
- setRecovering(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
Reset recovering state of current region
- setRecoveryMode(boolean) - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogManagerCoordination
-
Change the recovery mode.
- setRecoveryMode(boolean) - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination
-
This function is to set recovery mode from outstanding split log tasks from before or current
configuration setting
- setRecoveryMode(boolean) - 类 中的方法org.apache.hadoop.hbase.master.SplitLogManager
-
This function is to set recovery mode from outstanding split log tasks from before or current
configuration setting
- setRegionCoprocessorHost(RegionCoprocessorHost) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
Sets the region coprocessor env.
- setRegionFilter(String) - 类 中的方法org.apache.hadoop.hbase.wal.WALPrettyPrinter
-
sets the region by which output will be filtered
- setRegionInfo(HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.master.normalizer.SplitNormalizationPlan
-
- setRegionServer(HRegionServer) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.RegionListTmpl.ImplData
-
- setRegionServer(HRegionServer) - 类 中的方法org.apache.hadoop.hbase.tmpl.regionserver.RSStatusTmpl.ImplData
-
- setRegionServers(List<ServerName>) - 类 中的方法org.apache.hadoop.hbase.replication.HBaseReplicationEndpoint
-
Set the list of region servers for that peer
- setRegionStateTOCLOSED(byte[], ServerName) - 类 中的方法org.apache.hadoop.hbase.master.RegionStates
-
Set the region state to CLOSED
- setRegionStateTOCLOSED(HRegionInfo, ServerName) - 类 中的方法org.apache.hadoop.hbase.master.RegionStates
-
Set the region state to CLOSED
- setRegionsToReopen(List<HRegionInfo>) - 类 中的方法org.apache.hadoop.hbase.master.AssignmentManager
-
Set the list of regions that will be reopened
because of an update in table schema
- setRemoveParents(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- setReplicaStoreFile(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile.Reader
-
- setRequest(CompactionRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.StripeCompactionPolicy.StripeCompactionRequest
-
- setResponse(Object, CellScanner, Throwable, String) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer.Call
-
- setRetainDays(int) - 类 中的方法org.apache.hadoop.hbase.http.HttpRequestLogAppender
-
- setRetCode(int) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- setRootDir(Configuration, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
- setRowFilter(Filter) - 类 中的方法org.apache.hadoop.hbase.mapred.TableInputFormatBase
-
Allows subclasses to set the
Filter to be used.
- setRowFilter(Filter) - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReader
-
- setRowFilter(Filter) - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReaderImpl
-
- setRowFilter(String) - 类 中的方法org.apache.hadoop.hbase.wal.WALPrettyPrinter
-
sets the region by which output will be filtered
- setRPC(String, Object[], long) - 接口 中的方法org.apache.hadoop.hbase.monitoring.MonitoredRPCHandler
-
- setRPC(String, Object[], long) - 类 中的方法org.apache.hadoop.hbase.monitoring.MonitoredRPCHandlerImpl
-
Tells this instance that it is monitoring a new RPC call.
- setRPCPacket(Message) - 接口 中的方法org.apache.hadoop.hbase.monitoring.MonitoredRPCHandler
-
- setRPCPacket(Message) - 类 中的方法org.apache.hadoop.hbase.monitoring.MonitoredRPCHandlerImpl
-
Gives this instance a reference to the protobuf received by the RPC, so
that it can later compute its size if asked for it.
- setRpcTimeout(int) - 类 中的方法org.apache.hadoop.hbase.client.HTableWrapper
-
已过时。
- setRsRpcServices(RSRpcServices) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer
-
- setRsRpcServices(RSRpcServices) - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcServerInterface
-
- setSaslTokenResponse(ByteBuffer) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer.Call
-
- setScan(Scan) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
Sets the scan defining the actual details like columns etc.
- setScan(Scan) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableRecordReader
-
Sets the scan defining the actual details like columns etc.
- setScan(Scan) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableRecordReaderImpl
-
Sets the scan defining the actual details like columns etc.
- setScannerCaching(JobConf, int) - 类 中的静态方法org.apache.hadoop.hbase.mapred.TableMapReduceUtil
-
Sets the number of rows to return and cache with each scanner iteration.
- setScannerCaching(Job, int) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
Sets the number of rows to return and cache with each scanner iteration.
- setScans(List<Scan>) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MultiTableInputFormatBase
-
Allows subclasses to set the list of
Scan objects.
- setScopes(NavigableMap<byte[], Integer>) - 类 中的方法org.apache.hadoop.hbase.wal.WALKey
-
- setSecretManager(SecretManager<? extends TokenIdentifier>) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer
-
- setSecurityEnabled(boolean) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.Builder
-
- setSequenceFilter(long) - 类 中的方法org.apache.hadoop.hbase.wal.WALPrettyPrinter
-
sets the region by which output will be filtered
- setSequenceID(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile.Reader
-
- setSequenceId(long) - 类 中的方法org.apache.hadoop.hbase.TagRewriteCell
-
- setServerCrashProcessingEnabled(boolean) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- setServerManager(ServerManager) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl.ImplData
-
- setServerManager(ServerManager) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl
-
- setServerName(ServerName) - 接口 中的方法org.apache.hadoop.hbase.coordination.OpenRegionCoordination.OpenRegionDetails
-
Sets server name on which opening operation is running.
- setServerName(ServerName) - 类 中的方法org.apache.hadoop.hbase.coordination.ZkOpenRegionCoordination.ZkOpenRegionDetails
-
- setServers(List<ServerName>) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl.ImplData
-
- setServers(List<ServerName>) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.MasterStatusTmpl
-
- setServers(List<ServerName>) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.RegionServerListTmpl.ImplData
-
- setServers(List<ServerName>) - 类 中的方法org.apache.hadoop.hbase.tmpl.master.RegionServerListTmpl
-
- setSidelineBigOverlaps(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- setSidelineDir(String) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- setSignatureSecretFileKey(String) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.Builder
-
- setSize(int) - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint.ReplicateContext
-
- setSizeLimit(ScannerContext.LimitScope, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.ScannerContext.Builder
-
- setSkipChecks(boolean) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck.HbckInfo
-
- setSlop(Configuration) - 类 中的方法org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer
-
- setSlop(Configuration) - 类 中的方法org.apache.hadoop.hbase.master.balancer.StochasticLoadBalancer
-
- setSnapshotDirs(Configuration, Map<String, Path>) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MultiTableSnapshotInputFormatImpl
-
- setSnapshotHandlerForTesting(TableName, SnapshotSentinel) - 类 中的方法org.apache.hadoop.hbase.master.snapshot.SnapshotManager
-
Set the handler for the current snapshot
Exposed for TESTING
- setSnapshotToScans(Configuration, Map<String, Collection<Scan>>) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MultiTableSnapshotInputFormatImpl
-
- setSocketSendBufSize(int) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer
-
Sets the socket buffer size used for responding to RPCs.
- setSocketSendBufSize(int) - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcServerInterface
-
- setSplitOrMergeEnabled(RpcController, MasterProtos.SetSplitOrMergeEnabledRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- setSplitOrMergeEnabled(boolean, Admin.MasterSwitchType) - 类 中的方法org.apache.hadoop.hbase.zookeeper.SplitOrMergeTracker
-
- setSplitPoint(byte[]) - 类 中的方法org.apache.hadoop.hbase.master.normalizer.SplitNormalizationPlan
-
- setStartKey(Configuration, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.mapreduce.SimpleTotalOrderPartitioner
-
- setStartRow(byte[]) - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReader
-
- setStartRow(byte[]) - 类 中的方法org.apache.hadoop.hbase.mapred.TableRecordReaderImpl
-
- setStatus(MonitoredRPCHandler) - 类 中的方法org.apache.hadoop.hbase.ipc.CallRunner
-
- setStatus(String) - 接口 中的方法org.apache.hadoop.hbase.monitoring.MonitoredTask
-
- setStoragePolicy(FileSystem, Configuration, Path, String, String) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Sets storage policy for given path according to config setting.
- setTable(Table) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableRecordReader
-
- setTableGroupPermissions(String, TableName, List<TablePermission>) - 类 中的方法org.apache.hadoop.hbase.security.access.TableAuthManager
-
Overwrites the existing permission set for a group and triggers an update
for zookeeper synchronization.
- setTableInfo(HBaseFsck.TableInfo) - 接口 中的方法org.apache.hadoop.hbase.util.hbck.TableIntegrityErrorHandler
-
Set the TableInfo used by all HRegionInfos fabricated by other callbacks
- setTableInfo(HBaseFsck.TableInfo) - 类 中的方法org.apache.hadoop.hbase.util.hbck.TableIntegrityErrorHandlerImpl
-
Set the TableInfo used by all HRegionInfos fabricated by other callbacks
- setTableName(TableName) - 类 中的方法org.apache.hadoop.hbase.security.access.AuthResult.Params
-
- setTableQuota(TableName, MasterProtos.SetQuotaRequest) - 类 中的方法org.apache.hadoop.hbase.quotas.MasterQuotaManager
-
- setTableRecordReader(TableRecordReader) - 类 中的方法org.apache.hadoop.hbase.mapred.TableInputFormatBase
-
- setTableRecordReader(TableRecordReader) - 类 中的方法org.apache.hadoop.hbase.mapreduce.MultiTableInputFormatBase
-
- setTableRecordReader(TableRecordReader) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
- setTableState(TableName, ZooKeeperProtos.Table.State) - 接口 中的方法org.apache.hadoop.hbase.TableStateManager
-
Sets the table into desired state.
- setTableState(TableName, ZooKeeperProtos.Table.State) - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKTableStateManager
-
Sets table state in ZK.
- setTableStateIfInStates(TableName, ZooKeeperProtos.Table.State, ZooKeeperProtos.Table.State...) - 接口 中的方法org.apache.hadoop.hbase.TableStateManager
-
Sets the specified table into the newState, but only if the table is already in
one of the possibleCurrentStates (otherwise no operation is performed).
- setTableStateIfInStates(TableName, ZooKeeperProtos.Table.State, ZooKeeperProtos.Table.State...) - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKTableStateManager
-
Checks and sets table state in ZK.
- setTableStateIfNotInStates(TableName, ZooKeeperProtos.Table.State, ZooKeeperProtos.Table.State...) - 接口 中的方法org.apache.hadoop.hbase.TableStateManager
-
Sets the specified table into the newState, but only if the table is NOT in
one of the possibleCurrentStates (otherwise no operation is performed).
- setTableStateIfNotInStates(TableName, ZooKeeperProtos.Table.State, ZooKeeperProtos.Table.State...) - 类 中的方法org.apache.hadoop.hbase.zookeeper.ZKTableStateManager
-
Checks and sets table state in ZK.
- setTableStateToDisabled(MasterProcedureEnv, TableName) - 类 中的静态方法org.apache.hadoop.hbase.master.procedure.DisableTableProcedure
-
Mark table state to Disabled
- setTableStateToDisabling(MasterProcedureEnv, TableName) - 类 中的静态方法org.apache.hadoop.hbase.master.procedure.DisableTableProcedure
-
Mark table state to Disabling
- setTableStateToEnabled(MasterProcedureEnv, TableName) - 类 中的静态方法org.apache.hadoop.hbase.master.procedure.EnableTableProcedure
-
Mark table state to Enabled
- setTableStateToEnabling(MasterProcedureEnv, TableName) - 类 中的静态方法org.apache.hadoop.hbase.master.procedure.EnableTableProcedure
-
Mark table state to Enabling
- setTableUserPermissions(String, TableName, List<TablePermission>) - 类 中的方法org.apache.hadoop.hbase.security.access.TableAuthManager
-
Overwrites the existing permission set for a given user for a table, and
triggers an update for zookeeper synchronization.
- setTargetTableName(String[]) - 类 中的方法org.apache.hadoop.hbase.master.RegionPlacementMaintainer
-
- setTaskMonitor(TaskMonitor) - 类 中的方法org.apache.hadoop.hbase.tmpl.common.TaskMonitorTmpl.ImplData
-
- setTaskMonitor(TaskMonitor) - 类 中的方法org.apache.hadoop.hbase.tmpl.common.TaskMonitorTmpl
-
- setTaskNode(String) - 类 中的方法org.apache.hadoop.hbase.coordination.ZkSplitLogWorkerCoordination.ZkSplitTaskDetails
-
- setTEST_FORCE_REFRESH(boolean) - 类 中的静态方法org.apache.hadoop.hbase.quotas.QuotaCache
-
- setTestSkipMergeHandling(boolean) - 类 中的静态方法org.apache.hadoop.hbase.master.AssignmentManager
-
- setTestSkipSplitHandling(boolean) - 类 中的静态方法org.apache.hadoop.hbase.master.AssignmentManager
-
- setThreads(int, int) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
Set the min, max number of worker threads (simultaneous connections).
- setTickTime(int) - 类 中的方法org.apache.hadoop.hbase.zookeeper.MiniZooKeeperCluster
-
- setTimeLag(long) - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
We are interested in only those tables that have not changed their state in
hbase:meta during the last few seconds specified by hbase.admin.fsck.timelag
- setTimeLimit(ScannerContext.LimitScope, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.ScannerContext.Builder
-
- setTimestamp(long) - 类 中的方法org.apache.hadoop.hbase.TagRewriteCell
-
- setTimestamp(byte[], int) - 类 中的方法org.apache.hadoop.hbase.TagRewriteCell
-
- setToNewRow(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
Set the row when there is change in row
- setTotalUncompressedBytes(long) - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- setTrackMetrics(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.ScannerContext.Builder
-
- setUnassigned() - 类 中的方法org.apache.hadoop.hbase.master.SplitLogManager.Task
-
- setUnblockedFlushCount(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager.TunerContext
-
- setUncompressedDataIndexSize(long) - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- setup(Mapper<ImmutableBytesWritable, Result, ImmutableBytesWritable, ImmutableBytesWritable>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.HashTable.HashMapper
-
- setup(Mapper<ImmutableBytesWritable, Result, ImmutableBytesWritable, Mutation>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.Import.Importer
-
- setup(Mapper<ImmutableBytesWritable, Result, ImmutableBytesWritable, KeyValue>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.Import.KeyValueImporter
-
- setup(Mapper<ImmutableBytesWritable, Result, Import.KeyValueWritableComparable, KeyValue>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.Import.KeyValueSortImporter
-
- setup(Reducer<ImmutableBytesWritable, Put, ImmutableBytesWritable, KeyValue>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.PutSortReducer
-
- setup(Mapper<ImmutableBytesWritable, Result, ImmutableBytesWritable, Mutation>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.SyncTable.SyncMapper
-
- setup(Reducer<ImmutableBytesWritable, Text, ImmutableBytesWritable, KeyValue>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TextSortReducer
-
Handles initializing this class with objects specific to it (i.e., the parser).
- setup(Mapper<LongWritable, Text, ImmutableBytesWritable, Put>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TsvImporterMapper
-
Handles initializing this class with objects specific to it (i.e., the parser).
- setup(Mapper<LongWritable, Text, ImmutableBytesWritable, Text>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TsvImporterTextMapper
-
Handles initializing this class with objects specific to it (i.e., the parser).
- setup(Mapper<WALKey, WALEdit, ImmutableBytesWritable, Mutation>.Context) - 类 中的方法org.apache.hadoop.hbase.mapreduce.WALPlayer.WALMapper
-
- setup(RegionServerServices) - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.NoLimitThroughputController
-
- setup(RegionServerServices) - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.PressureAwareCompactionThroughputController
-
- setup(RegionServerServices) - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.PressureAwareFlushThroughputController
-
- setup(RegionServerServices) - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.PressureAwareThroughputController
-
- setup(RegionServerServices) - 接口 中的方法org.apache.hadoop.hbase.regionserver.throttle.ThroughputController
-
Setup controller for the given region server.
- setupClusterConnection() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
Setup our cluster connection if not already initialized.
- setupJob(JobContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableOutputCommitter
-
- setupRegionReplicaReplication(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.ServerRegionReplicaUtil
-
Create replication peer for replicating to region replicas if needed.
- setupShortCircuitRead(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Do our short circuit read setup.
- setupTask(TaskAttemptContext) - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableOutputCommitter
-
- setUsernameConfKey(String) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.Builder
-
- setUserQuota(String, MasterProtos.SetQuotaRequest) - 类 中的方法org.apache.hadoop.hbase.quotas.MasterQuotaManager
-
- setUserQuota(String, TableName, MasterProtos.SetQuotaRequest) - 类 中的方法org.apache.hadoop.hbase.quotas.MasterQuotaManager
-
- setUserQuota(String, String, MasterProtos.SetQuotaRequest) - 类 中的方法org.apache.hadoop.hbase.quotas.MasterQuotaManager
-
- setValue(V) - 类 中的方法org.apache.hadoop.hbase.regionserver.LruHashMap.Entry
-
Set the value of this entry.
- setValue(long) - 类 中的方法org.apache.hadoop.hbase.util.ManualEnvironmentEdge
-
- setVersion(int) - 类 中的方法org.apache.hadoop.hbase.coordination.ZkOpenRegionCoordination.ZkOpenRegionDetails
-
- setVersion(FileSystem, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Sets version of file system
- setVersion(FileSystem, Path, int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Sets version of file system
- setVersion(FileSystem, Path, String, int, int) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
Sets version of file system
- setVersionOfOfflineNode(int) - 类 中的方法org.apache.hadoop.hbase.coordination.ZkOpenRegionCoordination.ZkOpenRegionDetails
-
- setVictimCache(BlockCache) - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
- setWalEdit(int, WALEdit) - 类 中的方法org.apache.hadoop.hbase.regionserver.MiniBatchOperationInProgress
-
Sets the walEdit for the operation(Mutation) at the specified position.
- setWalGroupId(String) - 类 中的方法org.apache.hadoop.hbase.replication.ReplicationEndpoint.ReplicateContext
-
- setWALRootDir(Configuration, Path) - 类 中的静态方法org.apache.hadoop.hbase.util.FSUtils
-
- setWarnTime(long) - 接口 中的方法org.apache.hadoop.hbase.monitoring.MonitoredTask
-
- setWorkerState(ReplicationSource.WorkerState) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSource.ReplicationSourceShipperThread
-
Set the worker state
- setWriteBufferSize(long) - 类 中的方法org.apache.hadoop.hbase.client.HTableWrapper
-
- setWriteEntry(MultiVersionConcurrencyControl.WriteEntry) - 类 中的方法org.apache.hadoop.hbase.wal.WALKey
-
- setWriteLatency(long) - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.RegionTaskResult
-
- setWriteRpcTimeout(int) - 类 中的方法org.apache.hadoop.hbase.client.HTableWrapper
-
- setWriteSuccess() - 类 中的方法org.apache.hadoop.hbase.tool.CanaryTool.RegionTaskResult
-
- setZnodeVersion(int) - 类 中的方法org.apache.hadoop.hbase.coordination.ZkRegionMergeCoordination.ZkRegionMergeDetails
-
- setZnodeVersion(int) - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitTransactionCoordination.ZkSplitTransactionDetails
-
- shipBatch(long, int) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.MetricsSource
-
Convience method to apply changes to metrics do to shipping a batch of logs.
- shipBatch(long, int, long) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.MetricsSource
-
Convience method to apply changes to metrics do to shipping a batch of logs.
- shipEdits(ReplicationSourceWALReaderThread.WALEntryBatch) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSource.ReplicationSourceShipperThread
-
Do the shipping logic
- shouldArchiveTable(String) - 类 中的方法org.apache.hadoop.hbase.backup.example.HFileArchiveTableMonitor
-
Determine if the given table should or should not allow its hfiles to be deleted in the archive
- shouldBeOnMaster(HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer
-
Check if a region belongs to some small system table.
- shouldBypass() - 类 中的方法org.apache.hadoop.hbase.coprocessor.ObserverContext
-
For use by the coprocessor framework.
- shouldCacheBlockOnRead(BlockType.BlockCategory) - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
Should we cache a block of a particular category?
- shouldCacheBloomsOnWrite() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
- shouldCacheCompressed(BlockType.BlockCategory) - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
- shouldCacheDataCompressed() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
- shouldCacheDataOnRead() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
Returns whether the DATA blocks of this HFile should be cached on read or not (we always
cache the meta blocks, the INDEX and BLOOM blocks).
- shouldCacheDataOnWrite() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
- shouldCacheIndexesOnWrite() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
- shouldComplete() - 类 中的方法org.apache.hadoop.hbase.coprocessor.ObserverContext
-
For use by the coprocessor framework.
- shouldDropBehind - 类 中的变量org.apache.hadoop.hbase.io.hfile.HFile.WriterFactory
-
- shouldDropBehindCompaction() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
- shouldEvictOnClose() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
- shouldFixVersionFile() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- shouldIgnorePreCheckPermission() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- shouldIncludeMemstoreTS() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileReaderV2
-
- shouldLockOnCacheMiss(BlockType) - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
If we make sure the block could not be cached, we will not acquire the lock
otherwise we will acquire lock
- shouldPerformMajorCompaction(Collection<StoreFile>) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionPolicy
-
- shouldPerformMajorCompaction(Collection<StoreFile>) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.DateTieredCompactionPolicy
-
- shouldPerformMajorCompaction(Collection<StoreFile>) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.FIFOCompactionPolicy
-
- shouldPerformMajorCompaction(Collection<StoreFile>) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.RatioBasedCompactionPolicy
-
- shouldPerformMajorCompaction(Collection<StoreFile>) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.SortedCompactionPolicy
-
- shouldPerformMajorCompaction(Collection<StoreFile>) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.StripeCompactionPolicy
-
- shouldPrefetchOnOpen() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
- shouldReadBlockFromCache(BlockType) - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
Return true if we may find this type of block in block cache.
- shouldReplaceExistingCacheBlock(BlockCache, BlockCacheKey, Cacheable) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.BlockCacheUtil
-
Because of the region splitting, it's possible that the split key locate in the middle of a
block.
- shouldReplayRecoveredEdits(HRegion) - 类 中的静态方法org.apache.hadoop.hbase.util.ServerRegionReplicaUtil
-
Returns whether to replay the recovered edits to flush the results.
- shouldSeek(Scan, Store, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.DefaultMemStore
-
Check if this memstore may contain the required keys
- shouldSidelineBigOverlaps() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck
-
- shouldSplit() - 类 中的方法org.apache.hadoop.hbase.regionserver.BusyRegionSplitPolicy
-
- shouldSplit() - 类 中的方法org.apache.hadoop.hbase.regionserver.ConstantSizeRegionSplitPolicy
-
- shouldSplit() - 类 中的方法org.apache.hadoop.hbase.regionserver.DisabledRegionSplitPolicy
-
- shouldSplit() - 类 中的方法org.apache.hadoop.hbase.regionserver.IncreasingToUpperBoundRegionSplitPolicy
-
- shouldSplit() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionSplitPolicy
-
- shouldUseHBaseChecksum() - 类 中的方法org.apache.hadoop.hbase.io.FSDataInputStreamWrapper
-
- shouldUseScanner(Scan, Store, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.DefaultMemStore.MemStoreScanner
-
- shouldUseScanner(Scan, Store, long) - 接口 中的方法org.apache.hadoop.hbase.regionserver.KeyValueScanner
-
Allows to filter out scanners (both StoreFile and memstore) that we don't
want to use based on criteria such as Bloom filters and timestamp ranges.
- shouldUseScanner(Scan, Store, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.NonLazyKeyValueScanner
-
- shouldUseScanner(Scan, Store, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
- shouldUseThisHostnameInstead() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- shouldWaitClientAck(MasterProcedureEnv) - 类 中的方法org.apache.hadoop.hbase.master.procedure.CreateNamespaceProcedure
-
- shouldWaitClientAck(MasterProcedureEnv) - 类 中的方法org.apache.hadoop.hbase.master.procedure.CreateTableProcedure
-
- shouldWaitClientAck(MasterProcedureEnv) - 类 中的方法org.apache.hadoop.hbase.master.procedure.ServerCrashProcedure
-
- shouldWriteBlock(boolean) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlockIndex.BlockIndexWriter
-
Whether there is an inline block ready to be written.
- shouldWriteBlock(boolean) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.InlineBlockWriter
-
Determines whether there is a new block to be written out.
- shouldWriteBlock(boolean) - 类 中的方法org.apache.hadoop.hbase.util.CompoundBloomFilterWriter
-
- SHUFFLE_MAPS - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
Specify if we have to shuffle the map tasks.
- shutdown() - 类 中的方法org.apache.hadoop.hbase.coprocessor.CoprocessorHost.Environment
-
Clean up the environment
- shutdown(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.coprocessor.CoprocessorHost
-
- shutdown() - 类 中的方法org.apache.hadoop.hbase.executor.ExecutorService
-
- shutdown() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.BlockCache
-
Shutdown the cache.
- shutdown() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketCache
-
- shutdown() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.ByteBufferIOEngine
-
No operation for the shutdown in the memory IO engine
- shutdown() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.FileIOEngine
-
Close the file
- shutdown() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.bucket.IOEngine
-
Shutdown the IOEngine
- shutdown() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache
-
- shutdown() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
- shutdown() - 类 中的方法org.apache.hadoop.hbase.LocalHBaseCluster
-
Shut down the mini HBase cluster
- shutdown() - 类 中的方法org.apache.hadoop.hbase.master.AssignmentManager
-
Shutdown the threadpool executor service
- shutdown() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- shutdown(RpcController, MasterProtos.ShutdownRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- shutdown() - 类 中的方法org.apache.hadoop.hbase.monitoring.TaskMonitor
-
- shutdown() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
- shutdown() - 类 中的方法org.apache.hadoop.hbase.util.ConnectionCache
-
Called when cache is no longer needed so that it can perform cleanup operations
- shutdown(List<JVMClusterUtil.MasterThread>, List<JVMClusterUtil.RegionServerThread>) - 类 中的静态方法org.apache.hadoop.hbase.util.JVMClusterUtil
-
- shutdown() - 类 中的方法org.apache.hadoop.hbase.util.MetaUtils
-
Closes catalog regions if open.
- shutdown() - 类 中的方法org.apache.hadoop.hbase.wal.DefaultWALProvider
-
- shutdown() - 类 中的方法org.apache.hadoop.hbase.wal.RegionGroupingProvider
-
- shutdown() - 接口 中的方法org.apache.hadoop.hbase.wal.WAL
-
Stop accepting new writes.
- shutdown() - 类 中的方法org.apache.hadoop.hbase.wal.WALFactory
-
Tell the underlying WAL providers to shut down, but do not clean up underlying storage.
- shutdown() - 接口 中的方法org.apache.hadoop.hbase.wal.WALProvider
-
persist outstanding WALs to storage and stop accepting new appends.
- shutdown() - 类 中的方法org.apache.hadoop.hbase.zookeeper.MiniZooKeeperCluster
-
- shutdownCluster() - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
- ShutdownHook - org.apache.hadoop.hbase.regionserver中的类
-
Manage regionserver shutdown hooks.
- ShutdownHook() - 类 的构造器org.apache.hadoop.hbase.regionserver.ShutdownHook
-
- ShutdownHookManager - org.apache.hadoop.hbase.util中的类
-
This class provides ShutdownHookManager shims for HBase to interact with the Hadoop 1.0.x and the
Hadoop 2.0+ series.
- ShutdownHookManager() - 类 的构造器org.apache.hadoop.hbase.util.ShutdownHookManager
-
- shutdownNow() - 类 中的方法org.apache.hadoop.hbase.master.cleaner.DirScanPool
-
- signalAll() - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureScheduler
-
- SimpleLoadBalancer - org.apache.hadoop.hbase.master.balancer中的类
-
Makes decisions about the placement and movement of Regions across
RegionServers.
- SimpleLoadBalancer() - 类 的构造器org.apache.hadoop.hbase.master.balancer.SimpleLoadBalancer
-
- SimpleRegionNormalizer - org.apache.hadoop.hbase.master.normalizer中的类
-
Simple implementation of region normalizer.
- SimpleRegionNormalizer() - 类 的构造器org.apache.hadoop.hbase.master.normalizer.SimpleRegionNormalizer
-
- SimpleRpcScheduler - org.apache.hadoop.hbase.ipc中的类
-
The default scheduler.
- SimpleRpcScheduler(Configuration, int, int, int, PriorityFunction, Abortable, int) - 类 的构造器org.apache.hadoop.hbase.ipc.SimpleRpcScheduler
-
- SimpleRpcScheduler(Configuration, int, int, int, PriorityFunction, int) - 类 的构造器org.apache.hadoop.hbase.ipc.SimpleRpcScheduler
-
- SimpleRpcSchedulerFactory - org.apache.hadoop.hbase.regionserver中的类
-
- SimpleRpcSchedulerFactory() - 类 的构造器org.apache.hadoop.hbase.regionserver.SimpleRpcSchedulerFactory
-
- SimpleScanLabelGenerator - org.apache.hadoop.hbase.security.visibility中的类
-
This is a simple implementation for ScanLabelGenerator.
- SimpleScanLabelGenerator() - 类 的构造器org.apache.hadoop.hbase.security.visibility.SimpleScanLabelGenerator
-
- SimpleTotalOrderPartitioner<VALUE> - org.apache.hadoop.hbase.mapreduce中的类
-
A partitioner that takes start and end keys and uses bigdecimal to figure
which reduce a key belongs to.
- SimpleTotalOrderPartitioner() - 类 的构造器org.apache.hadoop.hbase.mapreduce.SimpleTotalOrderPartitioner
-
- SingletonCoprocessorService - org.apache.hadoop.hbase.coprocessor中的接口
-
- sink - 类 中的变量org.apache.hadoop.hbase.tool.CanaryTool.Monitor
-
- sinkToString() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationLoad
-
sinkToString
- size() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.BlockCache
-
Returns the total size of the block cache, in bytes.
- size() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketCache
-
- size() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CombinedBlockCache
-
- size() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFile.FileInfo
-
- size() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
- size() - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- size - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer.Call
-
- size() - 类 中的方法org.apache.hadoop.hbase.master.DeadServer
-
- size() - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureScheduler
-
- size() - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSkipListSet
-
- size() - 类 中的方法org.apache.hadoop.hbase.regionserver.DefaultMemStore
-
- size() - 类 中的方法org.apache.hadoop.hbase.regionserver.LruHashMap
-
Gets the size (number of entries) of the map.
- size() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStore
-
- size() - 类 中的方法org.apache.hadoop.hbase.regionserver.MiniBatchOperationInProgress
-
- size() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WALEdit
-
- size() - 类 中的方法org.apache.hadoop.hbase.util.BoundedPriorityBlockingQueue
-
- size() - 类 中的方法org.apache.hadoop.hbase.util.SortedCopyOnWriteSet
-
- size() - 类 中的方法org.apache.hadoop.hbase.util.SortedList
-
- SIZE_TO_SPLIT_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.StripeStoreConfig
-
The size the stripe should achieve to be considered for splitting into multiple stripes.
- sizeIndex() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketAllocator.Bucket
-
- sizeIndexOfAllocation(long) - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketAllocator
-
- sizeOfAllocation(long) - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketAllocator
-
- SKIP_EMPTY_COLUMNS - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.ImportTsv
-
- SKIP_LINES_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.ImportTsv
-
- skipKVsNewerThanReadpoint() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
- skipLargeFiles(ArrayList<StoreFile>, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.SortedCompactionPolicy
-
- skippedEdits - 类 中的变量org.apache.hadoop.hbase.wal.WALSplitter.OutputSink
-
- skipStoreFileRangeCheck() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionSplitPolicy
-
- skipStoreFileRangeCheck(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionSplitPolicy
-
- sleeper - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
- sleepForRetries(String, int) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.HBaseInterClusterReplicationEndpoint
-
Do the sleeping logic
- sleepForRetries(String, int) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSource
-
Do the sleeping logic
- slop - 类 中的变量org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer
-
- SMALL_COMPACTION_THREADS - 类 中的静态变量org.apache.hadoop.hbase.regionserver.CompactSplitThread
-
- SMALL_COMPACTION_THREADS_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.regionserver.CompactSplitThread
-
- SMALL_HFILE_DELETE_THREAD_NUMBER - 类 中的静态变量org.apache.hadoop.hbase.master.cleaner.HFileCleaner
-
- SMALL_HFILE_QUEUE_INIT_SIZE - 类 中的静态变量org.apache.hadoop.hbase.master.cleaner.HFileCleaner
-
- snapshot(RpcController, MasterProtos.SnapshotRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
Triggers an asynchronous attempt to take a snapshot.
- snapshot - 类 中的变量org.apache.hadoop.hbase.master.snapshot.TakeSnapshotHandler
-
- snapshot() - 类 中的方法org.apache.hadoop.hbase.regionserver.DefaultMemStore
-
Creates a snapshot of the current memstore.
- snapshot() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStore
-
Creates a snapshot of the current memstore.
- snapshot_jsp - org.apache.hadoop.hbase.generated.master中的类
-
- snapshot_jsp() - 类 的构造器org.apache.hadoop.hbase.generated.master.snapshot_jsp
-
- SNAPSHOT_LAYOUT_VERSION - 类 中的静态变量org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils
-
Version of the fs layout for a snapshot.
- SNAPSHOT_MANIFEST_PREFIX - 类 中的静态变量org.apache.hadoop.hbase.snapshot.SnapshotManifestV2
-
- SNAPSHOT_MANIFEST_SIZE_LIMIT_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.snapshot.SnapshotManifest
-
- SNAPSHOT_POOL_THREADS_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.master.snapshot.SnapshotManager
-
number of current operations running on the master
- SNAPSHOT_POOL_THREADS_KEY - 类 中的静态变量org.apache.hadoop.hbase.master.snapshot.SnapshotManager
-
Conf key for # of threads used by the SnapshotManager thread pool
- SNAPSHOT_REQUEST_THREADS_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.regionserver.snapshot.RegionServerSnapshotManager
-
# of threads for snapshotting regions on the rs.
- SNAPSHOT_REQUEST_THREADS_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.snapshot.RegionServerSnapshotManager
-
Conf key for number of request threads to start snapshots on regionservers
- SNAPSHOT_REQUEST_WAKE_MILLIS_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.snapshot.RegionServerSnapshotManager
-
Conf key for millis between checks to see if snapshot completed or if there are errors
- SNAPSHOT_SENTINELS_CLEANUP_TIMEOUT_MILLS_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.master.snapshot.SnapshotManager
-
- SNAPSHOT_TIMEOUT_MILLIS_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.regionserver.snapshot.RegionServerSnapshotManager
-
Keep threads alive in request pool for max of 300 seconds
- SNAPSHOT_TIMEOUT_MILLIS_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils
-
- SNAPSHOT_TIMEOUT_MILLIS_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.snapshot.RegionServerSnapshotManager
-
Conf key for max time to keep threads in snapshot request pool waiting
- SNAPSHOT_TIMEOUT_MILLIS_KEY - 类 中的静态变量org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils
-
- SNAPSHOT_TMP_DIR_NAME - 类 中的静态变量org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils
-
Temporary directory under the snapshot directory to store in-progress snapshots
- SNAPSHOT_TO_SCANS_KEY - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.MultiTableSnapshotInputFormatImpl
-
- SNAPSHOT_WORKING_DIR - 类 中的静态变量org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils
-
The configuration property that determines the filepath of the snapshot
base working directory
- SnapshotDescriptionUtils - org.apache.hadoop.hbase.snapshot中的类
-
- SnapshotDescriptionUtils.CompletedSnaphotDirectoriesFilter - org.apache.hadoop.hbase.snapshot中的类
-
Filter that only accepts completed snapshot directories
- SnapshotDescriptionUtils.CompletedSnaphotDirectoriesFilter(FileSystem) - 类 的构造器org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils.CompletedSnaphotDirectoriesFilter
-
- snapshotDisabledRegion(HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.master.snapshot.TakeSnapshotHandler
-
Take a snapshot of the specified disabled region
- SnapshotFileCache - org.apache.hadoop.hbase.master.snapshot中的类
-
Intelligently keep track of all the files for all the snapshots.
- SnapshotFileCache(Configuration, long, String, SnapshotFileCache.SnapshotFileInspector) - 类 的构造器org.apache.hadoop.hbase.master.snapshot.SnapshotFileCache
-
Create a snapshot file cache for all snapshots under the specified [root]/.snapshot on the
filesystem.
- SnapshotFileCache(FileSystem, Path, long, long, String, SnapshotFileCache.SnapshotFileInspector) - 类 的构造器org.apache.hadoop.hbase.master.snapshot.SnapshotFileCache
-
Create a snapshot file cache for all snapshots under the specified [root]/.snapshot on the
filesystem
- SnapshotFileCache.RefreshCacheTask - org.apache.hadoop.hbase.master.snapshot中的类
-
Simple helper task that just periodically attempts to refresh the cache
- SnapshotFileCache.RefreshCacheTask() - 类 的构造器org.apache.hadoop.hbase.master.snapshot.SnapshotFileCache.RefreshCacheTask
-
- SnapshotHFileCleaner - org.apache.hadoop.hbase.master.snapshot中的类
-
Implementation of a file cleaner that checks if a hfile is still used by snapshots of HBase
tables.
- SnapshotHFileCleaner() - 类 的构造器org.apache.hadoop.hbase.master.snapshot.SnapshotHFileCleaner
-
- SnapshotInfo - org.apache.hadoop.hbase.snapshot中的类
-
已过时。
All the protos references will be changed to standalone POJOs from 2.0 onwards
- SnapshotInfo() - 类 的构造器org.apache.hadoop.hbase.snapshot.SnapshotInfo
-
已过时。
- SnapshotInfo.SnapshotStats - org.apache.hadoop.hbase.snapshot中的类
-
已过时。
Statistics about the snapshot
How many store files and logs are in the archive
How many store files and logs are shared with the table
Total store files and logs size and shared amount
- SNAPSHOTINFO_FILE - 类 中的静态变量org.apache.hadoop.hbase.snapshot.SnapshotDescriptionUtils
-
The file contains the snapshot basic information and it is under the directory of a snapshot.
- SnapshotManager - org.apache.hadoop.hbase.master.snapshot中的类
-
This class manages the procedure of taking and restoring snapshots.
- SnapshotManager() - 类 的构造器org.apache.hadoop.hbase.master.snapshot.SnapshotManager
-
- snapshotManager - 类 中的变量org.apache.hadoop.hbase.master.snapshot.TakeSnapshotHandler
-
- snapshotManifest - 类 中的变量org.apache.hadoop.hbase.master.snapshot.TakeSnapshotHandler
-
- SnapshotManifest - org.apache.hadoop.hbase.snapshot中的类
-
Utility class to help read/write the Snapshot Manifest.
- SnapshotManifestV1 - org.apache.hadoop.hbase.snapshot中的类
-
DO NOT USE DIRECTLY.
- SnapshotManifestV2 - org.apache.hadoop.hbase.snapshot中的类
-
DO NOT USE DIRECTLY.
- SnapshotOfRegionAssignmentFromMeta - org.apache.hadoop.hbase.master中的类
-
Used internally for reading meta and constructing datastructures that are
then queried, for things like regions to regionservers, table to regions, etc.
- SnapshotOfRegionAssignmentFromMeta(Connection) - 类 的构造器org.apache.hadoop.hbase.master.SnapshotOfRegionAssignmentFromMeta
-
- SnapshotOfRegionAssignmentFromMeta(Connection, Set<TableName>, boolean) - 类 的构造器org.apache.hadoop.hbase.master.SnapshotOfRegionAssignmentFromMeta
-
- SnapshotReferenceUtil - org.apache.hadoop.hbase.snapshot中的类
-
Utility methods for interacting with the snapshot referenced files.
- SnapshotReferenceUtil.SnapshotVisitor - org.apache.hadoop.hbase.snapshot中的接口
-
- SnapshotReferenceUtil.StoreFileVisitor - org.apache.hadoop.hbase.snapshot中的接口
-
- snapshotRegions(List<Pair<HRegionInfo, ServerName>>) - 类 中的方法org.apache.hadoop.hbase.master.snapshot.DisabledTableSnapshotHandler
-
- snapshotRegions(List<Pair<HRegionInfo, ServerName>>) - 类 中的方法org.apache.hadoop.hbase.master.snapshot.EnabledTableSnapshotHandler
-
This method kicks off a snapshot procedure.
- snapshotRegions(List<Pair<HRegionInfo, ServerName>>) - 类 中的方法org.apache.hadoop.hbase.master.snapshot.TakeSnapshotHandler
-
Snapshot the specified regions
- SnapshotSentinel - org.apache.hadoop.hbase.master中的接口
-
Watch the current snapshot under process
- snapshotsStats_jsp - org.apache.hadoop.hbase.generated.master中的类
-
- snapshotsStats_jsp() - 类 的构造器org.apache.hadoop.hbase.generated.master.snapshotsStats_jsp
-
- snapshotTable - 类 中的变量org.apache.hadoop.hbase.master.snapshot.TakeSnapshotHandler
-
- socket - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer.Connection
-
- socketSendBufferSize - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer
-
- solve() - 类 中的方法org.apache.hadoop.hbase.util.MunkresAssignment
-
Get the optimal assignments.
- SORTED_ORDINAL_SERIALIZATION_FORMAT_TAG - 类 中的静态变量org.apache.hadoop.hbase.security.visibility.VisibilityUtils
-
- SortedCompactionPolicy - org.apache.hadoop.hbase.regionserver.compactions中的类
-
An abstract compaction policy that select files on seq id order.
- SortedCompactionPolicy(Configuration, StoreConfigInformation) - 类 的构造器org.apache.hadoop.hbase.regionserver.compactions.SortedCompactionPolicy
-
- SortedCopyOnWriteSet<E> - org.apache.hadoop.hbase.util中的类
-
Simple
SortedSet implementation that uses an internal
TreeSet to provide ordering.
- SortedCopyOnWriteSet() - 类 的构造器org.apache.hadoop.hbase.util.SortedCopyOnWriteSet
-
- SortedCopyOnWriteSet(Collection<? extends E>) - 类 的构造器org.apache.hadoop.hbase.util.SortedCopyOnWriteSet
-
- SortedCopyOnWriteSet(Comparator<? super E>) - 类 的构造器org.apache.hadoop.hbase.util.SortedCopyOnWriteSet
-
- SortedList<E> - org.apache.hadoop.hbase.util中的类
-
Simple sorted list implementation that uses
ArrayList as
the underlying collection so we can support RandomAccess.
- SortedList(Comparator<? super E>) - 类 的构造器org.apache.hadoop.hbase.util.SortedList
-
Constructs an empty list with the default initial capacity that will be
sorted using the given comparator.
- SortedList(Collection<? extends E>, Comparator<? super E>) - 类 的构造器org.apache.hadoop.hbase.util.SortedList
-
Constructs a list containing the elements of the given collection, in the
order returned by the collection's iterator, that will be sorted with the
given comparator.
- SourceFSConfigurationProvider - org.apache.hadoop.hbase.replication.regionserver中的接口
-
Interface that defines how a region server in peer cluster will get source cluster file system
configurations.
- sourceScanner - 类 中的变量org.apache.hadoop.hbase.regionserver.AbstractMultiFileWriter
-
Source scanner that is tracking KV count; may be null if source is not StoreScanner
- sourceToString() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationLoad
-
sourceToString
- split(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.NumberStringSplit
-
- split(int) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.NumberStringSplit
-
- split(byte[], byte[], int, boolean) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.NumberStringSplit
-
- split(byte[], byte[]) - 接口 中的方法org.apache.hadoop.hbase.util.RegionSplitter.SplitAlgorithm
-
Split a pre-existing region into 2 regions.
- split(int) - 接口 中的方法org.apache.hadoop.hbase.util.RegionSplitter.SplitAlgorithm
-
Split an entire table.
- split(byte[], byte[], int, boolean) - 接口 中的方法org.apache.hadoop.hbase.util.RegionSplitter.SplitAlgorithm
-
Some MapReduce jobs may want to run multiple mappers per region,
this is intended for such usecase.
- split(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.UniformSplit
-
- split(int) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.UniformSplit
-
- split(byte[], byte[], int, boolean) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.UniformSplit
-
- split(Path, Path, Path, FileSystem, Configuration, WALFactory) - 类 中的静态方法org.apache.hadoop.hbase.wal.WALSplitter
-
- split2(BigInteger, BigInteger) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.NumberStringSplit
-
Divide 2 numbers in half (for split algorithm)
- SPLIT_ALGO - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl
-
For MapReduce jobs running multiple mappers per region, determines
what split algorithm we should be using to find split points for scanners.
- SPLIT_PARTS_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.StripeStoreConfig
-
The target count of new stripes to produce when splitting a stripe.
- SPLIT_SKIP_ERRORS_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.wal.WALSplitter
-
By default we retry errors in splitting, rather than skipping.
- SPLIT_THREADS - 类 中的静态变量org.apache.hadoop.hbase.regionserver.CompactSplitThread
-
- SPLIT_THREADS_DEFAULT - 类 中的静态变量org.apache.hadoop.hbase.regionserver.CompactSplitThread
-
- SPLIT_TRANSACTION_IMPL_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.SplitTransactionFactory
-
- SPLIT_WRITER_CREATION_BOUNDED - 类 中的静态变量org.apache.hadoop.hbase.wal.WALSplitter
-
- splitCell - 类 中的变量org.apache.hadoop.hbase.io.HalfStoreFileReader
-
- splitkey - 类 中的变量org.apache.hadoop.hbase.io.HalfStoreFileReader
-
- splitLog(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.MasterFileSystem
-
- splitLog(Set<ServerName>) - 类 中的方法org.apache.hadoop.hbase.master.MasterFileSystem
-
- splitLog(Set<ServerName>, PathFilter) - 类 中的方法org.apache.hadoop.hbase.master.MasterFileSystem
-
This method is the base split method that splits WAL files matching a filter.
- SplitLogCounters - org.apache.hadoop.hbase中的类
-
Counters kept by the distributed WAL split log process.
- SplitLogCounters() - 类 的构造器org.apache.hadoop.hbase.SplitLogCounters
-
- splitLogDistributed(Path) - 类 中的方法org.apache.hadoop.hbase.master.SplitLogManager
-
- splitLogDistributed(List<Path>) - 类 中的方法org.apache.hadoop.hbase.master.SplitLogManager
-
The caller will block until all the log files of the given region server have been processed -
successfully split or an error is encountered - by an available worker region server.
- splitLogDistributed(Set<ServerName>, List<Path>, PathFilter) - 类 中的方法org.apache.hadoop.hbase.master.SplitLogManager
-
The caller will block until all the hbase:meta log files of the given region server have been
processed - successfully split or an error is encountered - by an available worker region
server.
- splitLogFile(Path, FileStatus, FileSystem, Configuration, CancelableProgressable, LastSequenceId, CoordinatedStateManager, ZooKeeperProtos.SplitLogTask.RecoveryMode, WALFactory) - 类 中的静态方法org.apache.hadoop.hbase.wal.WALSplitter
-
Splits a WAL file into region's recovered-edits directory.
- SplitLogManager - org.apache.hadoop.hbase.master中的类
-
Distributes the task of log splitting to the available region servers.
- SplitLogManager(Server, Configuration, Stoppable, MasterServices, ServerName) - 类 的构造器org.apache.hadoop.hbase.master.SplitLogManager
-
Its OK to construct this object even when region-servers are not online.
- SplitLogManager.ResubmitDirective - org.apache.hadoop.hbase.master中的枚举
-
- SplitLogManager.Task - org.apache.hadoop.hbase.master中的类
-
in memory state of an active task.
- SplitLogManager.Task() - 类 的构造器org.apache.hadoop.hbase.master.SplitLogManager.Task
-
- SplitLogManager.TaskBatch - org.apache.hadoop.hbase.master中的类
-
Keeps track of the batch of tasks submitted together by a caller in splitLogDistributed().
- SplitLogManager.TaskBatch() - 类 的构造器org.apache.hadoop.hbase.master.SplitLogManager.TaskBatch
-
- SplitLogManager.TerminationStatus - org.apache.hadoop.hbase.master中的枚举
-
- SplitLogManagerCoordination - org.apache.hadoop.hbase.coordination中的接口
-
Coordination for SplitLogManager.
- splitLogManagerCoordination - 类 中的变量org.apache.hadoop.hbase.coordination.ZkCoordinatedStateManager
-
- SplitLogManagerCoordination.SplitLogManagerDetails - org.apache.hadoop.hbase.coordination中的类
-
Detail class that shares data between coordination and split log manager
- SplitLogManagerCoordination.SplitLogManagerDetails(ConcurrentMap<String, SplitLogManager.Task>, MasterServices, Set<String>, ServerName) - 类 的构造器org.apache.hadoop.hbase.coordination.SplitLogManagerCoordination.SplitLogManagerDetails
-
- SplitLogTask - org.apache.hadoop.hbase中的类
-
State of a WAL log split during distributed splitting.
- SplitLogTask.Done - org.apache.hadoop.hbase中的类
-
- SplitLogTask.Done(ServerName, ZooKeeperProtos.SplitLogTask.RecoveryMode) - 类 的构造器org.apache.hadoop.hbase.SplitLogTask.Done
-
- SplitLogTask.Err - org.apache.hadoop.hbase中的类
-
- SplitLogTask.Err(ServerName, ZooKeeperProtos.SplitLogTask.RecoveryMode) - 类 的构造器org.apache.hadoop.hbase.SplitLogTask.Err
-
- SplitLogTask.Owned - org.apache.hadoop.hbase中的类
-
- SplitLogTask.Owned(ServerName, ZooKeeperProtos.SplitLogTask.RecoveryMode) - 类 的构造器org.apache.hadoop.hbase.SplitLogTask.Owned
-
- SplitLogTask.Resigned - org.apache.hadoop.hbase中的类
-
- SplitLogTask.Resigned(ServerName, ZooKeeperProtos.SplitLogTask.RecoveryMode) - 类 的构造器org.apache.hadoop.hbase.SplitLogTask.Resigned
-
- SplitLogTask.Unassigned - org.apache.hadoop.hbase中的类
-
- SplitLogTask.Unassigned(ServerName, ZooKeeperProtos.SplitLogTask.RecoveryMode) - 类 的构造器org.apache.hadoop.hbase.SplitLogTask.Unassigned
-
- SplitLogWorker - org.apache.hadoop.hbase.regionserver中的类
-
This worker is spawned in every regionserver, including master.
- SplitLogWorker(Server, Configuration, RegionServerServices, SplitLogWorker.TaskExecutor) - 类 的构造器org.apache.hadoop.hbase.regionserver.SplitLogWorker
-
- SplitLogWorker(Server, Configuration, RegionServerServices, LastSequenceId, WALFactory) - 类 的构造器org.apache.hadoop.hbase.regionserver.SplitLogWorker
-
- SplitLogWorker.TaskExecutor - org.apache.hadoop.hbase.regionserver中的接口
-
Objects implementing this interface actually do the task that has been
acquired by a
SplitLogWorker.
- SplitLogWorker.TaskExecutor.Status - org.apache.hadoop.hbase.regionserver中的枚举
-
- SplitLogWorkerCoordination - org.apache.hadoop.hbase.coordination中的接口
-
- splitLogWorkerCoordination - 类 中的变量org.apache.hadoop.hbase.coordination.ZkCoordinatedStateManager
-
- SplitLogWorkerCoordination.SplitTaskDetails - org.apache.hadoop.hbase.coordination中的接口
-
Interface for log-split tasks Used to carry implementation details in encapsulated way through
Handlers to the coordination API.
- splitMetaLog(ServerName) - 类 中的方法org.apache.hadoop.hbase.master.MasterFileSystem
-
Specialized method to handle the splitting for meta WAL
- splitMetaLog(Set<ServerName>) - 类 中的方法org.apache.hadoop.hbase.master.MasterFileSystem
-
Specialized method to handle the splitting for meta WAL
- SplitNormalizationPlan - org.apache.hadoop.hbase.master.normalizer中的类
-
Normalization plan to split region.
- SplitNormalizationPlan(HRegionInfo, byte[]) - 类 的构造器org.apache.hadoop.hbase.master.normalizer.SplitNormalizationPlan
-
- SplitOrMergeTracker - org.apache.hadoop.hbase.zookeeper中的类
-
Tracks the switch of split and merge states in ZK
- SplitOrMergeTracker(ZooKeeperWatcher, Configuration, Abortable) - 类 的构造器org.apache.hadoop.hbase.zookeeper.SplitOrMergeTracker
-
- splitRegion(RpcController, AdminProtos.SplitRegionRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
Split a region on the region server.
- splits - 类 中的变量org.apache.hadoop.hbase.wal.WALSplitter.OutputSink
-
- splitStoreFile(LoadIncrementalHFiles.LoadQueueItem, Table, byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.mapreduce.LoadIncrementalHFiles
-
- SPLITTING_EXT - 类 中的静态变量org.apache.hadoop.hbase.wal.DefaultWALProvider
-
File Extension used while splitting an WAL into regions (HBASE-2312)
- SplitTransaction - org.apache.hadoop.hbase.regionserver中的接口
-
Executes region split as a "transaction".
- SplitTransaction.JournalEntry - org.apache.hadoop.hbase.regionserver中的接口
-
Split transaction journal entry
- SplitTransaction.SplitTransactionPhase - org.apache.hadoop.hbase.regionserver中的枚举
-
Each enum is a step in the split transaction.
- SplitTransaction.TransactionListener - org.apache.hadoop.hbase.regionserver中的接口
-
Split transaction listener
- SplitTransactionCoordination - org.apache.hadoop.hbase.coordination中的接口
-
Coordination operations for split transaction.
- splitTransactionCoordination - 类 中的变量org.apache.hadoop.hbase.coordination.ZkCoordinatedStateManager
-
- SplitTransactionCoordination.SplitTransactionDetails - org.apache.hadoop.hbase.coordination中的接口
-
Dummy interface for split transaction details.
- SplitTransactionFactory - org.apache.hadoop.hbase.regionserver中的类
-
A factory for creating SplitTransactions, which execute region split as a "transaction".
- SplitTransactionFactory(Configuration) - 类 的构造器org.apache.hadoop.hbase.regionserver.SplitTransactionFactory
-
- SplitTransactionImpl - org.apache.hadoop.hbase.regionserver中的类
-
- SplitTransactionImpl(Region, byte[]) - 类 的构造器org.apache.hadoop.hbase.regionserver.SplitTransactionImpl
-
Constructor
- SplitTransactionImpl.JournalEntryImpl - org.apache.hadoop.hbase.regionserver中的类
-
- SplitTransactionImpl.JournalEntryImpl(SplitTransaction.SplitTransactionPhase) - 类 的构造器org.apache.hadoop.hbase.regionserver.SplitTransactionImpl.JournalEntryImpl
-
- SplitTransactionImpl.JournalEntryImpl(SplitTransaction.SplitTransactionPhase, long) - 类 的构造器org.apache.hadoop.hbase.regionserver.SplitTransactionImpl.JournalEntryImpl
-
- SPNEGO_FILTER - 类 中的静态变量org.apache.hadoop.hbase.http.HttpServer
-
- SslRMIClientSocketFactorySecure - org.apache.hadoop.hbase中的类
-
Avoid SSL V3.0 "Poodle" Vulnerability - CVE-2014-3566
- SslRMIClientSocketFactorySecure() - 类 的构造器org.apache.hadoop.hbase.SslRMIClientSocketFactorySecure
-
- SslRMIServerSocketFactorySecure - org.apache.hadoop.hbase中的类
-
Avoid SSL V3.0 "Poodle" Vulnerability - CVE-2014-3566
- SslRMIServerSocketFactorySecure() - 类 的构造器org.apache.hadoop.hbase.SslRMIServerSocketFactorySecure
-
- SslSelectChannelConnectorSecure - org.apache.hadoop.hbase.jetty中的类
-
Avoid SSL V3.0 "Poodle" Vulnerability - CVE-2014-3566
- SslSelectChannelConnectorSecure() - 类 的构造器org.apache.hadoop.hbase.jetty.SslSelectChannelConnectorSecure
-
- SslSocketConnectorSecure - org.apache.hadoop.hbase.http中的类
-
This subclass of the Jetty SslSocketConnector exists solely to control
the TLS protocol versions allowed.
- SslSocketConnectorSecure() - 类 的构造器org.apache.hadoop.hbase.http.SslSocketConnectorSecure
-
- start() - 类 中的方法org.apache.hadoop.hbase.backup.example.TableHFileArchiveTracker
-
Start monitoring for archive updates
- start(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.constraint.ConstraintProcessor
-
- start() - 接口 中的方法org.apache.hadoop.hbase.CoordinatedStateManager
-
Starts service.
- start() - 类 中的方法org.apache.hadoop.hbase.coordination.BaseCoordinatedStateManager
-
- start(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.coprocessor.AggregateImplementation
-
Stores a reference to the coprocessor environment provided by the
RegionCoprocessorHost from the region where this
coprocessor is loaded.
- start(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- start(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- start(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- start(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionServerObserver
-
- start(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRowProcessorEndpoint
-
Stores a reference to the coprocessor environment provided by the
RegionCoprocessorHost from the region where this
coprocessor is loaded.
- start(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseWALObserver
-
- start(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.coprocessor.MetaTableMetrics
-
- start(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.coprocessor.MultiRowMutationEndpoint
-
Stores a reference to the coprocessor environment provided by the
RegionCoprocessorHost from the region where this
coprocessor is loaded.
- start() - 类 中的方法org.apache.hadoop.hbase.errorhandling.TimeoutExceptionInjector
-
Start a timer to fail a process if it takes longer than the expected time to complete.
- start() - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
Start the server.
- start() - 类 中的方法org.apache.hadoop.hbase.http.InfoServer
-
- start() - 类 中的方法org.apache.hadoop.hbase.ipc.FifoRpcScheduler
-
- start(int) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
- start() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcScheduler
-
Prepares for request serving.
- start() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer
-
Starts the service.
- start() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcServerInterface
-
- start() - 类 中的方法org.apache.hadoop.hbase.ipc.SimpleRpcScheduler
-
- start(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.JMXListener
-
- START - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.SimpleTotalOrderPartitioner
-
已过时。
- start() - 类 中的方法org.apache.hadoop.hbase.master.TableNamespaceManager
-
- start() - 类 中的方法org.apache.hadoop.hbase.namespace.NamespaceAuditor
-
- start() - 类 中的方法org.apache.hadoop.hbase.procedure.flush.RegionServerFlushTableProcedureManager
-
Start accepting flush table requests.
- start(ProcedureCoordinator) - 接口 中的方法org.apache.hadoop.hbase.procedure.ProcedureCoordinatorRpcs
-
Initialize and start threads necessary to connect an implementation's rpc mechanisms.
- start(String, ProcedureMember) - 接口 中的方法org.apache.hadoop.hbase.procedure.ProcedureMemberRpcs
-
Initialize and start any threads or connections the member needs.
- start() - 类 中的方法org.apache.hadoop.hbase.procedure.RegionServerProcedureManager
-
Start accepting procedure requests.
- start() - 类 中的方法org.apache.hadoop.hbase.procedure.RegionServerProcedureManagerHost
-
- start(ProcedureCoordinator) - 类 中的方法org.apache.hadoop.hbase.procedure.ZKProcedureCoordinatorRpcs
-
Start monitoring znodes in ZK - subclass hook to start monitoring znodes they are about.
- start(String, ProcedureMember) - 类 中的方法org.apache.hadoop.hbase.procedure.ZKProcedureMemberRpcs
-
- start() - 类 中的方法org.apache.hadoop.hbase.quotas.MasterQuotaManager
-
- start() - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaCache
-
- start(RpcScheduler) - 类 中的方法org.apache.hadoop.hbase.quotas.RegionServerQuotaManager
-
- start(ChoreService) - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager
-
- start() - 类 中的方法org.apache.hadoop.hbase.regionserver.snapshot.RegionServerSnapshotManager
-
Start accepting snapshot requests.
- start() - 类 中的方法org.apache.hadoop.hbase.regionserver.SplitLogWorker
-
start the SplitLogWorker thread
- start(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.NoLimitThroughputController
-
- start(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.PressureAwareThroughputController
-
- start(String) - 接口 中的方法org.apache.hadoop.hbase.regionserver.throttle.ThroughputController
-
Start the throughput controller.
- start(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- start(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.security.access.SecureBulkLoadEndpoint
-
- start() - 类 中的方法org.apache.hadoop.hbase.security.access.ZKPermissionWatcher
-
- start() - 类 中的方法org.apache.hadoop.hbase.security.token.AuthenticationTokenSecretManager
-
- start(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.security.token.TokenProvider
-
- start() - 类 中的方法org.apache.hadoop.hbase.security.token.ZKSecretWatcher
-
- start(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityController
-
- start(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityController.VisibilityReplication
-
- start() - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityReplicationEndpoint
-
- start() - 类 中的方法org.apache.hadoop.hbase.security.visibility.ZKVisibilityLabelWatcher
-
- start() - 类 中的方法org.apache.hadoop.hbase.util.JvmPauseMonitor
-
- start() - 类 中的方法org.apache.hadoop.hbase.ZKNamespaceManager
-
- start() - 类 中的方法org.apache.hadoop.hbase.zookeeper.DrainingServerTracker
-
Starts the tracking of draining RegionServers.
- start() - 类 中的方法org.apache.hadoop.hbase.zookeeper.MasterMaintenanceModeTracker
-
Starts the tracking of whether master is in Maintenance Mode.
- start() - 类 中的方法org.apache.hadoop.hbase.zookeeper.RegionServerTracker
-
Starts the tracking of online RegionServers.
- start() - 类 中的方法org.apache.hadoop.hbase.zookeeper.SplitOrMergeTracker
-
- START_TIME_KEY - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.HLogInputFormat
-
已过时。
- START_TIME_KEY - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.WALInputFormat
-
- startAndWait() - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityReplicationEndpoint
-
- startBlockEncoding(HFileBlockEncodingContext, DataOutputStream) - 接口 中的方法org.apache.hadoop.hbase.io.hfile.HFileDataBlockEncoder
-
Starts encoding for a block of KeyValues.
- startBlockEncoding(HFileBlockEncodingContext, DataOutputStream) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileDataBlockEncoderImpl
-
- startBlockEncoding(HFileBlockEncodingContext, DataOutputStream) - 类 中的方法org.apache.hadoop.hbase.io.hfile.NoOpDataBlockEncoder
-
- startCacheFlush(byte[], Set<byte[]>) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
- startCacheFlush(byte[], Set<byte[]>) - 接口 中的方法org.apache.hadoop.hbase.wal.WAL
-
WAL keeps track of the sequence numbers that are as yet not flushed im memstores
in order to be able to do accounting to figure which WALs can be let go.
- startcode - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
This servers startcode.
- startConnectorServer(int, int) - 类 中的方法org.apache.hadoop.hbase.JMXListener
-
- startExecutorService(String, int) - 类 中的方法org.apache.hadoop.hbase.executor.ExecutorService
-
Start an executor service with a given name.
- startExecutorService(ExecutorType, int) - 类 中的方法org.apache.hadoop.hbase.executor.ExecutorService
-
- startHandlers(int) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
- startHandlers(String, int, List<BlockingQueue<CallRunner>>, int, int, int, AtomicInteger) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
Start up our handlers.
- startHandlers(int) - 类 中的方法org.apache.hadoop.hbase.ipc.RWQueueRpcExecutor
-
- startKey - 类 中的变量org.apache.hadoop.hbase.regionserver.querymatcher.ScanQueryMatcher
-
Key to seek to in memstore and StoreFiles
- startMillis() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionWindow
-
Inclusive lower bound
- startOperation(long, long, Stoppable) - 类 中的方法org.apache.hadoop.hbase.regionserver.ServerNonceManager
-
Starts the operation if operation with such nonce has not already succeeded.
- startProcedure(ForeignExceptionDispatcher, String, byte[], List<String>) - 类 中的方法org.apache.hadoop.hbase.procedure.ProcedureCoordinator
-
Kick off the named procedure
Currently only one procedure with the same type and name is allowed to run at a time.
- startRegionMergeTransaction(HRegionInfo, ServerName, HRegionInfo, HRegionInfo) - 接口 中的方法org.apache.hadoop.hbase.coordination.RegionMergeCoordination
-
Start the region merge transaction
- startRegionMergeTransaction(HRegionInfo, ServerName, HRegionInfo, HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.coordination.ZkRegionMergeCoordination
-
Creates a new ephemeral node in the PENDING_MERGE state for the merged region.
- startRegionOperation() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- startRegionOperation(Region.Operation) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- startRegionOperation() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
This method needs to be called before any public call that reads or
modifies data.
- startRegionOperation(Region.Operation) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
This method needs to be called before any public call that reads or
modifies data.
- startReplicationService() - 接口 中的方法org.apache.hadoop.hbase.regionserver.ReplicationService
-
Start replication services.
- startReplicationService() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.Replication
-
If replication is enabled and this cluster is a master,
it starts
- startSplitTransaction(HRegion, ServerName, HRegionInfo, HRegionInfo) - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitTransactionCoordination
-
init coordination for split transaction
- startSplitTransaction(HRegion, ServerName, HRegionInfo, HRegionInfo) - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitTransactionCoordination
-
Creates a new ephemeral node in the PENDING_SPLIT state for the specified region.
- startTime - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer.Call
-
- startup() - 类 中的方法org.apache.hadoop.hbase.coprocessor.CoprocessorHost.Environment
-
Initialize the environment
- startup() - 类 中的方法org.apache.hadoop.hbase.LocalHBaseCluster
-
Start the cluster.
- startup() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSource.ReplicationSourceShipperThread
-
- startup() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSource
-
- startup() - 接口 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSourceInterface
-
Start the replication
- startup(List<JVMClusterUtil.MasterThread>, List<JVMClusterUtil.RegionServerThread>) - 类 中的静态方法org.apache.hadoop.hbase.util.JVMClusterUtil
-
Start the cluster.
- startup(File) - 类 中的方法org.apache.hadoop.hbase.zookeeper.MiniZooKeeperCluster
-
- startup(File, int) - 类 中的方法org.apache.hadoop.hbase.zookeeper.MiniZooKeeperCluster
-
- startWriterThreads() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketCache
-
Called by the constructor to start the writer threads.
- startWriterThreads() - 类 中的方法org.apache.hadoop.hbase.wal.WALSplitter.OutputSink
-
Start the threads that will pump data from the entryBuffers to the output files.
- state() - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityReplicationEndpoint
-
- StateDumpServlet - org.apache.hadoop.hbase.monitoring中的类
-
- StateDumpServlet() - 类 的构造器org.apache.hadoop.hbase.monitoring.StateDumpServlet
-
- statelessUncompressor - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.WALCellCodec
-
- StaticUserWebFilter - org.apache.hadoop.hbase.http.lib中的类
-
Provides a servlet filter that pretends to authenticate a fake user (Dr.Who)
so that the web UI is usable for a secure cluster without authentication.
- StaticUserWebFilter() - 类 的构造器org.apache.hadoop.hbase.http.lib.StaticUserWebFilter
-
- StaticUserWebFilter.StaticUserFilter - org.apache.hadoop.hbase.http.lib中的类
-
- StaticUserWebFilter.StaticUserFilter() - 类 的构造器org.apache.hadoop.hbase.http.lib.StaticUserWebFilter.StaticUserFilter
-
- STATS_RECORD_SEP - 类 中的静态变量org.apache.hadoop.hbase.util.ByteBloomFilter
-
Record separator for the Bloom filter statistics human-readable string
- status - 类 中的变量org.apache.hadoop.hbase.master.snapshot.TakeSnapshotHandler
-
- status - 类 中的变量org.apache.hadoop.hbase.master.SplitLogManager.Task
-
- STATUS_PUBLISH_PERIOD - 类 中的静态变量org.apache.hadoop.hbase.master.ClusterStatusPublisher
-
The minimum time between two status messages, in milliseconds.
- STATUS_PUBLISHER_CLASS - 类 中的静态变量org.apache.hadoop.hbase.master.ClusterStatusPublisher
-
The implementation class used to publish the status.
- std - 类 中的变量org.apache.hadoop.hbase.regionserver.SplitTransactionImpl
-
- StealJobQueue<T> - org.apache.hadoop.hbase.util中的类
-
This queue allows a ThreadPoolExecutor to steal jobs from another ThreadPoolExecutor.
- StealJobQueue() - 类 的构造器org.apache.hadoop.hbase.util.StealJobQueue
-
- StealJobQueue(int, int) - 类 的构造器org.apache.hadoop.hbase.util.StealJobQueue
-
- SteppingSplitPolicy - org.apache.hadoop.hbase.regionserver中的类
-
- SteppingSplitPolicy() - 类 的构造器org.apache.hadoop.hbase.regionserver.SteppingSplitPolicy
-
- STEPS_PER_REGION_KEY - 类 中的静态变量org.apache.hadoop.hbase.master.balancer.StochasticLoadBalancer
-
- stepsAfterPONR(Server, RegionServerServices, HRegion) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionMergeTransactionImpl
-
已过时。
- stepsAfterPONR(Server, RegionServerServices, HRegion, User) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionMergeTransactionImpl
-
- stepsAfterPONR(Server, RegionServerServices, PairOfSameType<Region>) - 类 中的方法org.apache.hadoop.hbase.regionserver.SplitTransactionImpl
-
已过时。
- stepsAfterPONR(Server, RegionServerServices, PairOfSameType<Region>, User) - 类 中的方法org.apache.hadoop.hbase.regionserver.SplitTransactionImpl
-
- stepsBeforePONR(Server, RegionServerServices, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionMergeTransactionImpl
-
- stepsBeforePONR(Server, RegionServerServices, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.SplitTransactionImpl
-
- StochasticLoadBalancer - org.apache.hadoop.hbase.master.balancer中的类
-
This is a best effort load balancer.
- StochasticLoadBalancer() - 类 的构造器org.apache.hadoop.hbase.master.balancer.StochasticLoadBalancer
-
The constructor that pass a MetricsStochasticBalancer to BaseLoadBalancer to replace its
default MetricsBalancer
- stop(String) - 类 中的方法org.apache.hadoop.hbase.backup.example.LongTermArchivingHFileCleaner
-
- stop() - 类 中的方法org.apache.hadoop.hbase.backup.example.TableHFileArchiveTracker
-
Stop this tracker and the passed zookeeper
- stop() - 接口 中的方法org.apache.hadoop.hbase.CoordinatedStateManager
-
Stops service.
- stop() - 类 中的方法org.apache.hadoop.hbase.coordination.BaseCoordinatedStateManager
-
- stop(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.coprocessor.AggregateImplementation
-
- stop(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterAndRegionObserver
-
- stop(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseMasterObserver
-
- stop(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionObserver
-
- stop(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRegionServerObserver
-
- stop(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseRowProcessorEndpoint
-
- stop(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.coprocessor.BaseWALObserver
-
- stop(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.coprocessor.MetaTableMetrics
-
- stop(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.coprocessor.MultiRowMutationEndpoint
-
- stop() - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
stop the server
- stop() - 类 中的方法org.apache.hadoop.hbase.http.InfoServer
-
- stop() - 类 中的方法org.apache.hadoop.hbase.ipc.FifoRpcScheduler
-
- stop() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcExecutor
-
- stop() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcScheduler
-
Stops serving new requests.
- stop() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer
-
Stops the service.
- stop() - 接口 中的方法org.apache.hadoop.hbase.ipc.RpcServerInterface
-
- stop() - 类 中的方法org.apache.hadoop.hbase.ipc.SimpleRpcScheduler
-
- stop(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.JMXListener
-
- stop() - 类 中的方法org.apache.hadoop.hbase.master.ActiveMasterManager
-
- stop() - 类 中的方法org.apache.hadoop.hbase.master.AssignmentManager
-
- stop(String) - 类 中的方法org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer
-
- stop(String) - 类 中的方法org.apache.hadoop.hbase.master.cleaner.BaseHFileCleanerDelegate
-
- stop(String) - 类 中的方法org.apache.hadoop.hbase.master.cleaner.TimeToLiveLogCleaner
-
- stop() - 类 中的方法org.apache.hadoop.hbase.master.MasterFileSystem
-
- stop() - 类 中的方法org.apache.hadoop.hbase.master.ServerManager
-
Stop the ServerManager.
- stop(String) - 类 中的方法org.apache.hadoop.hbase.master.snapshot.SnapshotFileCache
-
- stop(String) - 类 中的方法org.apache.hadoop.hbase.master.snapshot.SnapshotHFileCleaner
-
- stop(String) - 类 中的方法org.apache.hadoop.hbase.master.snapshot.SnapshotManager
-
- stop() - 类 中的方法org.apache.hadoop.hbase.master.SplitLogManager
-
- stop(String) - 类 中的方法org.apache.hadoop.hbase.procedure.flush.MasterFlushTableProcedureManager
-
- stop(boolean) - 类 中的方法org.apache.hadoop.hbase.procedure.flush.RegionServerFlushTableProcedureManager
-
Close this and all running tasks
- stop(String) - 类 中的方法org.apache.hadoop.hbase.procedure.MasterProcedureManagerHost
-
- stop(boolean) - 类 中的方法org.apache.hadoop.hbase.procedure.RegionServerProcedureManager
-
Close this and all running procedure tasks
- stop(boolean) - 类 中的方法org.apache.hadoop.hbase.procedure.RegionServerProcedureManagerHost
-
- stop() - 类 中的方法org.apache.hadoop.hbase.quotas.MasterQuotaManager
-
- stop(String) - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaCache
-
- stop() - 类 中的方法org.apache.hadoop.hbase.quotas.RegionServerQuotaManager
-
- stop() - 类 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryManager
-
- stop(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer.MovedRegionsCleaner
-
- stop(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- stop(String, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
Stops the regionserver.
- stop(boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.snapshot.RegionServerSnapshotManager
-
Close this and all running snapshot tasks
- stop() - 类 中的方法org.apache.hadoop.hbase.regionserver.SplitLogWorker
-
stop the SplitLogWorker thread
- stop(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.NoLimitThroughputController
-
- stop(String) - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.PressureAwareThroughputController
-
- stop(String) - 类 中的方法org.apache.hadoop.hbase.replication.master.ReplicationHFileCleaner
-
- stop(String) - 类 中的方法org.apache.hadoop.hbase.replication.master.ReplicationLogCleaner
-
- stop(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.security.access.AccessController
-
- stop(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.security.access.SecureBulkLoadEndpoint
-
- stop() - 类 中的方法org.apache.hadoop.hbase.security.token.AuthenticationTokenSecretManager
-
- stop(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.security.token.TokenProvider
-
- stop(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityController
-
- stop(CoprocessorEnvironment) - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityController.VisibilityReplication
-
- stop() - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityReplicationEndpoint
-
- stop() - 类 中的方法org.apache.hadoop.hbase.util.JvmPauseMonitor
-
- stopAndWait() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.HBaseInterClusterReplicationEndpoint
-
- stopAndWait() - 类 中的方法org.apache.hadoop.hbase.security.visibility.VisibilityReplicationEndpoint
-
- stopConnectorServer() - 类 中的方法org.apache.hadoop.hbase.JMXListener
-
- stopMaster() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- stopMaster(RpcController, MasterProtos.StopMasterRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- stopProcessingTasks() - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogWorkerCoordination
-
called when Coordination should stop processing tasks and exit
- stopProcessingTasks() - 类 中的方法org.apache.hadoop.hbase.coordination.ZkSplitLogWorkerCoordination
-
- stopReplicationService() - 接口 中的方法org.apache.hadoop.hbase.regionserver.ReplicationService
-
Stops replication service.
- stopReplicationService() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.Replication
-
Stops replication service.
- stopReplicationSinkServices() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSink
-
stop the thread pool executor.
- stopRequested - 类 中的变量org.apache.hadoop.hbase.regionserver.Leases
-
- stopRow - 类 中的变量org.apache.hadoop.hbase.regionserver.querymatcher.UserScanQueryMatcher
-
- stopServer(RpcController, AdminProtos.StopServerRequest) - 类 中的方法org.apache.hadoop.hbase.regionserver.RSRpcServices
-
Stop the region server.
- stopServiceThreads() - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- stopServiceThreads() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
Wait on all threads to finish.
- stopTask() - 类 中的方法org.apache.hadoop.hbase.regionserver.SplitLogWorker
-
If the worker is doing a task i.e. splitting a log file then stop the task.
- store - 类 中的变量org.apache.hadoop.hbase.regionserver.compactions.Compactor
-
- Store - org.apache.hadoop.hbase.regionserver中的接口
-
Interface for objects that hold a column family in a Region.
- store - 类 中的变量org.apache.hadoop.hbase.regionserver.StoreScanner
-
- STORE_ENGINE_CLASS_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.StoreEngine
-
The name of the configuration parameter that specifies the class of
a store engine that is used to manage and compact HBase store files.
- storeConfigInfo - 类 中的变量org.apache.hadoop.hbase.regionserver.compactions.CompactionPolicy
-
- StoreConfigInformation - org.apache.hadoop.hbase.regionserver中的接口
-
A more restricted interface for HStore.
- StoreEngine<SF extends org.apache.hadoop.hbase.regionserver.StoreFlusher,CP extends CompactionPolicy,C extends Compactor,SFM extends StoreFileManager> - org.apache.hadoop.hbase.regionserver中的类
-
StoreEngine is a factory that can create the objects necessary for HStore to operate.
- StoreEngine() - 类 的构造器org.apache.hadoop.hbase.regionserver.StoreEngine
-
- StoreFile - org.apache.hadoop.hbase.regionserver中的类
-
A Store data file.
- StoreFile(FileSystem, Path, Configuration, CacheConfig, BloomType) - 类 的构造器org.apache.hadoop.hbase.regionserver.StoreFile
-
Constructor, loads a reader and it's indices, etc.
- StoreFile(FileSystem, StoreFileInfo, Configuration, CacheConfig, BloomType) - 类 的构造器org.apache.hadoop.hbase.regionserver.StoreFile
-
Constructor, loads a reader and it's indices, etc.
- StoreFile(StoreFile) - 类 的构造器org.apache.hadoop.hbase.regionserver.StoreFile
-
Clone
- storeFile(HRegionInfo, String, SnapshotProtos.SnapshotRegionManifest.StoreFile) - 接口 中的方法org.apache.hadoop.hbase.snapshot.SnapshotReferenceUtil.StoreFileVisitor
-
- storeFile(String, String, String) - 接口 中的方法org.apache.hadoop.hbase.util.FSVisitor.StoreFileVisitor
-
- StoreFile.Comparators - org.apache.hadoop.hbase.regionserver中的类
-
Useful comparators for comparing StoreFiles.
- StoreFile.Comparators() - 类 的构造器org.apache.hadoop.hbase.regionserver.StoreFile.Comparators
-
- StoreFile.Reader - org.apache.hadoop.hbase.regionserver中的类
-
Reader for a StoreFile.
- StoreFile.Reader(FileSystem, Path, CacheConfig, Configuration) - 类 的构造器org.apache.hadoop.hbase.regionserver.StoreFile.Reader
-
- StoreFile.Reader(FileSystem, Path, FSDataInputStreamWrapper, long, CacheConfig, Configuration) - 类 的构造器org.apache.hadoop.hbase.regionserver.StoreFile.Reader
-
- StoreFile.Writer - org.apache.hadoop.hbase.regionserver中的类
-
A StoreFile writer.
- StoreFile.WriterBuilder - org.apache.hadoop.hbase.regionserver中的类
-
- StoreFile.WriterBuilder(Configuration, CacheConfig, FileSystem) - 类 的构造器org.apache.hadoop.hbase.regionserver.StoreFile.WriterBuilder
-
- storeFile_jsp - org.apache.hadoop.hbase.generated.regionserver中的类
-
- storeFile_jsp() - 类 的构造器org.apache.hadoop.hbase.generated.regionserver.storeFile_jsp
-
- StoreFileInfo - org.apache.hadoop.hbase.regionserver中的类
-
Describe a StoreFile (hfile, reference, link)
- StoreFileInfo(Configuration, FileSystem, Path) - 类 的构造器org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
Create a Store File Info
- StoreFileInfo(Configuration, FileSystem, FileStatus) - 类 的构造器org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
Create a Store File Info
- StoreFileInfo(Configuration, FileSystem, FileStatus, HFileLink) - 类 的构造器org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
Create a Store File Info from an HFileLink
- StoreFileInfo(Configuration, FileSystem, FileStatus, Reference) - 类 的构造器org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
Create a Store File Info from an HFileLink
- storeFileManager - 类 中的变量org.apache.hadoop.hbase.regionserver.StoreEngine
-
- StoreFileManager - org.apache.hadoop.hbase.regionserver中的接口
-
Manages the store files and basic metadata about that that determines the logical structure
(e.g. what files to return for scan, how to determine split point, and such).
- StorefileRefresherChore - org.apache.hadoop.hbase.regionserver中的类
-
A chore for refreshing the store files for secondary regions hosted in the region server.
- StorefileRefresherChore(int, boolean, HRegionServer, Stoppable) - 类 的构造器org.apache.hadoop.hbase.regionserver.StorefileRefresherChore
-
- StoreFileScanner - org.apache.hadoop.hbase.regionserver中的类
-
KeyValueScanner adaptor over the Reader.
- StoreFileScanner(StoreFile.Reader, HFileScanner, boolean, boolean, long, long, boolean) - 类 的构造器org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
- storeFlusher - 类 中的变量org.apache.hadoop.hbase.regionserver.StoreEngine
-
- storeLimit - 类 中的变量org.apache.hadoop.hbase.regionserver.StoreScanner
-
- storeOffset - 类 中的变量org.apache.hadoop.hbase.regionserver.StoreScanner
-
- stores - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegion
-
- StoreScanner - org.apache.hadoop.hbase.regionserver中的类
-
Scanner scans both the memstore and the Store.
- StoreScanner(Store, Scan, ScanInfo, NavigableSet<byte[]>, long, boolean) - 类 的构造器org.apache.hadoop.hbase.regionserver.StoreScanner
-
An internal constructor.
- StoreScanner(Store, ScanInfo, Scan, NavigableSet<byte[]>, long) - 类 的构造器org.apache.hadoop.hbase.regionserver.StoreScanner
-
Opens a scanner across memstore, snapshot, and all StoreFiles.
- StoreScanner(Store, ScanInfo, Scan, List<? extends KeyValueScanner>, ScanType, long, long) - 类 的构造器org.apache.hadoop.hbase.regionserver.StoreScanner
-
Used for compactions.
- StoreScanner(Store, ScanInfo, Scan, List<? extends KeyValueScanner>, long, long, byte[], byte[]) - 类 的构造器org.apache.hadoop.hbase.regionserver.StoreScanner
-
Used for compactions that drop deletes from a limited range of rows.
- StoreScanner(Scan, ScanInfo, ScanType, NavigableSet<byte[]>, List<KeyValueScanner>, long, long) - 类 的构造器org.apache.hadoop.hbase.regionserver.StoreScanner
-
- STORESCANNER_PARALLEL_SEEK_ENABLE - 类 中的静态变量org.apache.hadoop.hbase.regionserver.StoreScanner
-
- StoreUtils - org.apache.hadoop.hbase.regionserver中的类
-
Utility functions for region server storage layer.
- StoreUtils() - 类 的构造器org.apache.hadoop.hbase.regionserver.StoreUtils
-
- STRIPE_END_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- STRIPE_START_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
The file metadata fields that contain the stripe information.
- StripeCompactionPolicy - org.apache.hadoop.hbase.regionserver.compactions中的类
-
Stripe store implementation of compaction policy.
- StripeCompactionPolicy(Configuration, StoreConfigInformation, StripeStoreConfig) - 类 的构造器org.apache.hadoop.hbase.regionserver.compactions.StripeCompactionPolicy
-
- StripeCompactionPolicy.StripeCompactionRequest - org.apache.hadoop.hbase.regionserver.compactions中的类
-
Stripe compaction request wrapper.
- StripeCompactionPolicy.StripeCompactionRequest(CompactionRequest) - 类 的构造器org.apache.hadoop.hbase.regionserver.compactions.StripeCompactionPolicy.StripeCompactionRequest
-
- StripeCompactionPolicy.StripeInformationProvider - org.apache.hadoop.hbase.regionserver.compactions中的接口
-
The information about stripes that the policy needs to do its stuff
- StripeCompactionScanQueryMatcher - org.apache.hadoop.hbase.regionserver.querymatcher中的类
-
Query matcher for stripe compaction if range drop deletes is used.
- StripeCompactionScanQueryMatcher(ScanInfo, DeleteTracker, long, long, long, long, byte[], byte[]) - 类 的构造器org.apache.hadoop.hbase.regionserver.querymatcher.StripeCompactionScanQueryMatcher
-
- StripeCompactor - org.apache.hadoop.hbase.regionserver.compactions中的类
-
This is the placeholder for stripe compactor.
- StripeCompactor(Configuration, Store) - 类 的构造器org.apache.hadoop.hbase.regionserver.compactions.StripeCompactor
-
- StripeMultiFileWriter - org.apache.hadoop.hbase.regionserver中的类
-
Base class for cell sink that separates the provided cells into multiple files for stripe
compaction.
- StripeMultiFileWriter(KeyValue.KVComparator) - 类 的构造器org.apache.hadoop.hbase.regionserver.StripeMultiFileWriter
-
- StripeMultiFileWriter.BoundaryMultiWriter - org.apache.hadoop.hbase.regionserver中的类
-
MultiWriter that separates the cells based on fixed row-key boundaries.
- StripeMultiFileWriter.BoundaryMultiWriter(KeyValue.KVComparator, List<byte[]>, byte[], byte[]) - 类 的构造器org.apache.hadoop.hbase.regionserver.StripeMultiFileWriter.BoundaryMultiWriter
-
- StripeMultiFileWriter.SizeMultiWriter - org.apache.hadoop.hbase.regionserver中的类
-
MultiWriter that separates the cells based on target cell number per file and file count.
- StripeMultiFileWriter.SizeMultiWriter(KeyValue.KVComparator, int, long, byte[], byte[]) - 类 的构造器org.apache.hadoop.hbase.regionserver.StripeMultiFileWriter.SizeMultiWriter
-
- StripeStoreConfig - org.apache.hadoop.hbase.regionserver中的类
-
Configuration class for stripe store and compactions.
- StripeStoreConfig(Configuration, StoreConfigInformation) - 类 的构造器org.apache.hadoop.hbase.regionserver.StripeStoreConfig
-
- StripeStoreEngine - org.apache.hadoop.hbase.regionserver中的类
-
The storage engine that implements the stripe-based store/compaction scheme.
- StripeStoreEngine() - 类 的构造器org.apache.hadoop.hbase.regionserver.StripeStoreEngine
-
- StripeStoreFileManager - org.apache.hadoop.hbase.regionserver中的类
-
Stripe implementation of StoreFileManager.
- StripeStoreFileManager(KeyValue.KVComparator, Configuration, StripeStoreConfig) - 类 的构造器org.apache.hadoop.hbase.regionserver.StripeStoreFileManager
-
- StripeStoreFlusher - org.apache.hadoop.hbase.regionserver中的类
-
Stripe implementation of StoreFlusher.
- StripeStoreFlusher(Configuration, Store, StripeCompactionPolicy, StripeStoreFileManager) - 类 的构造器org.apache.hadoop.hbase.regionserver.StripeStoreFlusher
-
- StripeStoreFlusher.BoundaryStripeFlushRequest - org.apache.hadoop.hbase.regionserver中的类
-
Stripe flush request wrapper based on boundaries.
- StripeStoreFlusher.BoundaryStripeFlushRequest(KeyValue.KVComparator, List<byte[]>) - 类 的构造器org.apache.hadoop.hbase.regionserver.StripeStoreFlusher.BoundaryStripeFlushRequest
-
- StripeStoreFlusher.SizeStripeFlushRequest - org.apache.hadoop.hbase.regionserver中的类
-
Stripe flush request wrapper based on size.
- StripeStoreFlusher.SizeStripeFlushRequest(KeyValue.KVComparator, int, long) - 类 的构造器org.apache.hadoop.hbase.regionserver.StripeStoreFlusher.SizeStripeFlushRequest
-
- StripeStoreFlusher.StripeFlushRequest - org.apache.hadoop.hbase.regionserver中的类
-
Stripe flush request wrapper that writes a non-striped file.
- StripeStoreFlusher.StripeFlushRequest(KeyValue.KVComparator) - 类 的构造器org.apache.hadoop.hbase.regionserver.StripeStoreFlusher.StripeFlushRequest
-
- strToRow(String) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.NumberStringSplit
-
- strToRow(String) - 接口 中的方法org.apache.hadoop.hbase.util.RegionSplitter.SplitAlgorithm
-
- strToRow(String) - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.UniformSplit
-
- subList(int, int) - 类 中的方法org.apache.hadoop.hbase.util.SortedList
-
- subMap(byte[], byte[]) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFile.FileInfo
-
- submit(EventHandler) - 类 中的方法org.apache.hadoop.hbase.executor.ExecutorService
-
- submitAndWaitProcedure(ProcedureExecutor<MasterProcedureEnv>, Procedure) - 类 中的静态方法org.apache.hadoop.hbase.master.procedure.ProcedureSyncWait
-
- submitProcedure(Procedure) - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureUtil.NonceProcedureRunnable
-
- submitProcedure(MasterProcedureUtil.NonceProcedureRunnable) - 类 中的静态方法org.apache.hadoop.hbase.master.procedure.MasterProcedureUtil
-
Helper used to deal with submitting procs with nonce.
- submitSubprocedure(Subprocedure) - 类 中的方法org.apache.hadoop.hbase.procedure.ProcedureMember
-
Submit an subprocedure for execution.
- submitTask(String) - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogManagerCoordination
-
- submitTask(String) - 类 中的方法org.apache.hadoop.hbase.coordination.ZKSplitLogManagerCoordination
-
- Subprocedure - org.apache.hadoop.hbase.procedure中的类
-
Distributed procedure member's Subprocedure.
- Subprocedure(ProcedureMember, String, ForeignExceptionDispatcher, long, long) - 类 的构造器org.apache.hadoop.hbase.procedure.Subprocedure
-
- Subprocedure.SubprocedureImpl - org.apache.hadoop.hbase.procedure中的类
-
Empty Subprocedure for testing.
- Subprocedure.SubprocedureImpl(ProcedureMember, String, ForeignExceptionDispatcher, long, long) - 类 的构造器org.apache.hadoop.hbase.procedure.Subprocedure.SubprocedureImpl
-
- SubprocedureFactory - org.apache.hadoop.hbase.procedure中的接口
-
- subSet(Cell, Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSkipListSet
-
- subSet(Cell, boolean, Cell, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSkipListSet
-
- subSet(E, E) - 类 中的方法org.apache.hadoop.hbase.util.SortedCopyOnWriteSet
-
- SUCCESS - 类 中的静态变量org.apache.hadoop.hbase.regionserver.OperationStatus
-
Singleton for successful operations.
- summarize() - 接口 中的方法org.apache.hadoop.hbase.util.HBaseFsck.ErrorReporter
-
- supportsAutoLoading() - 接口 中的方法org.apache.hadoop.hbase.util.BloomFilter
-
- supportsAutoLoading() - 类 中的方法org.apache.hadoop.hbase.util.ByteBloomFilter
-
- supportsAutoLoading() - 类 中的方法org.apache.hadoop.hbase.util.CompoundBloomFilter
-
- suspend(MasterProcedureScheduler.ProcedureEvent) - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureEnv
-
- suspend(MasterProcedureScheduler.ProcedureEvent) - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureScheduler
-
- sweep(String) - 接口 中的方法org.apache.hadoop.hbase.util.LossyCounting.LossyCountingListener
-
- sync() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.ByteBufferIOEngine
-
No operation for the sync in the memory IO engine
- sync() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.FileIOEngine
-
Sync the data to file after writing
- sync() - 接口 中的方法org.apache.hadoop.hbase.io.hfile.bucket.IOEngine
-
Sync the data to IOEngine after writing
- sync() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
- sync(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
- sync() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogWriter
-
- sync() - 接口 中的方法org.apache.hadoop.hbase.wal.WAL
-
Sync what we have in the WAL.
- sync(long) - 接口 中的方法org.apache.hadoop.hbase.wal.WAL
-
Sync the WAL if the txId was not already sync'd.
- sync() - 接口 中的方法org.apache.hadoop.hbase.wal.WALProvider.Writer
-
- SyncTable - org.apache.hadoop.hbase.mapreduce中的类
-
- SyncTable(Configuration) - 类 的构造器org.apache.hadoop.hbase.mapreduce.SyncTable
-
- SyncTable.SyncMapper - org.apache.hadoop.hbase.mapreduce中的类
-
- SyncTable.SyncMapper() - 类 的构造器org.apache.hadoop.hbase.mapreduce.SyncTable.SyncMapper
-
- SyncTable.SyncMapper.Counter - org.apache.hadoop.hbase.mapreduce中的枚举
-
- SYSTEM_CACHE_FLUSH_INTERVAL - 类 中的静态变量org.apache.hadoop.hbase.regionserver.HRegion
-
Default interval for System tables memstore flush
- SYSTEM_LABEL - 类 中的静态变量org.apache.hadoop.hbase.security.visibility.VisibilityUtils
-
- SystemTableWALEntryFilter - org.apache.hadoop.hbase.replication中的类
-
Skips WAL edits for all System tables including META
- SystemTableWALEntryFilter() - 类 的构造器org.apache.hadoop.hbase.replication.SystemTableWALEntryFilter
-
- table_jsp - org.apache.hadoop.hbase.generated.master中的类
-
- table_jsp() - 类 的构造器org.apache.hadoop.hbase.generated.master.table_jsp
-
- TABLE_LOCK_ENABLE - 类 中的静态变量org.apache.hadoop.hbase.master.TableLockManager
-
Configuration key for enabling table-level locks for schema changes
- TABLE_LOCK_EXPIRE_TIMEOUT - 类 中的静态变量org.apache.hadoop.hbase.master.TableLockManager
-
- TABLE_NAME - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.Import
-
- TABLE_READ_LOCK_TIMEOUT_MS - 类 中的静态变量org.apache.hadoop.hbase.master.TableLockManager
-
Configuration key for time out for trying to acquire table locks
- TABLE_ROW_TEXTKEY - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
已过时。
- TABLE_WRITE_LOCK_TIMEOUT_MS - 类 中的静态变量org.apache.hadoop.hbase.master.TableLockManager
-
Configuration key for time out for trying to acquire table locks
- TableAuthManager - org.apache.hadoop.hbase.security.access中的类
-
Performs authorization checks for a given user's assigned permissions
- TableCFsUpdater - org.apache.hadoop.hbase.replication.master中的类
-
This class is used to upgrade TableCFs from HBase 1.0, 1.1, 1.2, 1.3 to HBase 1.4 or 2.x.
- TableCFsUpdater(ZooKeeperWatcher, Configuration, Abortable) - 类 的构造器org.apache.hadoop.hbase.replication.master.TableCFsUpdater
-
- TableCfWALEntryFilter - org.apache.hadoop.hbase.replication中的类
-
- TableCfWALEntryFilter(ReplicationPeer) - 类 的构造器org.apache.hadoop.hbase.replication.TableCfWALEntryFilter
-
- tableDeleted(TableName) - 类 中的方法org.apache.hadoop.hbase.master.RegionStates
-
A table is deleted.
- tableDeleted(TableName) - 类 中的方法org.apache.hadoop.hbase.master.TableLockManager.NullTableLockManager
-
- tableDeleted(TableName) - 类 中的方法org.apache.hadoop.hbase.master.TableLockManager
-
Called after a table has been deleted, and after the table lock is released.
- tableDescriptors - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
Go here to get table descriptors.
- TableDescriptors - org.apache.hadoop.hbase中的接口
-
Get, remove and modify table descriptors.
- tableDict - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.CompressionContext
-
- TableEventHandler - org.apache.hadoop.hbase.master.handler中的类
-
Base class for performing operations against tables.
- TableEventHandler(EventType, TableName, Server, MasterServices) - 类 的构造器org.apache.hadoop.hbase.master.handler.TableEventHandler
-
- tableHasErrors(HBaseFsck.TableInfo) - 接口 中的方法org.apache.hadoop.hbase.util.HBaseFsck.ErrorReporter
-
- TableHFileArchiveTracker - org.apache.hadoop.hbase.backup.example中的类
-
Track HFile archiving state changes in ZooKeeper.
- TableInputFormat - org.apache.hadoop.hbase.mapred中的类
-
Convert HBase tabular data into a format that is consumable by Map/Reduce.
- TableInputFormat() - 类 的构造器org.apache.hadoop.hbase.mapred.TableInputFormat
-
- TableInputFormat - org.apache.hadoop.hbase.mapreduce中的类
-
Convert HBase tabular data into a format that is consumable by Map/Reduce.
- TableInputFormat() - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableInputFormat
-
- TableInputFormatBase - org.apache.hadoop.hbase.mapred中的类
-
- TableInputFormatBase() - 类 的构造器org.apache.hadoop.hbase.mapred.TableInputFormatBase
-
- TableInputFormatBase - org.apache.hadoop.hbase.mapreduce中的类
-
- TableInputFormatBase() - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableInputFormatBase
-
- TableIntegrityErrorHandler - org.apache.hadoop.hbase.util.hbck中的接口
-
This interface provides callbacks for handling particular table integrity
invariant violations.
- TableIntegrityErrorHandlerImpl - org.apache.hadoop.hbase.util.hbck中的类
-
Simple implementation of TableIntegrityErrorHandler.
- TableIntegrityErrorHandlerImpl() - 类 的构造器org.apache.hadoop.hbase.util.hbck.TableIntegrityErrorHandlerImpl
-
- tableLock - 类 中的变量org.apache.hadoop.hbase.master.handler.TableEventHandler
-
- tableLock - 类 中的变量org.apache.hadoop.hbase.master.snapshot.TakeSnapshotHandler
-
- TableLockChecker - org.apache.hadoop.hbase.util.hbck中的类
-
Utility to check and fix table locks.
- TableLockChecker(ZooKeeperWatcher, HBaseFsck.ErrorReporter) - 类 的构造器org.apache.hadoop.hbase.util.hbck.TableLockChecker
-
- tableLockManager - 类 中的变量org.apache.hadoop.hbase.master.snapshot.TakeSnapshotHandler
-
- TableLockManager - org.apache.hadoop.hbase.master中的类
-
A manager for distributed table level locks.
- TableLockManager() - 类 的构造器org.apache.hadoop.hbase.master.TableLockManager
-
- tableLockManager - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
- TableLockManager.NullTableLockManager - org.apache.hadoop.hbase.master中的类
-
A null implementation
- TableLockManager.NullTableLockManager() - 类 的构造器org.apache.hadoop.hbase.master.TableLockManager.NullTableLockManager
-
- TableLockManager.TableLock - org.apache.hadoop.hbase.master中的接口
-
A distributed lock for a table.
- TableMap<K extends org.apache.hadoop.io.WritableComparable<? super K>,V> - org.apache.hadoop.hbase.mapred中的接口
-
Scan an HBase table to sort by a specified sort column.
- TableMapper<KEYOUT,VALUEOUT> - org.apache.hadoop.hbase.mapreduce中的类
-
Extends the base Mapper class to add the required input key
and value classes.
- TableMapper() - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableMapper
-
- TableMapReduceUtil - org.apache.hadoop.hbase.mapred中的类
-
- TableMapReduceUtil() - 类 的构造器org.apache.hadoop.hbase.mapred.TableMapReduceUtil
-
- TableMapReduceUtil - org.apache.hadoop.hbase.mapreduce中的类
-
- TableMapReduceUtil() - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil
-
- tableName - 类 中的变量org.apache.hadoop.hbase.master.handler.TableEventHandler
-
- tablename - 类 中的变量org.apache.hadoop.hbase.wal.WALKey
-
- TableNamespaceManager - org.apache.hadoop.hbase.master中的类
-
This is a helper class used to manage the namespace
metadata that is stored in TableName.NAMESPACE_TABLE_NAME
It also mirrors updates to the ZK store by forwarding updates to
ZKNamespaceManager
- TableNamespaceManager(MasterServices) - 类 的构造器org.apache.hadoop.hbase.master.TableNamespaceManager
-
- TableOutputCommitter - org.apache.hadoop.hbase.mapreduce中的类
-
Small committer class that does not do anything.
- TableOutputCommitter() - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableOutputCommitter
-
- TableOutputFormat - org.apache.hadoop.hbase.mapred中的类
-
Convert Map/Reduce output and write it to an HBase table
- TableOutputFormat() - 类 的构造器org.apache.hadoop.hbase.mapred.TableOutputFormat
-
- TableOutputFormat<KEY> - org.apache.hadoop.hbase.mapreduce中的类
-
Convert Map/Reduce output and write it to an HBase table.
- TableOutputFormat() - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableOutputFormat
-
- TableOutputFormat.TableRecordWriter - org.apache.hadoop.hbase.mapred中的类
-
Convert Reduce output (key, value) to (HStoreKey, KeyedDataArrayWritable)
and write to an HBase table.
- TableOutputFormat.TableRecordWriter(BufferedMutator) - 类 的构造器org.apache.hadoop.hbase.mapred.TableOutputFormat.TableRecordWriter
-
Instantiate a TableRecordWriter with the HBase HClient for writing.
- TableOutputFormat.TableRecordWriter(JobConf) - 类 的构造器org.apache.hadoop.hbase.mapred.TableOutputFormat.TableRecordWriter
-
- TableOutputFormat.TableRecordWriter - org.apache.hadoop.hbase.mapreduce中的类
-
Writes the reducer output to an HBase table.
- TableOutputFormat.TableRecordWriter() - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableOutputFormat.TableRecordWriter
-
- TableProcedureInterface - org.apache.hadoop.hbase.master.procedure中的接口
-
Procedures that operates on a specific Table (e.g. create, delete, snapshot, ...)
- TableProcedureInterface.TableOperationType - org.apache.hadoop.hbase.master.procedure中的枚举
-
- TableRecordReader - org.apache.hadoop.hbase.mapred中的类
-
Iterate over an HBase table data, return (Text, RowResult) pairs
- TableRecordReader() - 类 的构造器org.apache.hadoop.hbase.mapred.TableRecordReader
-
- TableRecordReader - org.apache.hadoop.hbase.mapreduce中的类
-
Iterate over an HBase table data, return (ImmutableBytesWritable, Result)
pairs.
- TableRecordReader() - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableRecordReader
-
- TableRecordReaderImpl - org.apache.hadoop.hbase.mapred中的类
-
Iterate over an HBase table data, return (Text, RowResult) pairs
- TableRecordReaderImpl() - 类 的构造器org.apache.hadoop.hbase.mapred.TableRecordReaderImpl
-
- TableRecordReaderImpl - org.apache.hadoop.hbase.mapreduce中的类
-
Iterate over an HBase table data, return (ImmutableBytesWritable, Result)
pairs.
- TableRecordReaderImpl() - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableRecordReaderImpl
-
- TableReduce<K extends org.apache.hadoop.io.WritableComparable,V> - org.apache.hadoop.hbase.mapred中的接口
-
Write a table, sorting by the input key
- TableReducer<KEYIN,VALUEIN,KEYOUT> - org.apache.hadoop.hbase.mapreduce中的类
-
Extends the basic Reducer class to add the required key and
value input/output classes.
- TableReducer() - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableReducer
-
- TABLES_ON_MASTER - 类 中的静态变量org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer
-
- tablesDetailed_jsp - org.apache.hadoop.hbase.generated.master中的类
-
- tablesDetailed_jsp() - 类 的构造器org.apache.hadoop.hbase.generated.master.tablesDetailed_jsp
-
- TableSnapshotInputFormat - org.apache.hadoop.hbase.mapred中的类
-
TableSnapshotInputFormat allows a MapReduce job to run over a table snapshot.
- TableSnapshotInputFormat() - 类 的构造器org.apache.hadoop.hbase.mapred.TableSnapshotInputFormat
-
- TableSnapshotInputFormat - org.apache.hadoop.hbase.mapreduce中的类
-
TableSnapshotInputFormat allows a MapReduce job to run over a table snapshot.
- TableSnapshotInputFormat() - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormat
-
- TableSnapshotInputFormat.TableSnapshotRegionSplit - org.apache.hadoop.hbase.mapred中的类
-
- TableSnapshotInputFormat.TableSnapshotRegionSplit() - 类 的构造器org.apache.hadoop.hbase.mapred.TableSnapshotInputFormat.TableSnapshotRegionSplit
-
- TableSnapshotInputFormat.TableSnapshotRegionSplit(TableSnapshotInputFormatImpl.InputSplit) - 类 的构造器org.apache.hadoop.hbase.mapred.TableSnapshotInputFormat.TableSnapshotRegionSplit
-
- TableSnapshotInputFormat.TableSnapshotRegionSplit(HTableDescriptor, HRegionInfo, List<String>, Scan, Path) - 类 的构造器org.apache.hadoop.hbase.mapred.TableSnapshotInputFormat.TableSnapshotRegionSplit
-
- TableSnapshotInputFormat.TableSnapshotRegionSplit - org.apache.hadoop.hbase.mapreduce中的类
-
- TableSnapshotInputFormat.TableSnapshotRegionSplit() - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormat.TableSnapshotRegionSplit
-
- TableSnapshotInputFormat.TableSnapshotRegionSplit(TableSnapshotInputFormatImpl.InputSplit) - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormat.TableSnapshotRegionSplit
-
- TableSnapshotInputFormat.TableSnapshotRegionSplit(HTableDescriptor, HRegionInfo, List<String>, Scan, Path) - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormat.TableSnapshotRegionSplit
-
- TableSnapshotInputFormatImpl - org.apache.hadoop.hbase.mapreduce中的类
-
Hadoop MR API-agnostic implementation for mapreduce over table snapshots.
- TableSnapshotInputFormatImpl() - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl
-
- TableSnapshotInputFormatImpl.InputSplit - org.apache.hadoop.hbase.mapreduce中的类
-
Implementation class for InputSplit logic common between mapred and mapreduce.
- TableSnapshotInputFormatImpl.InputSplit() - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl.InputSplit
-
- TableSnapshotInputFormatImpl.InputSplit(HTableDescriptor, HRegionInfo, List<String>, Scan, Path) - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl.InputSplit
-
- TableSnapshotInputFormatImpl.RecordReader - org.apache.hadoop.hbase.mapreduce中的类
-
Implementation class for RecordReader logic common between mapred and mapreduce.
- TableSnapshotInputFormatImpl.RecordReader() - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormatImpl.RecordReader
-
- TableSnapshotScanner - org.apache.hadoop.hbase.client中的类
-
A Scanner which performs a scan over snapshot files.
- TableSnapshotScanner(Configuration, Path, String, Scan) - 类 的构造器org.apache.hadoop.hbase.client.TableSnapshotScanner
-
Creates a TableSnapshotScanner.
- TableSnapshotScanner(Configuration, Path, Path, String, Scan) - 类 的构造器org.apache.hadoop.hbase.client.TableSnapshotScanner
-
Creates a TableSnapshotScanner.
- tablesOnMaster - 类 中的变量org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer
-
- tablesOnMaster(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer
-
Check if configured to put any tables on the active master
- TableSplit - org.apache.hadoop.hbase.mapred中的类
-
A table split corresponds to a key range [low, high)
- TableSplit() - 类 的构造器org.apache.hadoop.hbase.mapred.TableSplit
-
default constructor
- TableSplit(TableName, byte[], byte[], String) - 类 的构造器org.apache.hadoop.hbase.mapred.TableSplit
-
Constructor
- TableSplit(byte[], byte[], byte[], String) - 类 的构造器org.apache.hadoop.hbase.mapred.TableSplit
-
- TableSplit - org.apache.hadoop.hbase.mapreduce中的类
-
A table split corresponds to a key range (low, high) and an optional scanner.
- TableSplit() - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableSplit
-
Default constructor.
- TableSplit(byte[], Scan, byte[], byte[], String) - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableSplit
-
- TableSplit(TableName, Scan, byte[], byte[], String) - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableSplit
-
Creates a new instance while assigning all variables.
- TableSplit(TableName, Scan, byte[], byte[], String, long) - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableSplit
-
Creates a new instance while assigning all variables.
- TableSplit(TableName, Scan, byte[], byte[], String, String, long) - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableSplit
-
Creates a new instance while assigning all variables.
- TableSplit(byte[], byte[], byte[], String) - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableSplit
-
- TableSplit(TableName, byte[], byte[], String) - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableSplit
-
Creates a new instance without a scanner.
- TableSplit(TableName, byte[], byte[], String, long) - 类 的构造器org.apache.hadoop.hbase.mapreduce.TableSplit
-
Creates a new instance without a scanner.
- TableStateManager - org.apache.hadoop.hbase中的接口
-
Helper class for table state management for operations running inside
RegionServer or HMaster.
- TagRewriteCell - org.apache.hadoop.hbase中的类
-
This can be used when a Cell has to change with addition/removal of one or more tags.
- TagRewriteCell(Cell, byte[]) - 类 的构造器org.apache.hadoop.hbase.TagRewriteCell
-
- tailMap(byte[]) - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFile.FileInfo
-
- tailSet(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSkipListSet
-
- tailSet(Cell, boolean) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSkipListSet
-
- tailSet(E) - 类 中的方法org.apache.hadoop.hbase.util.SortedCopyOnWriteSet
-
- take() - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- take() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSourceWALReaderThread
-
Retrieves the next batch of WAL entries from the queue, waiting up to the specified time for a
batch to become available
- take() - 类 中的方法org.apache.hadoop.hbase.util.BoundedPriorityBlockingQueue
-
- take() - 类 中的方法org.apache.hadoop.hbase.util.StealJobQueue
-
- takeSnapshot(HBaseProtos.SnapshotDescription) - 类 中的方法org.apache.hadoop.hbase.master.snapshot.SnapshotManager
-
Take a snapshot based on the enabled/disabled state of the table.
- TakeSnapshotHandler - org.apache.hadoop.hbase.master.snapshot中的类
-
A handler for taking snapshots from the master.
- TakeSnapshotHandler(HBaseProtos.SnapshotDescription, MasterServices, SnapshotManager) - 类 的构造器org.apache.hadoop.hbase.master.snapshot.TakeSnapshotHandler
-
- targets - 类 中的变量org.apache.hadoop.hbase.tool.CanaryTool.Monitor
-
'Target' dependent on 'mode'.
- taskLoop() - 接口 中的方法org.apache.hadoop.hbase.coordination.SplitLogWorkerCoordination
-
Wait for the new tasks and grab one
- taskLoop() - 类 中的方法org.apache.hadoop.hbase.coordination.ZkSplitLogWorkerCoordination
-
Wait for tasks to become available at /hbase/splitlog zknode.
- TaskMonitor - org.apache.hadoop.hbase.monitoring中的类
-
Singleton which keeps track of tasks going on in this VM.
- taskMonitor - 类 中的变量org.apache.hadoop.hbase.tmpl.common.TaskMonitorTmpl
-
- TaskMonitorTmpl - org.apache.hadoop.hbase.tmpl.common中的类
-
- TaskMonitorTmpl(TemplateManager) - 类 的构造器org.apache.hadoop.hbase.tmpl.common.TaskMonitorTmpl
-
- TaskMonitorTmpl(String) - 类 的构造器org.apache.hadoop.hbase.tmpl.common.TaskMonitorTmpl
-
- TaskMonitorTmpl() - 类 的构造器org.apache.hadoop.hbase.tmpl.common.TaskMonitorTmpl
-
- TaskMonitorTmpl.ImplData - org.apache.hadoop.hbase.tmpl.common中的类
-
- TaskMonitorTmpl.ImplData() - 类 的构造器org.apache.hadoop.hbase.tmpl.common.TaskMonitorTmpl.ImplData
-
- TaskMonitorTmpl.Intf - org.apache.hadoop.hbase.tmpl.common中的接口
-
- TaskMonitorTmplImpl - org.apache.hadoop.hbase.tmpl.common中的类
-
- TaskMonitorTmplImpl(TemplateManager, TaskMonitorTmpl.ImplData) - 类 的构造器org.apache.hadoop.hbase.tmpl.common.TaskMonitorTmplImpl
-
- tasksInProgress - 类 中的变量org.apache.hadoop.hbase.coordination.ZkSplitLogWorkerCoordination
-
- tcpKeepAlive - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer
-
- tcpNoDelay - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer
-
- terminate(String) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSource
-
- terminate(String, Exception) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSource
-
- terminate(String, Exception, boolean) - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSource
-
- terminate(String) - 接口 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSourceInterface
-
End the replication
- terminate(String, Exception) - 接口 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationSourceInterface
-
End the replication
- testCipherProvider(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.EncryptionTest
-
Check that the configured cipher provider can be loaded and initialized, or
throw an exception.
- testCompression(String) - 类 中的静态方法org.apache.hadoop.hbase.util.CompressionTest
-
- testCompression(Compression.Algorithm) - 类 中的静态方法org.apache.hadoop.hbase.util.CompressionTest
-
- testEncryption(Configuration, String, byte[]) - 类 中的静态方法org.apache.hadoop.hbase.util.EncryptionTest
-
Check that the specified cipher can be loaded and initialized, or throw
an exception.
- testKeyProvider(Configuration) - 类 中的静态方法org.apache.hadoop.hbase.util.EncryptionTest
-
Check that the configured key provider can be loaded and initialized, or
throw an exception.
- testTableCoprocessorAttrs(Configuration, HTableDescriptor) - 类 中的静态方法org.apache.hadoop.hbase.regionserver.RegionCoprocessorHost
-
Sanity check the table coprocessor attributes of the supplied schema.
- TextSortReducer - org.apache.hadoop.hbase.mapreduce中的类
-
Emits Sorted KeyValues.
- TextSortReducer() - 类 的构造器org.apache.hadoop.hbase.mapreduce.TextSortReducer
-
- ThreadMonitoring - org.apache.hadoop.hbase.monitoring中的类
-
- ThreadMonitoring() - 类 的构造器org.apache.hadoop.hbase.monitoring.ThreadMonitoring
-
- threadWakeFrequency - 类 中的变量org.apache.hadoop.hbase.regionserver.HRegionServer
-
- thresholdIdleConnections - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer
-
- throttleCompaction(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionPolicy
-
- throttleCompaction(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.SortedCompactionPolicy
-
- throttleCompaction(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.StripeCompactionPolicy
-
- throttleCompaction(long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- throttleCompaction(long) - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- ThroughputController - org.apache.hadoop.hbase.regionserver.throttle中的接口
-
A utility that constrains the total throughput of one or more simultaneous flows by
sleeping when necessary.
- ThroughputControlUtil - org.apache.hadoop.hbase.regionserver.throttle中的类
-
Helper methods for throttling
- throughputDesc(long, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.PressureAwareThroughputController
-
- throughputDesc(double) - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.PressureAwareThroughputController
-
- tickleOpening(OpenRegionCoordination.OpenRegionDetails, HRegionInfo, RegionServerServices, String) - 接口 中的方法org.apache.hadoop.hbase.coordination.OpenRegionCoordination
-
Heartbeats to prevent timeouts.
- tickleOpening(OpenRegionCoordination.OpenRegionDetails, HRegionInfo, RegionServerServices, String) - 类 中的方法org.apache.hadoop.hbase.coordination.ZkOpenRegionCoordination
-
Update our OPENING state in zookeeper.
- TimeBasedLimiter - org.apache.hadoop.hbase.quotas中的类
-
Simple time based limiter that checks the quota Throttle
- timedOut(long) - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer.Connection
-
- timeOfOldestEdit() - 类 中的方法org.apache.hadoop.hbase.regionserver.DefaultMemStore
-
- timeOfOldestEdit() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- timeOfOldestEdit() - 接口 中的方法org.apache.hadoop.hbase.regionserver.MemStore
-
- timeOfOldestEdit() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
When was the last edit done in the memstore
- timeout - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer.Call
-
- TimeoutException - org.apache.hadoop.hbase.errorhandling中的异常错误
-
Exception for timeout of a task.
- TimeoutException(String, long, long, long) - 异常错误 的构造器org.apache.hadoop.hbase.errorhandling.TimeoutException
-
Exception indicating that an operation attempt has timed out
- TimeoutExceptionInjector - org.apache.hadoop.hbase.errorhandling中的类
-
Time a given process/operation and report a failure if the elapsed time exceeds the max allowed
time.
- TimeoutExceptionInjector(ForeignExceptionListener, long) - 类 的构造器org.apache.hadoop.hbase.errorhandling.TimeoutExceptionInjector
-
Create a generic timer for a task/process.
- timeoutInjector - 类 中的变量org.apache.hadoop.hbase.procedure.Procedure
-
- timeRange - 类 中的变量org.apache.hadoop.hbase.regionserver.StoreFile.Reader
-
- TIMERANGE_KEY - 类 中的静态变量org.apache.hadoop.hbase.regionserver.StoreFile
-
Key for Timerange information in metadata
- TimeRangeTracker - org.apache.hadoop.hbase.regionserver中的类
-
Stores minimum and maximum timestamp values, it is [minimumTimestamp, maximumTimestamp] in
interval notation.
- TimeRangeTracker() - 类 的构造器org.apache.hadoop.hbase.regionserver.TimeRangeTracker
-
Default constructor.
- TimeRangeTracker(TimeRangeTracker) - 类 的构造器org.apache.hadoop.hbase.regionserver.TimeRangeTracker
-
Copy Constructor
- TimeRangeTracker(long, long) - 类 的构造器org.apache.hadoop.hbase.regionserver.TimeRangeTracker
-
- timestamp - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer.Call
-
- TIMESTAMP_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.ImportTsv
-
- TIMESTAMPKEY_COLUMN_SPEC - 类 中的静态变量org.apache.hadoop.hbase.mapreduce.ImportTsv.TsvParser
-
- TimeToLiveHFileCleaner - org.apache.hadoop.hbase.master.cleaner中的类
-
HFile cleaner that uses the timestamp of the hfile to determine if it should be deleted.
- TimeToLiveHFileCleaner() - 类 的构造器org.apache.hadoop.hbase.master.cleaner.TimeToLiveHFileCleaner
-
- TimeToLiveLogCleaner - org.apache.hadoop.hbase.master.cleaner中的类
-
Log cleaner that uses the timestamp of the wal to determine if it should
be deleted.
- TimeToLiveLogCleaner() - 类 的构造器org.apache.hadoop.hbase.master.cleaner.TimeToLiveLogCleaner
-
- timeToPurgeDeletes - 类 中的变量org.apache.hadoop.hbase.regionserver.querymatcher.DropDeletesCompactionScanQueryMatcher
-
By default, when hbase.hstore.time.to.purge.deletes is 0ms, a delete marker is always removed
during a major compaction.
- tinfo - 类 中的变量org.apache.hadoop.hbase.ipc.RpcServer.Call
-
- toArray() - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- toArray(T[]) - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- toArray() - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSkipListSet
-
- toArray(T[]) - 类 中的方法org.apache.hadoop.hbase.regionserver.CellSkipListSet
-
- toArray() - 类 中的方法org.apache.hadoop.hbase.util.SortedCopyOnWriteSet
-
- toArray(T[]) - 类 中的方法org.apache.hadoop.hbase.util.SortedCopyOnWriteSet
-
- toArray() - 类 中的方法org.apache.hadoop.hbase.util.SortedList
-
- toArray(T[]) - 类 中的方法org.apache.hadoop.hbase.util.SortedList
-
- toByteArray() - 类 中的方法org.apache.hadoop.hbase.SplitLogTask
-
- toContextString() - 类 中的方法org.apache.hadoop.hbase.security.access.AuthResult
-
- toFamilyString() - 类 中的方法org.apache.hadoop.hbase.security.access.AuthResult
-
- toJSON(String, NavigableSet<CachedBlock>) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.BlockCacheUtil
-
- toJSON(BlockCacheUtil.CachedBlocksByFile) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.BlockCacheUtil
-
- toJSON(BlockCache) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.BlockCacheUtil
-
- toJSON() - 接口 中的方法org.apache.hadoop.hbase.monitoring.MonitoredTask
-
Creates a JSON object for parseable exposure of monitored tasks.
- TokenProvider - org.apache.hadoop.hbase.security.token中的类
-
Provides a service for obtaining authentication tokens via the
AuthenticationProtos AuthenticationService coprocessor service.
- TokenProvider() - 类 的构造器org.apache.hadoop.hbase.security.token.TokenProvider
-
- toMap() - 类 中的方法org.apache.hadoop.hbase.monitoring.MonitoredRPCHandlerImpl
-
- toMap() - 接口 中的方法org.apache.hadoop.hbase.monitoring.MonitoredTask
-
Creates a string map of internal details for extensible exposure of
monitored tasks.
- toNamespaceEntry(String) - 类 中的静态方法org.apache.hadoop.hbase.security.access.AccessControlLists
-
- toNamespaceEntry(byte[]) - 类 中的静态方法org.apache.hadoop.hbase.security.access.AccessControlLists
-
- toProtoUserInfo(UserGroupInformation) - 类 中的静态方法org.apache.hadoop.hbase.master.procedure.MasterProcedureUtil
-
- toRegion - 类 中的变量org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer.Cluster.SwapRegionsAction
-
- toServer - 类 中的变量org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer.Cluster.MoveRegionAction
-
- toServer - 类 中的变量org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer.Cluster.SwapRegionsAction
-
- toString() - 异常错误 中的方法org.apache.hadoop.hbase.errorhandling.ForeignException
-
- toString() - 类 中的方法org.apache.hadoop.hbase.executor.EventHandler
-
- toString() - 类 中的方法org.apache.hadoop.hbase.HDFSBlocksDistribution
-
- toString() - 类 中的方法org.apache.hadoop.hbase.http.HttpServer
-
Return the host and port of the HttpServer, if live
- toString() - 类 中的方法org.apache.hadoop.hbase.io.FileLink
-
- toString() - 类 中的方法org.apache.hadoop.hbase.io.hfile.AbstractHFileReader.Scanner
-
- toString() - 类 中的方法org.apache.hadoop.hbase.io.hfile.AbstractHFileReader
-
- toString() - 类 中的方法org.apache.hadoop.hbase.io.hfile.AbstractHFileWriter
-
- toString() - 类 中的方法org.apache.hadoop.hbase.io.hfile.BlockCacheKey
-
- toString() - 类 中的方法org.apache.hadoop.hbase.io.hfile.BlockCacheUtil.CachedBlocksByFile
-
- toString(CachedBlock, long) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.BlockCacheUtil
-
- toString() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketAllocator
-
- toString() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.BucketCacheStats
-
- toString() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.ByteBufferIOEngine
-
- toString() - 异常错误 中的方法org.apache.hadoop.hbase.io.hfile.bucket.CacheFullException
-
- toString() - 类 中的方法org.apache.hadoop.hbase.io.hfile.bucket.FileIOEngine
-
- toString() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheConfig
-
- toString() - 类 中的方法org.apache.hadoop.hbase.io.hfile.CacheStats
-
- toString() - 类 中的方法org.apache.hadoop.hbase.io.hfile.FixedFileTrailer
-
- toString() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlock
-
- toString() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileBlockIndex.BlockIndexReader
-
- toString() - 类 中的方法org.apache.hadoop.hbase.io.hfile.HFileDataBlockEncoderImpl
-
- toString() - 类 中的方法org.apache.hadoop.hbase.io.hfile.LruBlockCache
-
- toString() - 类 中的方法org.apache.hadoop.hbase.io.hfile.NoOpDataBlockEncoder
-
- toString() - 类 中的方法org.apache.hadoop.hbase.io.Reference
-
- toString() - 类 中的方法org.apache.hadoop.hbase.ipc.AdaptiveLifoCoDelCallQueue
-
- toString() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer.Call
-
- toString() - 类 中的方法org.apache.hadoop.hbase.ipc.RpcServer.Connection
-
- toString() - 类 中的方法org.apache.hadoop.hbase.mapred.TableSplit
-
- toString() - 类 中的方法org.apache.hadoop.hbase.mapreduce.HashTable.TableHash
-
- toString() - 类 中的方法org.apache.hadoop.hbase.mapreduce.LoadIncrementalHFiles.LoadQueueItem
-
- toString() - 类 中的方法org.apache.hadoop.hbase.mapreduce.TableSplit
-
Returns the details about this instance as a string.
- toString() - 类 中的方法org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer.Cluster.Action
-
- toString() - 类 中的方法org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer.Cluster.AssignRegionAction
-
- toString() - 类 中的方法org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer.Cluster.MoveRegionAction
-
- toString() - 类 中的方法org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer.Cluster.SwapRegionsAction
-
- toString() - 类 中的方法org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer.Cluster
-
- toString() - 类 中的方法org.apache.hadoop.hbase.master.DeadServer
-
- toString() - 类 中的方法org.apache.hadoop.hbase.master.handler.ClosedRegionHandler
-
- toString() - 类 中的方法org.apache.hadoop.hbase.master.handler.CreateTableHandler
-
- toString() - 类 中的方法org.apache.hadoop.hbase.master.handler.DisableTableHandler
-
- toString() - 类 中的方法org.apache.hadoop.hbase.master.handler.EnableTableHandler
-
- toString() - 类 中的方法org.apache.hadoop.hbase.master.handler.OpenedRegionHandler
-
- toString() - 类 中的方法org.apache.hadoop.hbase.master.normalizer.MergeNormalizationPlan
-
- toString() - 类 中的方法org.apache.hadoop.hbase.master.normalizer.SplitNormalizationPlan
-
- toString() - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureScheduler.ProcedureEvent
-
- toString() - 类 中的方法org.apache.hadoop.hbase.master.RegionPlan
-
- toString() - 类 中的方法org.apache.hadoop.hbase.master.SplitLogManager.Task
-
- toString() - 类 中的方法org.apache.hadoop.hbase.master.SplitLogManager.TaskBatch
-
- toString() - 枚举 中的方法org.apache.hadoop.hbase.master.SplitLogManager.TerminationStatus
-
- toString() - 类 中的方法org.apache.hadoop.hbase.monitoring.MonitoredRPCHandlerImpl
-
- toString() - 类 中的方法org.apache.hadoop.hbase.quotas.QuotaState
-
- toString() - 类 中的方法org.apache.hadoop.hbase.quotas.RateLimiter
-
- toString() - 类 中的方法org.apache.hadoop.hbase.quotas.TimeBasedLimiter
-
- toString() - 类 中的方法org.apache.hadoop.hbase.quotas.UserQuotaState
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionConfiguration
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionProgress
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionRequest
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.CompactionWindow
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.DateTieredCompactionRequest
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.compactions.ExponentialCompactionWindowFactory
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.CompactSplitThread
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion.FlushResultImpl
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion.RowLockImpl
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.LruHashMap.Entry
-
Returns String representation of the entry in form "key=value"
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.MultiVersionConcurrencyControl
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.MultiVersionConcurrencyControl.WriteEntry
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionMergeTransactionImpl.JournalEntryImpl
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.RegionMergeTransactionImpl
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.ScannerContext
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.SplitTransactionImpl.JournalEntryImpl
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.SplitTransactionImpl
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileInfo
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFileScanner
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.NoLimitThroughputController
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.PressureAwareCompactionThroughputController
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.throttle.PressureAwareFlushThroughputController
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.TimeRangeTracker
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.FSHLog
-
- toString() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.WALEdit
-
- toString() - 类 中的方法org.apache.hadoop.hbase.replication.regionserver.ReplicationLoad
-
- toString() - 类 中的方法org.apache.hadoop.hbase.security.access.AuthResult.Params
-
- toString() - 类 中的方法org.apache.hadoop.hbase.security.access.AuthResult
-
- toString() - 类 中的方法org.apache.hadoop.hbase.security.token.AuthenticationKey
-
- toString() - 类 中的方法org.apache.hadoop.hbase.security.visibility.expression.LeafExpressionNode
-
- toString() - 类 中的方法org.apache.hadoop.hbase.security.visibility.expression.NonLeafExpressionNode
-
- toString() - 枚举 中的方法org.apache.hadoop.hbase.security.visibility.expression.Operator
-
- toString() - 类 中的方法org.apache.hadoop.hbase.SplitLogTask
-
- toString() - 类 中的方法org.apache.hadoop.hbase.util.ByteBloomFilter
-
- toString() - 类 中的方法org.apache.hadoop.hbase.util.CompoundBloomFilter
-
- toString() - 类 中的方法org.apache.hadoop.hbase.util.HashedBytes
-
- toString() - 类 中的方法org.apache.hadoop.hbase.util.HBaseFsck.HbckInfo
-
- toString() - 类 中的方法org.apache.hadoop.hbase.util.IdLock.Entry
-
- toString() - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.NumberStringSplit
-
- toString() - 类 中的方法org.apache.hadoop.hbase.util.RegionSplitter.UniformSplit
-
- toString() - 类 中的方法org.apache.hadoop.hbase.wal.WAL.Entry
-
- toString() - 接口 中的方法org.apache.hadoop.hbase.wal.WAL
-
Human readable identifying information about the state of this WAL.
- toString() - 类 中的方法org.apache.hadoop.hbase.wal.WALKey
-
- toString() - 类 中的方法org.apache.hadoop.hbase.zookeeper.lock.ZKInterProcessLockBase.AcquiredLock
-
- toStringClassDetails(StringBuilder) - 类 中的方法org.apache.hadoop.hbase.master.procedure.AddColumnFamilyProcedure
-
- toStringClassDetails(StringBuilder) - 类 中的方法org.apache.hadoop.hbase.master.procedure.CreateNamespaceProcedure
-
- toStringClassDetails(StringBuilder) - 类 中的方法org.apache.hadoop.hbase.master.procedure.CreateTableProcedure
-
- toStringClassDetails(StringBuilder) - 类 中的方法org.apache.hadoop.hbase.master.procedure.DeleteColumnFamilyProcedure
-
- toStringClassDetails(StringBuilder) - 类 中的方法org.apache.hadoop.hbase.master.procedure.DeleteNamespaceProcedure
-
- toStringClassDetails(StringBuilder) - 类 中的方法org.apache.hadoop.hbase.master.procedure.DeleteTableProcedure
-
- toStringClassDetails(StringBuilder) - 类 中的方法org.apache.hadoop.hbase.master.procedure.DisableTableProcedure
-
- toStringClassDetails(StringBuilder) - 类 中的方法org.apache.hadoop.hbase.master.procedure.EnableTableProcedure
-
- toStringClassDetails(StringBuilder) - 类 中的方法org.apache.hadoop.hbase.master.procedure.ModifyColumnFamilyProcedure
-
- toStringClassDetails(StringBuilder) - 类 中的方法org.apache.hadoop.hbase.master.procedure.ModifyNamespaceProcedure
-
- toStringClassDetails(StringBuilder) - 类 中的方法org.apache.hadoop.hbase.master.procedure.ModifyTableProcedure
-
- toStringClassDetails(StringBuilder) - 类 中的方法org.apache.hadoop.hbase.master.procedure.ServerCrashProcedure
-
- toStringClassDetails(StringBuilder) - 类 中的方法org.apache.hadoop.hbase.master.procedure.TruncateTableProcedure
-
- toStringDetailed() - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile
-
- toStringFirstKey() - 类 中的方法org.apache.hadoop.hbase.io.hfile.AbstractHFileReader
-
- toStringLastKey() - 类 中的方法org.apache.hadoop.hbase.io.hfile.AbstractHFileReader
-
- toStringMap() - 类 中的方法org.apache.hadoop.hbase.wal.WALKey
-
Produces a string map for this key.
- toStringMinusFileName(CachedBlock, long) - 类 中的静态方法org.apache.hadoop.hbase.io.hfile.BlockCacheUtil
-
- tot_mgr_get_data_err - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_get_data_nonode - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_get_data_queued - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_get_data_result - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_get_data_retry - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_heartbeat - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_log_split_batch_err - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_log_split_batch_start - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_log_split_batch_success - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_log_split_err - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_log_split_start - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_log_split_success - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_missing_state_in_delete - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_new_unexpected_wals - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_node_already_exists - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_node_create_err - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_node_create_queued - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_node_create_result - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_node_create_retry - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_node_delete_err - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_node_delete_queued - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_node_delete_result - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_null_data - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_orphan_task_acquired - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_relist_logdir - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_rescan - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_rescan_deleted - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_resubmit - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_resubmit_dead_server_task - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_resubmit_failed - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_resubmit_force - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_resubmit_threshold_reached - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_resubmit_unassigned - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_task_deleted - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_unacquired_orphan_done - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_mgr_wait_for_zk_delete - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_wkr_failed_to_grab_task_exception - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_wkr_failed_to_grab_task_lost_race - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_wkr_failed_to_grab_task_no_data - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_wkr_failed_to_grab_task_owned - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_wkr_final_transition_failed - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_wkr_get_data_queued - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_wkr_get_data_result - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_wkr_get_data_retry - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_wkr_preempt_task - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_wkr_task_acquired - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_wkr_task_acquired_rescan - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_wkr_task_done - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_wkr_task_err - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_wkr_task_grabing - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_wkr_task_heartbeat - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_wkr_task_heartbeat_failed - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- tot_wkr_task_resigned - 类 中的静态变量org.apache.hadoop.hbase.SplitLogCounters
-
- totalByteSize - 类 中的变量org.apache.hadoop.hbase.util.CompoundBloomFilterBase
-
- totalCompactedSize - 类 中的变量org.apache.hadoop.hbase.regionserver.compactions.CompactionProgress
-
the total size of data processed by the currently running compaction, in bytes
- totalCompactingKVs - 类 中的变量org.apache.hadoop.hbase.regionserver.compactions.CompactionProgress
-
the total compacting key values in currently running compaction
- totalKeyCount - 类 中的变量org.apache.hadoop.hbase.util.CompoundBloomFilterBase
-
The total number of keys in all chunks
- totalKeyLength - 类 中的变量org.apache.hadoop.hbase.io.hfile.AbstractHFileWriter
-
Used for calculating the average key length.
- totalMaxKeys - 类 中的变量org.apache.hadoop.hbase.util.CompoundBloomFilterBase
-
- totalUncompressedBytes - 类 中的变量org.apache.hadoop.hbase.io.hfile.AbstractHFileWriter
-
Total uncompressed bytes, maybe calculate a compression ratio later.
- totalValueLength - 类 中的变量org.apache.hadoop.hbase.io.hfile.AbstractHFileWriter
-
Used for calculating the average value length.
- TotesHRegionInfo - org.apache.hadoop.hbase.master.handler中的接口
-
Implementors tote an HRegionInfo instance.
- toUserInfo(RPCProtos.UserInformation) - 类 中的静态方法org.apache.hadoop.hbase.master.procedure.MasterProcedureUtil
-
- tr - 类 中的变量org.apache.hadoop.hbase.regionserver.querymatcher.UserScanQueryMatcher
-
- TRACE_LOG_MAX_LENGTH - 类 中的静态变量org.apache.hadoop.hbase.ipc.RpcServer
-
- trackDelete(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.CompactionScanQueryMatcher
-
- trackTimestamps(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreFile.Writer
-
Record the earlest Put timestamp.
- trailer - 类 中的变量org.apache.hadoop.hbase.io.hfile.AbstractHFileReader
-
- trailer - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- trailerSize() - 类 中的方法org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- trailerWarnSize - 类 中的变量org.apache.hadoop.hbase.regionserver.wal.ProtobufLogReader
-
- transform(float[][]) - 类 中的方法org.apache.hadoop.hbase.master.RegionPlacementMaintainer.RandomizedMatrix
-
Copy a given matrix into a new matrix, transforming each row index and
each column index according to the randomization scheme that was created
at construction time.
- transition(RegionMergeTransaction, RegionMergeTransaction.RegionMergeTransactionPhase, RegionMergeTransaction.RegionMergeTransactionPhase) - 接口 中的方法org.apache.hadoop.hbase.regionserver.RegionMergeTransaction.TransactionListener
-
Invoked when transitioning forward from one transaction phase to another
- transition(SplitTransaction, SplitTransaction.SplitTransactionPhase, SplitTransaction.SplitTransactionPhase) - 接口 中的方法org.apache.hadoop.hbase.regionserver.SplitTransaction.TransactionListener
-
Invoked when transitioning forward from one transaction phase to another
- transitionFromOfflineToOpening(HRegionInfo, OpenRegionCoordination.OpenRegionDetails) - 接口 中的方法org.apache.hadoop.hbase.coordination.OpenRegionCoordination
-
Transitions region from offline to opening state.
- transitionFromOfflineToOpening(HRegionInfo, OpenRegionCoordination.OpenRegionDetails) - 类 中的方法org.apache.hadoop.hbase.coordination.ZkOpenRegionCoordination
-
Transition ZK node from OFFLINE to OPENING.
- transitionOpenFromPendingOpenOrOpeningOnServer(RegionTransition, RegionState, ServerName) - 类 中的方法org.apache.hadoop.hbase.master.RegionStates
-
Transition a region state to OPEN from OPENING/PENDING_OPEN
- transitionToOpened(HRegion, OpenRegionCoordination.OpenRegionDetails) - 接口 中的方法org.apache.hadoop.hbase.coordination.OpenRegionCoordination
-
Tries to move regions to OPENED state.
- transitionToOpened(HRegion, OpenRegionCoordination.OpenRegionDetails) - 类 中的方法org.apache.hadoop.hbase.coordination.ZkOpenRegionCoordination
-
- treatFailureAsError - 类 中的变量org.apache.hadoop.hbase.tool.CanaryTool.Monitor
-
- trigger() - 类 中的方法org.apache.hadoop.hbase.errorhandling.TimeoutExceptionInjector
-
Trigger the timer immediately.
- triggerCacheRefreshForTesting() - 类 中的方法org.apache.hadoop.hbase.master.snapshot.SnapshotFileCache
-
Trigger a cache refresh, even if its before the next cache refresh.
- triggerMajorCompaction() - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegion
-
- triggerMajorCompaction() - 类 中的方法org.apache.hadoop.hbase.regionserver.HStore
-
- triggerMajorCompaction() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Region
-
Trigger major compaction on all stores in the region.
- triggerMajorCompaction() - 接口 中的方法org.apache.hadoop.hbase.regionserver.Store
-
- truncateTable(TableName, boolean, long, long) - 类 中的方法org.apache.hadoop.hbase.master.HMaster
-
- truncateTable(RpcController, MasterProtos.TruncateTableRequest) - 类 中的方法org.apache.hadoop.hbase.master.MasterRpcServices
-
- truncateTable(TableName, boolean, long, long) - 接口 中的方法org.apache.hadoop.hbase.master.MasterServices
-
Truncate a table
- TruncateTableProcedure - org.apache.hadoop.hbase.master.procedure中的类
-
- TruncateTableProcedure() - 类 的构造器org.apache.hadoop.hbase.master.procedure.TruncateTableProcedure
-
- TruncateTableProcedure(MasterProcedureEnv, TableName, boolean) - 类 的构造器org.apache.hadoop.hbase.master.procedure.TruncateTableProcedure
-
- trustStore(String, String, String) - 类 中的方法org.apache.hadoop.hbase.http.HttpServer.Builder
-
- tryAcquire(long) - 接口 中的方法org.apache.hadoop.hbase.InterProcessLock
-
Acquire the lock within a wait time.
- tryAcquire(long) - 类 中的方法org.apache.hadoop.hbase.zookeeper.lock.ZKInterProcessLockBase
-
Acquire the lock within a wait time.
- tryAcquireNamespaceExclusiveLock(Procedure, String) - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureScheduler
-
Try to acquire the exclusive lock on the specified namespace.
- tryAcquireServerExclusiveLock(Procedure, ServerName) - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureScheduler
-
Try to acquire the exclusive lock on the specified server.
- tryAcquireServerSharedLock(Procedure, ServerName) - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureScheduler
-
Try to acquire the shared lock on the specified server.
- tryAcquireTableExclusiveLock(Procedure, TableName) - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureScheduler
-
Try to acquire the exclusive lock on the specified table.
- tryAcquireTableSharedLock(Procedure, TableName) - 类 中的方法org.apache.hadoop.hbase.master.procedure.MasterProcedureScheduler
-
Try to acquire the shared lock on the specified table.
- tryAtomicRegionLoad(HConnection, byte[], byte[], Collection<LoadIncrementalHFiles.LoadQueueItem>) - 类 中的方法org.apache.hadoop.hbase.mapreduce.LoadIncrementalHFiles
-
- tryAtomicRegionLoad(Connection, TableName, byte[], Collection<LoadIncrementalHFiles.LoadQueueItem>) - 类 中的方法org.apache.hadoop.hbase.mapreduce.LoadIncrementalHFiles
-
Attempts to do an atomic load of many hfiles into a region.
- tryDropDelete(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.querymatcher.DropDeletesCompactionScanQueryMatcher
-
- tryRegionServerReport(long, long) - 类 中的方法org.apache.hadoop.hbase.regionserver.HRegionServer
-
- trySkipToNextColumn(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreScanner
-
- trySkipToNextRow(Cell) - 类 中的方法org.apache.hadoop.hbase.regionserver.StoreScanner
-
See if we should actually SEEK or rather just SKIP to the next Cell (see HBASE-13109).
- tryTransitionFromOfflineToFailedOpen(RegionServerServices, HRegionInfo, OpenRegionCoordination.OpenRegionDetails) - 接口 中的方法org.apache.hadoop.hbase.coordination.OpenRegionCoordination
-
Tries transition region from offline to failed open.
- tryTransitionFromOfflineToFailedOpen(RegionServerServices, HRegionInfo, OpenRegionCoordination.OpenRegionDetails) - 类 中的方法org.apache.hadoop.hbase.coordination.ZkOpenRegionCoordination
-
Try to transition to open.
- tryTransitionFromOpeningToFailedOpen(HRegionInfo, OpenRegionCoordination.OpenRegionDetails) - 接口 中的方法org.apache.hadoop.hbase.coordination.OpenRegionCoordination
-
Tries transition from Opening to Failed open.
- tryTransitionFromOpeningToFailedOpen(HRegionInfo, OpenRegionCoordination.OpenRegionDetails) - 类 中的方法org.apache.hadoop.hbase.coordination.ZkOpenRegionCoordination
-
This is not guaranteed to succeed, we just do our best.
- ts - 类 中的变量org.apache.hadoop.hbase.mapreduce.TsvImporterMapper
-
Timestamp for all inserted rows
- TsvImporterMapper - org.apache.hadoop.hbase.mapreduce中的类
-
Write table content out to files in hdfs.
- TsvImporterMapper() - 类 的构造器org.apache.hadoop.hbase.mapreduce.TsvImporterMapper
-
- TsvImporterTextMapper - org.apache.hadoop.hbase.mapreduce中的类
-
Write table content out to map output files.
- TsvImporterTextMapper() - 类 的构造器org.apache.hadoop.hbase.mapreduce.TsvImporterTextMapper
-
- ttl - 类 中的变量org.apache.hadoop.hbase.mapreduce.TsvImporterMapper
-
- TTL_CONF_KEY - 类 中的静态变量org.apache.hadoop.hbase.master.cleaner.TimeToLiveHFileCleaner
-
- TTL_CONFIG_KEY - 类 中的静态变量org.apache.hadoop.hbase.master.cleaner.ReplicationZKLockCleanerChore
-
- tune(HeapMemoryManager.TunerContext) - 接口 中的方法org.apache.hadoop.hbase.regionserver.HeapMemoryTuner
-
Perform the heap memory tuning operation.
- tune(HeapMemoryManager.TunerContext) - 类 中的方法org.apache.hadoop.hbase.regionserver.NoOpHeapMemoryTuner
-
- tuningPeriod - 类 中的变量org.apache.hadoop.hbase.regionserver.throttle.PressureAwareThroughputController
-
- type - 类 中的变量org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer.Cluster.Action
-
- type - 类 中的变量org.apache.hadoop.hbase.wal.WALSplitter.MutationReplay
-