gdb/common/vec.h - gdb

Macros defined

Source code

  1. /* Vector API for GDB.
  2.    Copyright (C) 2004-2015 Free Software Foundation, Inc.
  3.    Contributed by Nathan Sidwell <nathan@codesourcery.com>

  4.    This file is part of GDB.

  5.    This program is free software; you can redistribute it and/or modify
  6.    it under the terms of the GNU General Public License as published by
  7.    the Free Software Foundation; either version 3 of the License, or
  8.    (at your option) any later version.

  9.    This program is distributed in the hope that it will be useful,
  10.    but WITHOUT ANY WARRANTY; without even the implied warranty of
  11.    MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
  12.    GNU General Public License for more details.

  13.    You should have received a copy of the GNU General Public License
  14.    along with this program.  If not, see <http://www.gnu.org/licenses/>.  */

  15. #if !defined (GDB_VEC_H)
  16. #define GDB_VEC_H

  17. /* The macros here implement a set of templated vector types and
  18.    associated interfaces.  These templates are implemented with
  19.    macros, as we're not in C++ land.  The interface functions are
  20.    typesafe and use static inline functions, sometimes backed by
  21.    out-of-line generic functions.

  22.    Because of the different behavior of structure objects, scalar
  23.    objects and of pointers, there are three flavors, one for each of
  24.    these variants.  Both the structure object and pointer variants
  25.    pass pointers to objects around -- in the former case the pointers
  26.    are stored into the vector and in the latter case the pointers are
  27.    dereferenced and the objects copied into the vector.  The scalar
  28.    object variant is suitable for int-like objects, and the vector
  29.    elements are returned by value.

  30.    There are both 'index' and 'iterate' accessors.  The iterator
  31.    returns a boolean iteration condition and updates the iteration
  32.    variable passed by reference.  Because the iterator will be
  33.    inlined, the address-of can be optimized away.

  34.    The vectors are implemented using the trailing array idiom, thus
  35.    they are not resizeable without changing the address of the vector
  36.    object itself.  This means you cannot have variables or fields of
  37.    vector type -- always use a pointer to a vector.  The one exception
  38.    is the final field of a structure, which could be a vector type.
  39.    You will have to use the embedded_size & embedded_init calls to
  40.    create such objects, and they will probably not be resizeable (so
  41.    don't use the 'safe' allocation variants).  The trailing array
  42.    idiom is used (rather than a pointer to an array of data), because,
  43.    if we allow NULL to also represent an empty vector, empty vectors
  44.    occupy minimal space in the structure containing them.

  45.    Each operation that increases the number of active elements is
  46.    available in 'quick' and 'safe' variants.  The former presumes that
  47.    there is sufficient allocated space for the operation to succeed
  48.    (it dies if there is not).  The latter will reallocate the
  49.    vector, if needed.  Reallocation causes an exponential increase in
  50.    vector size.  If you know you will be adding N elements, it would
  51.    be more efficient to use the reserve operation before adding the
  52.    elements with the 'quick' operation.  This will ensure there are at
  53.    least as many elements as you ask for, it will exponentially
  54.    increase if there are too few spare slots.  If you want reserve a
  55.    specific number of slots, but do not want the exponential increase
  56.    (for instance, you know this is the last allocation), use a
  57.    negative number for reservation.  You can also create a vector of a
  58.    specific size from the get go.

  59.    You should prefer the push and pop operations, as they append and
  60.    remove from the end of the vector.  If you need to remove several
  61.    items in one go, use the truncate operation.  The insert and remove
  62.    operations allow you to change elements in the middle of the
  63.    vector.  There are two remove operations, one which preserves the
  64.    element ordering 'ordered_remove', and one which does not
  65.    'unordered_remove'.  The latter function copies the end element
  66.    into the removed slot, rather than invoke a memmove operation.  The
  67.    'lower_bound' function will determine where to place an item in the
  68.    array using insert that will maintain sorted order.

  69.    If you need to directly manipulate a vector, then the 'address'
  70.    accessor will return the address of the start of the vector.  Also
  71.    the 'space' predicate will tell you whether there is spare capacity
  72.    in the vector.  You will not normally need to use these two functions.

  73.    Vector types are defined using a DEF_VEC_{O,P,I}(TYPEDEF) macro.
  74.    Variables of vector type are declared using a VEC(TYPEDEF) macro.
  75.    The characters O, P and I indicate whether TYPEDEF is a pointer
  76.    (P), object (O) or integral (I) type.  Be careful to pick the
  77.    correct one, as you'll get an awkward and inefficient API if you
  78.    use the wrong one.  There is a check, which results in a
  79.    compile-time warning, for the P and I versions, but there is no
  80.    check for the O versions, as that is not possible in plain C.

  81.    An example of their use would be,

  82.    DEF_VEC_P(tree);   // non-managed tree vector.

  83.    struct my_struct {
  84.      VEC(tree) *v;      // A (pointer to) a vector of tree pointers.
  85.    };

  86.    struct my_struct *s;

  87.    if (VEC_length(tree, s->v)) { we have some contents }
  88.    VEC_safe_push(tree, s->v, decl); // append some decl onto the end
  89.    for (ix = 0; VEC_iterate(tree, s->v, ix, elt); ix++)
  90.      { do something with elt }

  91. */

  92. /* Macros to invoke API calls.  A single macro works for both pointer
  93.    and object vectors, but the argument and return types might well be
  94.    different.  In each macro, T is the typedef of the vector elements.
  95.    Some of these macros pass the vector, V, by reference (by taking
  96.    its address), this is noted in the descriptions.  */

  97. /* Length of vector
  98.    unsigned VEC_T_length(const VEC(T) *v);

  99.    Return the number of active elements in VV can be NULL, in which
  100.    case zero is returned.  */

  101. #define VEC_length(T,V)        (VEC_OP(T,length)(V))


  102. /* Check if vector is empty
  103.    int VEC_T_empty(const VEC(T) *v);

  104.    Return nonzero if V is an empty vector (or V is NULL), zero otherwise.  */

  105. #define VEC_empty(T,V)        (VEC_length (T,V) == 0)


  106. /* Get the final element of the vector.
  107.    T VEC_T_last(VEC(T) *v); // Integer
  108.    T VEC_T_last(VEC(T) *v); // Pointer
  109.    T *VEC_T_last(VEC(T) *v); // Object

  110.    Return the final elementV must not be empty.  */

  111. #define VEC_last(T,V)        (VEC_OP(T,last)(V VEC_ASSERT_INFO))

  112. /* Index into vector
  113.    T VEC_T_index(VEC(T) *v, unsigned ix); // Integer
  114.    T VEC_T_index(VEC(T) *v, unsigned ix); // Pointer
  115.    T *VEC_T_index(VEC(T) *v, unsigned ix); // Object

  116.    Return the IX'th element.  If IX must be in the domain of V.  */

  117. #define VEC_index(T,V,I) (VEC_OP(T,index)(V,I VEC_ASSERT_INFO))

  118. /* Iterate over vector
  119.    int VEC_T_iterate(VEC(T) *v, unsigned ix, T &ptr); // Integer
  120.    int VEC_T_iterate(VEC(T) *v, unsigned ix, T &ptr); // Pointer
  121.    int VEC_T_iterate(VEC(T) *v, unsigned ix, T *&ptr); // Object

  122.    Return iteration condition and update PTR to point to the IX'th
  123.    element.  At the end of iteration, sets PTR to NULL.  Use this to
  124.    iterate over the elements of a vector as follows,

  125.      for (ix = 0; VEC_iterate(T,v,ix,ptr); ix++)
  126.        continue;  */

  127. #define VEC_iterate(T,V,I,P)        (VEC_OP(T,iterate)(V,I,&(P)))

  128. /* Allocate new vector.
  129.    VEC(T,A) *VEC_T_alloc(int reserve);

  130.    Allocate a new vector with space for RESERVE objects.  If RESERVE
  131.    is zero, NO vector is created.  */

  132. #define VEC_alloc(T,N)        (VEC_OP(T,alloc)(N))

  133. /* Free a vector.
  134.    void VEC_T_free(VEC(T,A) *&);

  135.    Free a vector and set it to NULL.  */

  136. #define VEC_free(T,V)        (VEC_OP(T,free)(&V))

  137. /* A cleanup function for a vector.
  138.    void VEC_T_cleanup(void *);

  139.    Clean up a vector.  */

  140. #define VEC_cleanup(T)        (VEC_OP(T,cleanup))

  141. /* Use these to determine the required size and initialization of a
  142.    vector embedded within another structure (as the final member).

  143.    size_t VEC_T_embedded_size(int reserve);
  144.    void VEC_T_embedded_init(VEC(T) *v, int reserve);

  145.    These allow the caller to perform the memory allocation.  */

  146. #define VEC_embedded_size(T,N)         (VEC_OP(T,embedded_size)(N))
  147. #define VEC_embedded_init(T,O,N) (VEC_OP(T,embedded_init)(VEC_BASE(O),N))

  148. /* Copy a vector.
  149.    VEC(T,A) *VEC_T_copy(VEC(T) *);

  150.    Copy the live elements of a vector into a new vector.  The new and
  151.    old vectors need not be allocated by the same mechanism.  */

  152. #define VEC_copy(T,V) (VEC_OP(T,copy)(V))

  153. /* Merge two vectors.
  154.    VEC(T,A) *VEC_T_merge(VEC(T) *, VEC(T) *);

  155.    Copy the live elements of both vectors into a new vector.  The new
  156.    and old vectors need not be allocated by the same mechanism.  */
  157. #define VEC_merge(T,V1,V2) (VEC_OP(T,merge)(V1, V2))

  158. /* Determine if a vector has additional capacity.

  159.    int VEC_T_space (VEC(T) *v,int reserve)

  160.    If V has space for RESERVE additional entries, return nonzero.  You
  161.    usually only need to use this if you are doing your own vector
  162.    reallocation, for instance on an embedded vector.  This returns
  163.    nonzero in exactly the same circumstances that VEC_T_reserve
  164.    will.  */

  165. #define VEC_space(T,V,R) (VEC_OP(T,space)(V,R VEC_ASSERT_INFO))

  166. /* Reserve space.
  167.    int VEC_T_reserve(VEC(T,A) *&v, int reserve);

  168.    Ensure that V has at least abs(RESERVE) slots available.  The
  169.    signedness of RESERVE determines the reallocation behavior.  A
  170.    negative value will not create additional headroom beyond that
  171.    requested.  A positive value will create additional headroom.  Note
  172.    this can cause V to be reallocated.  Returns nonzero iff
  173.    reallocation actually occurred.  */

  174. #define VEC_reserve(T,V,R) (VEC_OP(T,reserve)(&(V),R VEC_ASSERT_INFO))

  175. /* Push object with no reallocation
  176.    T *VEC_T_quick_push (VEC(T) *v, T obj); // Integer
  177.    T *VEC_T_quick_push (VEC(T) *v, T obj); // Pointer
  178.    T *VEC_T_quick_push (VEC(T) *v, T *obj); // Object

  179.    Push a new element onto the end, returns a pointer to the slot
  180.    filled in.  For object vectors, the new value can be NULL, in which
  181.    case NO initialization is performed.  There must
  182.    be sufficient space in the vector.  */

  183. #define VEC_quick_push(T,V,O) (VEC_OP(T,quick_push)(V,O VEC_ASSERT_INFO))

  184. /* Push object with reallocation
  185.    T *VEC_T_safe_push (VEC(T,A) *&v, T obj); // Integer
  186.    T *VEC_T_safe_push (VEC(T,A) *&v, T obj); // Pointer
  187.    T *VEC_T_safe_push (VEC(T,A) *&v, T *obj); // Object

  188.    Push a new element onto the end, returns a pointer to the slot
  189.    filled in.  For object vectors, the new value can be NULL, in which
  190.    case NO initialization is performed.  Reallocates V, if needed.  */

  191. #define VEC_safe_push(T,V,O) (VEC_OP(T,safe_push)(&(V),O VEC_ASSERT_INFO))

  192. /* Pop element off end
  193.    T VEC_T_pop (VEC(T) *v);                // Integer
  194.    T VEC_T_pop (VEC(T) *v);                // Pointer
  195.    void VEC_T_pop (VEC(T) *v);                // Object

  196.    Pop the last element off the end.  Returns the element popped, for
  197.    pointer vectors.  */

  198. #define VEC_pop(T,V)        (VEC_OP(T,pop)(V VEC_ASSERT_INFO))

  199. /* Truncate to specific length
  200.    void VEC_T_truncate (VEC(T) *v, unsigned len);

  201.    Set the length as specified.  The new length must be less than or
  202.    equal to the current length.  This is an O(1) operation.  */

  203. #define VEC_truncate(T,V,I)                \
  204.         (VEC_OP(T,truncate)(V,I VEC_ASSERT_INFO))

  205. /* Grow to a specific length.
  206.    void VEC_T_safe_grow (VEC(T,A) *&v, int len);

  207.    Grow the vector to a specific length.  The LEN must be as
  208.    long or longer than the current length.  The new elements are
  209.    uninitialized.  */

  210. #define VEC_safe_grow(T,V,I)                \
  211.         (VEC_OP(T,safe_grow)(&(V),I VEC_ASSERT_INFO))

  212. /* Replace element
  213.    T VEC_T_replace (VEC(T) *v, unsigned ix, T val); // Integer
  214.    T VEC_T_replace (VEC(T) *v, unsigned ix, T val); // Pointer
  215.    T *VEC_T_replace (VEC(T) *v, unsigned ix, T *val);  // Object

  216.    Replace the IXth element of V with a new value, VAL.  For pointer
  217.    vectors returns the original value.  For object vectors returns a
  218.    pointer to the new value.  For object vectors the new value can be
  219.    NULL, in which case no overwriting of the slot is actually
  220.    performed.  */

  221. #define VEC_replace(T,V,I,O) (VEC_OP(T,replace)(V,I,O VEC_ASSERT_INFO))

  222. /* Insert object with no reallocation
  223.    T *VEC_T_quick_insert (VEC(T) *v, unsigned ix, T val); // Integer
  224.    T *VEC_T_quick_insert (VEC(T) *v, unsigned ix, T val); // Pointer
  225.    T *VEC_T_quick_insert (VEC(T) *v, unsigned ix, T *val); // Object

  226.    Insert an element, VAL, at the IXth position of V.  Return a pointer
  227.    to the slot created.  For vectors of object, the new value can be
  228.    NULL, in which case no initialization of the inserted slot takes
  229.    place.  There must be sufficient space.  */

  230. #define VEC_quick_insert(T,V,I,O) \
  231.         (VEC_OP(T,quick_insert)(V,I,O VEC_ASSERT_INFO))

  232. /* Insert object with reallocation
  233.    T *VEC_T_safe_insert (VEC(T,A) *&v, unsigned ix, T val); // Integer
  234.    T *VEC_T_safe_insert (VEC(T,A) *&v, unsigned ix, T val); // Pointer
  235.    T *VEC_T_safe_insert (VEC(T,A) *&v, unsigned ix, T *val); // Object

  236.    Insert an element, VAL, at the IXth position of V.  Return a pointer
  237.    to the slot created.  For vectors of object, the new value can be
  238.    NULL, in which case no initialization of the inserted slot takes
  239.    place.  Reallocate V, if necessary.  */

  240. #define VEC_safe_insert(T,V,I,O)        \
  241.         (VEC_OP(T,safe_insert)(&(V),I,O VEC_ASSERT_INFO))

  242. /* Remove element retaining order
  243.    T VEC_T_ordered_remove (VEC(T) *v, unsigned ix); // Integer
  244.    T VEC_T_ordered_remove (VEC(T) *v, unsigned ix); // Pointer
  245.    void VEC_T_ordered_remove (VEC(T) *v, unsigned ix); // Object

  246.    Remove an element from the IXth position of V.  Ordering of
  247.    remaining elements is preserved.  For pointer vectors returns the
  248.    removed object.  This is an O(N) operation due to a memmove.  */

  249. #define VEC_ordered_remove(T,V,I)        \
  250.         (VEC_OP(T,ordered_remove)(V,I VEC_ASSERT_INFO))

  251. /* Remove element destroying order
  252.    T VEC_T_unordered_remove (VEC(T) *v, unsigned ix); // Integer
  253.    T VEC_T_unordered_remove (VEC(T) *v, unsigned ix); // Pointer
  254.    void VEC_T_unordered_remove (VEC(T) *v, unsigned ix); // Object

  255.    Remove an element from the IXth position of V.  Ordering of
  256.    remaining elements is destroyed.  For pointer vectors returns the
  257.    removed object.  This is an O(1) operation.  */

  258. #define VEC_unordered_remove(T,V,I)        \
  259.         (VEC_OP(T,unordered_remove)(V,I VEC_ASSERT_INFO))

  260. /* Remove a block of elements
  261.    void VEC_T_block_remove (VEC(T) *v, unsigned ix, unsigned len);

  262.    Remove LEN elements starting at the IXth.  Ordering is retained.
  263.    This is an O(N) operation due to memmove.  */

  264. #define VEC_block_remove(T,V,I,L)        \
  265.         (VEC_OP(T,block_remove)(V,I,L VEC_ASSERT_INFO))

  266. /* Get the address of the array of elements
  267.    T *VEC_T_address (VEC(T) v)

  268.    If you need to directly manipulate the array (for instance, you
  269.    want to feed it to qsort), use this accessor.  */

  270. #define VEC_address(T,V)                (VEC_OP(T,address)(V))

  271. /* Find the first index in the vector not less than the object.
  272.    unsigned VEC_T_lower_bound (VEC(T) *v, const T val,
  273.                                int (*lessthan) (const T, const T)); // Integer
  274.    unsigned VEC_T_lower_bound (VEC(T) *v, const T val,
  275.                                int (*lessthan) (const T, const T)); // Pointer
  276.    unsigned VEC_T_lower_bound (VEC(T) *v, const T *val,
  277.                                int (*lessthan) (const T*, const T*)); // Object

  278.    Find the first position in which VAL could be inserted without
  279.    changing the ordering of VLESSTHAN is a function that returns
  280.    true if the first argument is strictly less than the second.  */

  281. #define VEC_lower_bound(T,V,O,LT)    \
  282.        (VEC_OP(T,lower_bound)(V,O,LT VEC_ASSERT_INFO))

  283. /* Reallocate an array of elements with prefix.  */
  284. extern void *vec_p_reserve (void *, int);
  285. extern void *vec_o_reserve (void *, int, size_t, size_t);
  286. #define vec_free_(V) xfree (V)

  287. #define VEC_ASSERT_INFO ,__FILE__,__LINE__
  288. #define VEC_ASSERT_DECL ,const char *file_,unsigned line_
  289. #define VEC_ASSERT_PASS ,file_,line_
  290. #define vec_assert(expr, op) \
  291.   ((void)((expr) ? 0 : (gdb_assert_fail (op, file_, line_, \
  292.                                          FUNCTION_NAME), 0)))

  293. #define VEC(T) VEC_##T
  294. #define VEC_OP(T,OP) VEC_##T##_##OP

  295. #define VEC_T(T)                                                          \
  296. typedef struct VEC(T)                                                          \
  297. {                                                                          \
  298.   unsigned num;                                                                  \
  299.   unsigned alloc;                                                          \
  300.   T vec[1];                                                                  \
  301. } VEC(T)

  302. /* Vector of integer-like object.  */
  303. #define DEF_VEC_I(T)                                                          \
  304. static inline void VEC_OP (T,must_be_integral_type) (void)                  \
  305. {                                                                          \
  306.   (void)~(T)0;                                                                  \
  307. }                                                                          \
  308.                                                                           \
  309. VEC_T(T);                                                                  \
  310. DEF_VEC_FUNC_P(T)                                                          \
  311. DEF_VEC_ALLOC_FUNC_I(T)                                                          \
  312. struct vec_swallow_trailing_semi

  313. /* Vector of pointer to object.  */
  314. #define DEF_VEC_P(T)                                                          \
  315. static inline void VEC_OP (T,must_be_pointer_type) (void)                  \
  316. {                                                                          \
  317.   (void)((T)1 == (void *)1);                                                  \
  318. }                                                                          \
  319.                                                                           \
  320. VEC_T(T);                                                                  \
  321. DEF_VEC_FUNC_P(T)                                                          \
  322. DEF_VEC_ALLOC_FUNC_P(T)                                                          \
  323. struct vec_swallow_trailing_semi

  324. /* Vector of object.  */
  325. #define DEF_VEC_O(T)                                                          \
  326. VEC_T(T);                                                                  \
  327. DEF_VEC_FUNC_O(T)                                                          \
  328. DEF_VEC_ALLOC_FUNC_O(T)                                                          \
  329. struct vec_swallow_trailing_semi

  330. #define DEF_VEC_ALLOC_FUNC_I(T)                                                  \
  331. static inline VEC(T) *VEC_OP (T,alloc)                                          \
  332.      (int alloc_)                                                          \
  333. {                                                                          \
  334.   /* We must request exact size allocation, hence the negation.  */          \
  335.   return (VEC(T) *) vec_o_reserve (NULL, -alloc_,                          \
  336.                                    offsetof (VEC(T),vec), sizeof (T));          \
  337. }                                                                          \
  338.                                                                           \
  339. static inline VEC(T) *VEC_OP (T,copy) (VEC(T) *vec_)                          \
  340. {                                                                          \
  341.   size_t len_ = vec_ ? vec_->num : 0;                                          \
  342.   VEC (T) *new_vec_ = NULL;                                                  \
  343.                                                                           \
  344.   if (len_)                                                                  \
  345.     {                                                                          \
  346.       /* We must request exact size allocation, hence the negation.  */          \
  347.       new_vec_ = (VEC (T) *)                                                  \
  348.         vec_o_reserve (NULL, -len_, offsetof (VEC(T),vec), sizeof (T));          \
  349.                                                                           \
  350.       new_vec_->num = len_;                                                  \
  351.       memcpy (new_vec_->vec, vec_->vec, sizeof (T) * len_);                  \
  352.     }                                                                          \
  353.   return new_vec_;                                                          \
  354. }                                                                          \
  355.                                                                           \
  356. static inline VEC(T) *VEC_OP (T,merge) (VEC(T) *vec1_, VEC(T) *vec2_)          \
  357. {                                                                          \
  358.   if (vec1_ && vec2_)                                                          \
  359.     {                                                                          \
  360.       size_t len_ = vec1_->num + vec2_->num;                                  \
  361.       VEC (T) *new_vec_ = NULL;                                                  \
  362.                                                                           \
  363.       /* We must request exact size allocation, hence the negation.  */          \
  364.       new_vec_ = (VEC (T) *)                                                  \
  365.         vec_o_reserve (NULL, -len_, offsetof (VEC(T),vec), sizeof (T));          \
  366.                                                                           \
  367.       new_vec_->num = len_;                                                  \
  368.       memcpy (new_vec_->vec, vec1_->vec, sizeof (T) * vec1_->num);          \
  369.       memcpy (new_vec_->vec + vec1_->num, vec2_->vec,                          \
  370.               sizeof (T) * vec2_->num);                                          \
  371.                                                                           \
  372.       return new_vec_;                                                          \
  373.     }                                                                          \
  374.   else                                                                          \
  375.     return VEC_copy (T, vec1_ ? vec1_ : vec2_);                                  \
  376. }                                                                          \
  377.                                                                           \
  378. static inline void VEC_OP (T,free)                                          \
  379.      (VEC(T) **vec_)                                                          \
  380. {                                                                          \
  381.   if (*vec_)                                                                  \
  382.     vec_free_ (*vec_);                                                          \
  383.   *vec_ = NULL;                                                                  \
  384. }                                                                          \
  385.                                                                           \
  386. static inline void VEC_OP (T,cleanup)                                          \
  387.      (void *arg_)                                                          \
  388. {                                                                          \
  389.   VEC(T) **vec_ = arg_;                                                          \
  390.   if (*vec_)                                                                  \
  391.     vec_free_ (*vec_);                                                          \
  392.   *vec_ = NULL;                                                                  \
  393. }                                                                          \
  394.                                                                           \
  395. static inline int VEC_OP (T,reserve)                                          \
  396.      (VEC(T) **vec_, int alloc_ VEC_ASSERT_DECL)                          \
  397. {                                                                          \
  398.   int extend = !VEC_OP (T,space)                                          \
  399.         (*vec_, alloc_ < 0 ? -alloc_ : alloc_ VEC_ASSERT_PASS);                  \
  400.                                                                           \
  401.   if (extend)                                                                  \
  402.     *vec_ = (VEC(T) *) vec_o_reserve (*vec_, alloc_,                          \
  403.                                       offsetof (VEC(T),vec), sizeof (T)); \
  404.                                                                           \
  405.   return extend;                                                          \
  406. }                                                                          \
  407.                                                                           \
  408. static inline void VEC_OP (T,safe_grow)                                          \
  409.      (VEC(T) **vec_, int size_ VEC_ASSERT_DECL)                                  \
  410. {                                                                          \
  411.   vec_assert (size_ >= 0 && VEC_OP(T,length) (*vec_) <= (unsigned)size_,  \
  412.         "safe_grow");                                                          \
  413.   VEC_OP (T,reserve) (vec_, (int)(*vec_ ? (*vec_)->num : 0) - size_          \
  414.                         VEC_ASSERT_PASS);                                  \
  415.   (*vec_)->num = size_;                                                          \
  416. }                                                                          \
  417.                                                                           \
  418. static inline T *VEC_OP (T,safe_push)                                          \
  419.      (VEC(T) **vec_, const T obj_ VEC_ASSERT_DECL)                          \
  420. {                                                                          \
  421.   VEC_OP (T,reserve) (vec_, 1 VEC_ASSERT_PASS);                                  \
  422.                                                                           \
  423.   return VEC_OP (T,quick_push) (*vec_, obj_ VEC_ASSERT_PASS);                  \
  424. }                                                                          \
  425.                                                                           \
  426. static inline T *VEC_OP (T,safe_insert)                                          \
  427.      (VEC(T) **vec_, unsigned ix_, const T obj_ VEC_ASSERT_DECL)          \
  428. {                                                                          \
  429.   VEC_OP (T,reserve) (vec_, 1 VEC_ASSERT_PASS);                                  \
  430.                                                                           \
  431.   return VEC_OP (T,quick_insert) (*vec_, ix_, obj_ VEC_ASSERT_PASS);          \
  432. }

  433. #define DEF_VEC_FUNC_P(T)                                                  \
  434. static inline unsigned VEC_OP (T,length) (const VEC(T) *vec_)                  \
  435. {                                                                          \
  436.   return vec_ ? vec_->num : 0;                                                  \
  437. }                                                                          \
  438.                                                                           \
  439. static inline T VEC_OP (T,last)                                                  \
  440.         (const VEC(T) *vec_ VEC_ASSERT_DECL)                                  \
  441. {                                                                          \
  442.   vec_assert (vec_ && vec_->num, "last");                                  \
  443.                                                                           \
  444.   return vec_->vec[vec_->num - 1];                                          \
  445. }                                                                          \
  446.                                                                           \
  447. static inline T VEC_OP (T,index)                                          \
  448.      (const VEC(T) *vec_, unsigned ix_ VEC_ASSERT_DECL)                          \
  449. {                                                                          \
  450.   vec_assert (vec_ && ix_ < vec_->num, "index");                          \
  451.                                                                           \
  452.   return vec_->vec[ix_];                                                  \
  453. }                                                                          \
  454.                                                                           \
  455. static inline int VEC_OP (T,iterate)                                          \
  456.      (const VEC(T) *vec_, unsigned ix_, T *ptr)                                  \
  457. {                                                                          \
  458.   if (vec_ && ix_ < vec_->num)                                                  \
  459.     {                                                                          \
  460.       *ptr = vec_->vec[ix_];                                                  \
  461.       return 1;                                                                  \
  462.     }                                                                          \
  463.   else                                                                          \
  464.     {                                                                          \
  465.       *ptr = 0;                                                                  \
  466.       return 0;                                                                  \
  467.     }                                                                          \
  468. }                                                                          \
  469.                                                                           \
  470. static inline size_t VEC_OP (T,embedded_size)                                  \
  471.      (int alloc_)                                                          \
  472. {                                                                          \
  473.   return offsetof (VEC(T),vec) + alloc_ * sizeof(T);                          \
  474. }                                                                          \
  475.                                                                           \
  476. static inline void VEC_OP (T,embedded_init)                                  \
  477.      (VEC(T) *vec_, int alloc_)                                                  \
  478. {                                                                          \
  479.   vec_->num = 0;                                                          \
  480.   vec_->alloc = alloc_;                                                          \
  481. }                                                                          \
  482.                                                                           \
  483. static inline int VEC_OP (T,space)                                          \
  484.      (VEC(T) *vec_, int alloc_ VEC_ASSERT_DECL)                                  \
  485. {                                                                          \
  486.   vec_assert (alloc_ >= 0, "space");                                          \
  487.   return vec_ ? vec_->alloc - vec_->num >= (unsigned)alloc_ : !alloc_;          \
  488. }                                                                          \
  489.                                                                           \
  490. static inline T *VEC_OP (T,quick_push)                                          \
  491.      (VEC(T) *vec_, T obj_ VEC_ASSERT_DECL)                                  \
  492. {                                                                          \
  493.   T *slot_;                                                                  \
  494.                                                                           \
  495.   vec_assert (vec_->num < vec_->alloc, "quick_push");                          \
  496.   slot_ = &vec_->vec[vec_->num++];                                          \
  497.   *slot_ = obj_;                                                          \
  498.                                                                           \
  499.   return slot_;                                                                  \
  500. }                                                                          \
  501.                                                                           \
  502. static inline T VEC_OP (T,pop) (VEC(T) *vec_ VEC_ASSERT_DECL)                  \
  503. {                                                                          \
  504.   T obj_;                                                                  \
  505.                                                                           \
  506.   vec_assert (vec_->num, "pop");                                          \
  507.   obj_ = vec_->vec[--vec_->num];                                          \
  508.                                                                           \
  509.   return obj_;                                                                  \
  510. }                                                                          \
  511.                                                                           \
  512. static inline void VEC_OP (T,truncate)                                          \
  513.      (VEC(T) *vec_, unsigned size_ VEC_ASSERT_DECL)                          \
  514. {                                                                          \
  515.   vec_assert (vec_ ? vec_->num >= size_ : !size_, "truncate");                  \
  516.   if (vec_)                                                                  \
  517.     vec_->num = size_;                                                          \
  518. }                                                                          \
  519.                                                                           \
  520. static inline T VEC_OP (T,replace)                                          \
  521.      (VEC(T) *vec_, unsigned ix_, T obj_ VEC_ASSERT_DECL)                  \
  522. {                                                                          \
  523.   T old_obj_;                                                                  \
  524.                                                                           \
  525.   vec_assert (ix_ < vec_->num, "replace");                                  \
  526.   old_obj_ = vec_->vec[ix_];                                                  \
  527.   vec_->vec[ix_] = obj_;                                                  \
  528.                                                                           \
  529.   return old_obj_;                                                          \
  530. }                                                                          \
  531.                                                                           \
  532. static inline T *VEC_OP (T,quick_insert)                                  \
  533.      (VEC(T) *vec_, unsigned ix_, T obj_ VEC_ASSERT_DECL)                  \
  534. {                                                                          \
  535.   T *slot_;                                                                  \
  536.                                                                           \
  537.   vec_assert (vec_->num < vec_->alloc && ix_ <= vec_->num, "quick_insert"); \
  538.   slot_ = &vec_->vec[ix_];                                                  \
  539.   memmove (slot_ + 1, slot_, (vec_->num++ - ix_) * sizeof (T));                  \
  540.   *slot_ = obj_;                                                          \
  541.                                                                           \
  542.   return slot_;                                                                  \
  543. }                                                                          \
  544.                                                                           \
  545. static inline T VEC_OP (T,ordered_remove)                                  \
  546.      (VEC(T) *vec_, unsigned ix_ VEC_ASSERT_DECL)                          \
  547. {                                                                          \
  548.   T *slot_;                                                                  \
  549.   T obj_;                                                                  \
  550.                                                                           \
  551.   vec_assert (ix_ < vec_->num, "ordered_remove");                          \
  552.   slot_ = &vec_->vec[ix_];                                                  \
  553.   obj_ = *slot_;                                                          \
  554.   memmove (slot_, slot_ + 1, (--vec_->num - ix_) * sizeof (T));                  \
  555.                                                                           \
  556.   return obj_;                                                                  \
  557. }                                                                          \
  558.                                                                           \
  559. static inline T VEC_OP (T,unordered_remove)                                  \
  560.      (VEC(T) *vec_, unsigned ix_ VEC_ASSERT_DECL)                          \
  561. {                                                                          \
  562.   T *slot_;                                                                  \
  563.   T obj_;                                                                  \
  564.                                                                           \
  565.   vec_assert (ix_ < vec_->num, "unordered_remove");                          \
  566.   slot_ = &vec_->vec[ix_];                                                  \
  567.   obj_ = *slot_;                                                          \
  568.   *slot_ = vec_->vec[--vec_->num];                                          \
  569.                                                                           \
  570.   return obj_;                                                                  \
  571. }                                                                          \
  572.                                                                           \
  573. static inline void VEC_OP (T,block_remove)                                  \
  574.      (VEC(T) *vec_, unsigned ix_, unsigned len_ VEC_ASSERT_DECL)          \
  575. {                                                                          \
  576.   T *slot_;                                                                  \
  577.                                                                           \
  578.   vec_assert (ix_ + len_ <= vec_->num, "block_remove");                          \
  579.   slot_ = &vec_->vec[ix_];                                                  \
  580.   vec_->num -= len_;                                                          \
  581.   memmove (slot_, slot_ + len_, (vec_->num - ix_) * sizeof (T));          \
  582. }                                                                          \
  583.                                                                           \
  584. static inline T *VEC_OP (T,address)                                          \
  585.      (VEC(T) *vec_)                                                          \
  586. {                                                                          \
  587.   return vec_ ? vec_->vec : 0;                                                  \
  588. }                                                                          \
  589.                                                                           \
  590. static inline unsigned VEC_OP (T,lower_bound)                                  \
  591.      (VEC(T) *vec_, const T obj_,                                          \
  592.       int (*lessthan_)(const T, const T) VEC_ASSERT_DECL)                  \
  593. {                                                                          \
  594.    unsigned int len_ = VEC_OP (T, length) (vec_);                          \
  595.    unsigned int half_, middle_;                                                  \
  596.    unsigned int first_ = 0;                                                  \
  597.    while (len_ > 0)                                                          \
  598.      {                                                                          \
  599.         T middle_elem_;                                                          \
  600.         half_ = len_ >> 1;                                                  \
  601.         middle_ = first_;                                                  \
  602.         middle_ += half_;                                                  \
  603.         middle_elem_ = VEC_OP (T,index) (vec_, middle_ VEC_ASSERT_PASS);  \
  604.         if (lessthan_ (middle_elem_, obj_))                                  \
  605.           {                                                                  \
  606.              first_ = middle_;                                                  \
  607.              ++first_;                                                          \
  608.              len_ = len_ - half_ - 1;                                          \
  609.           }                                                                  \
  610.         else                                                                  \
  611.           len_ = half_;                                                          \
  612.      }                                                                          \
  613.    return first_;                                                          \
  614. }

  615. #define DEF_VEC_ALLOC_FUNC_P(T)                                                  \
  616. static inline VEC(T) *VEC_OP (T,alloc)                                          \
  617.      (int alloc_)                                                          \
  618. {                                                                          \
  619.   /* We must request exact size allocation, hence the negation.  */          \
  620.   return (VEC(T) *) vec_p_reserve (NULL, -alloc_);                          \
  621. }                                                                          \
  622.                                                                           \
  623. static inline void VEC_OP (T,free)                                          \
  624.      (VEC(T) **vec_)                                                          \
  625. {                                                                          \
  626.   if (*vec_)                                                                  \
  627.     vec_free_ (*vec_);                                                          \
  628.   *vec_ = NULL;                                                                  \
  629. }                                                                          \
  630.                                                                           \
  631. static inline void VEC_OP (T,cleanup)                                          \
  632.      (void *arg_)                                                          \
  633. {                                                                          \
  634.   VEC(T) **vec_ = arg_;                                                          \
  635.   if (*vec_)                                                                  \
  636.     vec_free_ (*vec_);                                                          \
  637.   *vec_ = NULL;                                                                  \
  638. }                                                                          \
  639.                                                                           \
  640. static inline VEC(T) *VEC_OP (T,copy) (VEC(T) *vec_)                          \
  641. {                                                                          \
  642.   size_t len_ = vec_ ? vec_->num : 0;                                          \
  643.   VEC (T) *new_vec_ = NULL;                                                  \
  644.                                                                           \
  645.   if (len_)                                                                  \
  646.     {                                                                          \
  647.       /* We must request exact size allocation, hence the negation.  */          \
  648.       new_vec_ = (VEC (T) *)(vec_p_reserve (NULL, -len_));                  \
  649.                                                                           \
  650.       new_vec_->num = len_;                                                  \
  651.       memcpy (new_vec_->vec, vec_->vec, sizeof (T) * len_);                  \
  652.     }                                                                          \
  653.   return new_vec_;                                                          \
  654. }                                                                          \
  655.                                                                           \
  656. static inline VEC(T) *VEC_OP (T,merge) (VEC(T) *vec1_, VEC(T) *vec2_)          \
  657. {                                                                          \
  658.   if (vec1_ && vec2_)                                                          \
  659.     {                                                                          \
  660.       size_t len_ = vec1_->num + vec2_->num;                                  \
  661.       VEC (T) *new_vec_ = NULL;                                                  \
  662.                                                                           \
  663.       /* We must request exact size allocation, hence the negation.  */          \
  664.       new_vec_ = (VEC (T) *)(vec_p_reserve (NULL, -len_));                  \
  665.                                                                           \
  666.       new_vec_->num = len_;                                                  \
  667.       memcpy (new_vec_->vec, vec1_->vec, sizeof (T) * vec1_->num);          \
  668.       memcpy (new_vec_->vec + vec1_->num, vec2_->vec,                          \
  669.               sizeof (T) * vec2_->num);                                          \
  670.                                                                           \
  671.       return new_vec_;                                                          \
  672.     }                                                                          \
  673.   else                                                                          \
  674.     return VEC_copy (T, vec1_ ? vec1_ : vec2_);                                  \
  675. }                                                                          \
  676.                                                                           \
  677. static inline int VEC_OP (T,reserve)                                          \
  678.      (VEC(T) **vec_, int alloc_ VEC_ASSERT_DECL)                          \
  679. {                                                                          \
  680.   int extend = !VEC_OP (T,space)                                          \
  681.         (*vec_, alloc_ < 0 ? -alloc_ : alloc_ VEC_ASSERT_PASS);                  \
  682.                                                                           \
  683.   if (extend)                                                                  \
  684.     *vec_ = (VEC(T) *) vec_p_reserve (*vec_, alloc_);                          \
  685.                                                                           \
  686.   return extend;                                                          \
  687. }                                                                          \
  688.                                                                           \
  689. static inline void VEC_OP (T,safe_grow)                                          \
  690.      (VEC(T) **vec_, int size_ VEC_ASSERT_DECL)                                  \
  691. {                                                                          \
  692.   vec_assert (size_ >= 0 && VEC_OP(T,length) (*vec_) <= (unsigned)size_,  \
  693.         "safe_grow");                                                          \
  694.   VEC_OP (T,reserve)                                                          \
  695.         (vec_, (int)(*vec_ ? (*vec_)->num : 0) - size_ VEC_ASSERT_PASS);  \
  696.   (*vec_)->num = size_;                                                          \
  697. }                                                                          \
  698.                                                                           \
  699. static inline T *VEC_OP (T,safe_push)                                          \
  700.      (VEC(T) **vec_, T obj_ VEC_ASSERT_DECL)                                  \
  701. {                                                                          \
  702.   VEC_OP (T,reserve) (vec_, 1 VEC_ASSERT_PASS);                                  \
  703.                                                                           \
  704.   return VEC_OP (T,quick_push) (*vec_, obj_ VEC_ASSERT_PASS);                  \
  705. }                                                                          \
  706.                                                                           \
  707. static inline T *VEC_OP (T,safe_insert)                                          \
  708.      (VEC(T) **vec_, unsigned ix_, T obj_ VEC_ASSERT_DECL)                  \
  709. {                                                                          \
  710.   VEC_OP (T,reserve) (vec_, 1 VEC_ASSERT_PASS);                                  \
  711.                                                                           \
  712.   return VEC_OP (T,quick_insert) (*vec_, ix_, obj_ VEC_ASSERT_PASS);          \
  713. }

  714. #define DEF_VEC_FUNC_O(T)                                                  \
  715. static inline unsigned VEC_OP (T,length) (const VEC(T) *vec_)                  \
  716. {                                                                          \
  717.   return vec_ ? vec_->num : 0;                                                  \
  718. }                                                                          \
  719.                                                                           \
  720. static inline T *VEC_OP (T,last) (VEC(T) *vec_ VEC_ASSERT_DECL)                  \
  721. {                                                                          \
  722.   vec_assert (vec_ && vec_->num, "last");                                  \
  723.                                                                           \
  724.   return &vec_->vec[vec_->num - 1];                                          \
  725. }                                                                          \
  726.                                                                           \
  727. static inline T *VEC_OP (T,index)                                          \
  728.      (VEC(T) *vec_, unsigned ix_ VEC_ASSERT_DECL)                          \
  729. {                                                                          \
  730.   vec_assert (vec_ && ix_ < vec_->num, "index");                          \
  731.                                                                           \
  732.   return &vec_->vec[ix_];                                                  \
  733. }                                                                          \
  734.                                                                           \
  735. static inline int VEC_OP (T,iterate)                                          \
  736.      (VEC(T) *vec_, unsigned ix_, T **ptr)                                  \
  737. {                                                                          \
  738.   if (vec_ && ix_ < vec_->num)                                                  \
  739.     {                                                                          \
  740.       *ptr = &vec_->vec[ix_];                                                  \
  741.       return 1;                                                                  \
  742.     }                                                                          \
  743.   else                                                                          \
  744.     {                                                                          \
  745.       *ptr = 0;                                                                  \
  746.       return 0;                                                                  \
  747.     }                                                                          \
  748. }                                                                          \
  749.                                                                           \
  750. static inline size_t VEC_OP (T,embedded_size)                                  \
  751.      (int alloc_)                                                          \
  752. {                                                                          \
  753.   return offsetof (VEC(T),vec) + alloc_ * sizeof(T);                          \
  754. }                                                                          \
  755.                                                                           \
  756. static inline void VEC_OP (T,embedded_init)                                  \
  757.      (VEC(T) *vec_, int alloc_)                                                  \
  758. {                                                                          \
  759.   vec_->num = 0;                                                          \
  760.   vec_->alloc = alloc_;                                                          \
  761. }                                                                          \
  762.                                                                           \
  763. static inline int VEC_OP (T,space)                                          \
  764.      (VEC(T) *vec_, int alloc_ VEC_ASSERT_DECL)                                  \
  765. {                                                                          \
  766.   vec_assert (alloc_ >= 0, "space");                                          \
  767.   return vec_ ? vec_->alloc - vec_->num >= (unsigned)alloc_ : !alloc_;          \
  768. }                                                                          \
  769.                                                                           \
  770. static inline T *VEC_OP (T,quick_push)                                          \
  771.      (VEC(T) *vec_, const T *obj_ VEC_ASSERT_DECL)                          \
  772. {                                                                          \
  773.   T *slot_;                                                                  \
  774.                                                                           \
  775.   vec_assert (vec_->num < vec_->alloc, "quick_push");                          \
  776.   slot_ = &vec_->vec[vec_->num++];                                          \
  777.   if (obj_)                                                                  \
  778.     *slot_ = *obj_;                                                          \
  779.                                                                           \
  780.   return slot_;                                                                  \
  781. }                                                                          \
  782.                                                                           \
  783. static inline void VEC_OP (T,pop) (VEC(T) *vec_ VEC_ASSERT_DECL)          \
  784. {                                                                          \
  785.   vec_assert (vec_->num, "pop");                                          \
  786.   --vec_->num;                                                                  \
  787. }                                                                          \
  788.                                                                           \
  789. static inline void VEC_OP (T,truncate)                                          \
  790.      (VEC(T) *vec_, unsigned size_ VEC_ASSERT_DECL)                          \
  791. {                                                                          \
  792.   vec_assert (vec_ ? vec_->num >= size_ : !size_, "truncate");                  \
  793.   if (vec_)                                                                  \
  794.     vec_->num = size_;                                                          \
  795. }                                                                          \
  796.                                                                           \
  797. static inline T *VEC_OP (T,replace)                                          \
  798.      (VEC(T) *vec_, unsigned ix_, const T *obj_ VEC_ASSERT_DECL)          \
  799. {                                                                          \
  800.   T *slot_;                                                                  \
  801.                                                                           \
  802.   vec_assert (ix_ < vec_->num, "replace");                                  \
  803.   slot_ = &vec_->vec[ix_];                                                  \
  804.   if (obj_)                                                                  \
  805.     *slot_ = *obj_;                                                          \
  806.                                                                           \
  807.   return slot_;                                                                  \
  808. }                                                                          \
  809.                                                                           \
  810. static inline T *VEC_OP (T,quick_insert)                                  \
  811.      (VEC(T) *vec_, unsigned ix_, const T *obj_ VEC_ASSERT_DECL)          \
  812. {                                                                          \
  813.   T *slot_;                                                                  \
  814.                                                                           \
  815.   vec_assert (vec_->num < vec_->alloc && ix_ <= vec_->num, "quick_insert"); \
  816.   slot_ = &vec_->vec[ix_];                                                  \
  817.   memmove (slot_ + 1, slot_, (vec_->num++ - ix_) * sizeof (T));                  \
  818.   if (obj_)                                                                  \
  819.     *slot_ = *obj_;                                                          \
  820.                                                                           \
  821.   return slot_;                                                                  \
  822. }                                                                          \
  823.                                                                           \
  824. static inline void VEC_OP (T,ordered_remove)                                  \
  825.      (VEC(T) *vec_, unsigned ix_ VEC_ASSERT_DECL)                          \
  826. {                                                                          \
  827.   T *slot_;                                                                  \
  828.                                                                           \
  829.   vec_assert (ix_ < vec_->num, "ordered_remove");                          \
  830.   slot_ = &vec_->vec[ix_];                                                  \
  831.   memmove (slot_, slot_ + 1, (--vec_->num - ix_) * sizeof (T));                  \
  832. }                                                                          \
  833.                                                                           \
  834. static inline void VEC_OP (T,unordered_remove)                                  \
  835.      (VEC(T) *vec_, unsigned ix_ VEC_ASSERT_DECL)                          \
  836. {                                                                          \
  837.   vec_assert (ix_ < vec_->num, "unordered_remove");                          \
  838.   vec_->vec[ix_] = vec_->vec[--vec_->num];                                  \
  839. }                                                                          \
  840.                                                                           \
  841. static inline void VEC_OP (T,block_remove)                                  \
  842.      (VEC(T) *vec_, unsigned ix_, unsigned len_ VEC_ASSERT_DECL)          \
  843. {                                                                          \
  844.   T *slot_;                                                                  \
  845.                                                                           \
  846.   vec_assert (ix_ + len_ <= vec_->num, "block_remove");                          \
  847.   slot_ = &vec_->vec[ix_];                                                  \
  848.   vec_->num -= len_;                                                          \
  849.   memmove (slot_, slot_ + len_, (vec_->num - ix_) * sizeof (T));          \
  850. }                                                                          \
  851.                                                                           \
  852. static inline T *VEC_OP (T,address)                                          \
  853.      (VEC(T) *vec_)                                                          \
  854. {                                                                          \
  855.   return vec_ ? vec_->vec : 0;                                                  \
  856. }                                                                          \
  857.                                                                           \
  858. static inline unsigned VEC_OP (T,lower_bound)                                  \
  859.      (VEC(T) *vec_, const T *obj_,                                          \
  860.       int (*lessthan_)(const T *, const T *) VEC_ASSERT_DECL)                  \
  861. {                                                                          \
  862.    unsigned int len_ = VEC_OP (T, length) (vec_);                          \
  863.    unsigned int half_, middle_;                                                  \
  864.    unsigned int first_ = 0;                                                  \
  865.    while (len_ > 0)                                                          \
  866.      {                                                                          \
  867.         T *middle_elem_;                                                  \
  868.         half_ = len_ >> 1;                                                  \
  869.         middle_ = first_;                                                  \
  870.         middle_ += half_;                                                  \
  871.         middle_elem_ = VEC_OP (T,index) (vec_, middle_ VEC_ASSERT_PASS);  \
  872.         if (lessthan_ (middle_elem_, obj_))                                  \
  873.           {                                                                  \
  874.              first_ = middle_;                                                  \
  875.              ++first_;                                                          \
  876.              len_ = len_ - half_ - 1;                                          \
  877.           }                                                                  \
  878.         else                                                                  \
  879.           len_ = half_;                                                          \
  880.      }                                                                          \
  881.    return first_;                                                          \
  882. }

  883. #define DEF_VEC_ALLOC_FUNC_O(T)                                                  \
  884. static inline VEC(T) *VEC_OP (T,alloc)                                          \
  885.      (int alloc_)                                                          \
  886. {                                                                          \
  887.   /* We must request exact size allocation, hence the negation.  */          \
  888.   return (VEC(T) *) vec_o_reserve (NULL, -alloc_,                          \
  889.                                    offsetof (VEC(T),vec), sizeof (T));          \
  890. }                                                                          \
  891.                                                                           \
  892. static inline VEC(T) *VEC_OP (T,copy) (VEC(T) *vec_)                          \
  893. {                                                                          \
  894.   size_t len_ = vec_ ? vec_->num : 0;                                          \
  895.   VEC (T) *new_vec_ = NULL;                                                  \
  896.                                                                           \
  897.   if (len_)                                                                  \
  898.     {                                                                          \
  899.       /* We must request exact size allocation, hence the negation.  */          \
  900.       new_vec_ = (VEC (T) *)                                                  \
  901.         vec_o_reserve  (NULL, -len_, offsetof (VEC(T),vec), sizeof (T));  \
  902.                                                                           \
  903.       new_vec_->num = len_;                                                  \
  904.       memcpy (new_vec_->vec, vec_->vec, sizeof (T) * len_);                  \
  905.     }                                                                          \
  906.   return new_vec_;                                                          \
  907. }                                                                          \
  908.                                                                           \
  909. static inline VEC(T) *VEC_OP (T,merge) (VEC(T) *vec1_, VEC(T) *vec2_)          \
  910. {                                                                          \
  911.   if (vec1_ && vec2_)                                                          \
  912.     {                                                                          \
  913.       size_t len_ = vec1_->num + vec2_->num;                                  \
  914.       VEC (T) *new_vec_ = NULL;                                                  \
  915.                                                                           \
  916.       /* We must request exact size allocation, hence the negation.  */          \
  917.       new_vec_ = (VEC (T) *)                                                  \
  918.         vec_o_reserve (NULL, -len_, offsetof (VEC(T),vec), sizeof (T));          \
  919.                                                                           \
  920.       new_vec_->num = len_;                                                  \
  921.       memcpy (new_vec_->vec, vec1_->vec, sizeof (T) * vec1_->num);          \
  922.       memcpy (new_vec_->vec + vec1_->num, vec2_->vec,                          \
  923.               sizeof (T) * vec2_->num);                                          \
  924.                                                                           \
  925.       return new_vec_;                                                          \
  926.     }                                                                          \
  927.   else                                                                          \
  928.     return VEC_copy (T, vec1_ ? vec1_ : vec2_);                                  \
  929. }                                                                          \
  930.                                                                           \
  931. static inline void VEC_OP (T,free)                                          \
  932.      (VEC(T) **vec_)                                                          \
  933. {                                                                          \
  934.   if (*vec_)                                                                  \
  935.     vec_free_ (*vec_);                                                          \
  936.   *vec_ = NULL;                                                                  \
  937. }                                                                          \
  938.                                                                           \
  939. static inline void VEC_OP (T,cleanup)                                          \
  940.      (void *arg_)                                                          \
  941. {                                                                          \
  942.   VEC(T) **vec_ = arg_;                                                          \
  943.   if (*vec_)                                                                  \
  944.     vec_free_ (*vec_);                                                          \
  945.   *vec_ = NULL;                                                                  \
  946. }                                                                          \
  947.                                                                           \
  948. static inline int VEC_OP (T,reserve)                                          \
  949.      (VEC(T) **vec_, int alloc_ VEC_ASSERT_DECL)                          \
  950. {                                                                          \
  951.   int extend = !VEC_OP (T,space) (*vec_, alloc_ < 0 ? -alloc_ : alloc_          \
  952.                                   VEC_ASSERT_PASS);                          \
  953.                                                                           \
  954.   if (extend)                                                                  \
  955.     *vec_ = (VEC(T) *)                                                          \
  956.         vec_o_reserve (*vec_, alloc_, offsetof (VEC(T),vec), sizeof (T)); \
  957.                                                                           \
  958.   return extend;                                                          \
  959. }                                                                          \
  960.                                                                           \
  961. static inline void VEC_OP (T,safe_grow)                                          \
  962.      (VEC(T) **vec_, int size_ VEC_ASSERT_DECL)                                  \
  963. {                                                                          \
  964.   vec_assert (size_ >= 0 && VEC_OP(T,length) (*vec_) <= (unsigned)size_,  \
  965.         "safe_grow");                                                          \
  966.   VEC_OP (T,reserve)                                                          \
  967.         (vec_, (int)(*vec_ ? (*vec_)->num : 0) - size_ VEC_ASSERT_PASS);  \
  968.   (*vec_)->num = size_;                                                          \
  969. }                                                                          \
  970.                                                                           \
  971. static inline T *VEC_OP (T,safe_push)                                          \
  972.      (VEC(T) **vec_, const T *obj_ VEC_ASSERT_DECL)                          \
  973. {                                                                          \
  974.   VEC_OP (T,reserve) (vec_, 1 VEC_ASSERT_PASS);                                  \
  975.                                                                           \
  976.   return VEC_OP (T,quick_push) (*vec_, obj_ VEC_ASSERT_PASS);                  \
  977. }                                                                          \
  978.                                                                           \
  979. static inline T *VEC_OP (T,safe_insert)                                          \
  980.      (VEC(T) **vec_, unsigned ix_, const T *obj_ VEC_ASSERT_DECL)          \
  981. {                                                                          \
  982.   VEC_OP (T,reserve) (vec_, 1 VEC_ASSERT_PASS);                                  \
  983.                                                                           \
  984.   return VEC_OP (T,quick_insert) (*vec_, ix_, obj_ VEC_ASSERT_PASS);          \
  985. }

  986. #endif /* GDB_VEC_H */