Clarify interpretation of limited for wide values
[libfirm] / ir / be / bearch.h
1 /*
2  * Copyright (C) 1995-2011 University of Karlsruhe.  All right reserved.
3  *
4  * This file is part of libFirm.
5  *
6  * This file may be distributed and/or modified under the terms of the
7  * GNU General Public License version 2 as published by the Free Software
8  * Foundation and appearing in the file LICENSE.GPL included in the
9  * packaging of this file.
10  *
11  * Licensees holding valid libFirm Professional Edition licenses may use
12  * this file in accordance with the libFirm Commercial License.
13  * Agreement provided with the Software.
14  *
15  * This file is provided AS IS with NO WARRANTY OF ANY KIND, INCLUDING THE
16  * WARRANTY OF DESIGN, MERCHANTABILITY AND FITNESS FOR A PARTICULAR
17  * PURPOSE.
18  */
19
20 /**
21  * @file
22  * @brief       Processor architecture specification.
23  * @author      Sebastian Hack
24  */
25 #ifndef FIRM_BE_BEARCH_H
26 #define FIRM_BE_BEARCH_H
27
28 #include <stdbool.h>
29
30 #include "firm_types.h"
31 #include "bitset.h"
32 #include "obst.h"
33 #include "raw_bitset.h"
34 #include "irop_t.h"
35
36 #include "be_types.h"
37 #include "beinfo.h"
38 #include "be.h"
39 #include "beirg.h"
40 #include "error.h"
41
42 /**
43  * this constant is returned by the get_sp_bias functions if the stack
44  * is reset (usually because the frame pointer is copied to the stack
45  * pointer
46  */
47 #define SP_BIAS_RESET      INT_MIN
48
49 typedef enum arch_register_class_flags_t {
50         arch_register_class_flag_none      = 0,
51         /** don't do automatic register allocation for this class */
52         arch_register_class_flag_manual_ra = 1U << 0,
53         /** the register models an abstract state (example: fpu rounding mode) */
54         arch_register_class_flag_state     = 1U << 1
55 } arch_register_class_flags_t;
56 ENUM_BITSET(arch_register_class_flags_t)
57
58 typedef enum arch_register_type_t {
59         arch_register_type_none         = 0,
60         /** Do not consider this register when allocating. */
61         arch_register_type_ignore       = 1U << 0,
62         /** The emitter can choose an arbitrary register. The register fulfills any
63          * register constraints as long as the register class matches */
64         arch_register_type_joker        = 1U << 1,
65         /** This is just a virtual register. Virtual registers fulfill any register
66          * constraints as long as the register class matches. It is a allowed to
67          * have multiple definitions for the same virtual register at a point */
68         arch_register_type_virtual      = 1U << 2,
69         /** The register represents a state that should be handled by bestate
70          * code */
71         arch_register_type_state        = 1U << 3,
72 } arch_register_type_t;
73 ENUM_BITSET(arch_register_type_t)
74
75 /**
76  * Different types of register allocation requirements.
77  */
78 typedef enum arch_register_req_type_t {
79         /** No register requirement. */
80         arch_register_req_type_none              = 0,
81         /** All registers in the class are allowed. */
82         arch_register_req_type_normal            = 1U << 0,
83         /** Only a real subset of the class is allowed. */
84         arch_register_req_type_limited           = 1U << 1,
85         /** The register should be equal to another one at the node. */
86         arch_register_req_type_should_be_same    = 1U << 2,
87         /** The register must be unequal from some other at the node. */
88         arch_register_req_type_must_be_different = 1U << 3,
89         /** The registernumber should be aligned (in case of multiregister values)*/
90         arch_register_req_type_aligned           = 1U << 4,
91         /** ignore while allocating registers */
92         arch_register_req_type_ignore            = 1U << 5,
93         /** the output produces a new value for the stack pointer
94          * (this is not really a constraint but a marker to guide the stackpointer
95          * rewiring logic) */
96         arch_register_req_type_produces_sp       = 1U << 6,
97 } arch_register_req_type_t;
98 ENUM_BITSET(arch_register_req_type_t)
99
100 extern const arch_register_req_t *arch_no_register_req;
101
102 /**
103  * Print information about a register requirement in human readable form
104  * @param F   output stream/file
105  * @param req The requirements structure to format.
106  */
107 void arch_dump_register_req(FILE *F, const arch_register_req_t *req,
108                             const ir_node *node);
109
110 void arch_dump_register_reqs(FILE *F, const ir_node *node);
111 void arch_dump_reqs_and_registers(FILE *F, const ir_node *node);
112
113 void arch_set_frame_offset(ir_node *irn, int bias);
114
115 ir_entity *arch_get_frame_entity(const ir_node *irn);
116 int        arch_get_sp_bias(ir_node *irn);
117
118 int             arch_get_op_estimated_cost(const ir_node *irn);
119 arch_inverse_t *arch_get_inverse(const ir_node *irn, int i,
120                                  arch_inverse_t *inverse,
121                                  struct obstack *obstack);
122 int             arch_possible_memory_operand(const ir_node *irn,
123                                              unsigned int i);
124 void            arch_perform_memory_operand(ir_node *irn, ir_node *spill,
125                                             unsigned int i);
126
127 /**
128  * Get the register allocated for a value.
129  */
130 const arch_register_t *arch_get_irn_register(const ir_node *irn);
131
132 /**
133  * Assign register to a value
134  */
135 void arch_set_irn_register(ir_node *irn, const arch_register_t *reg);
136
137 /**
138  * Set the register for a certain output operand.
139  */
140 void arch_set_irn_register_out(ir_node *irn, int pos, const arch_register_t *r);
141
142 const arch_register_t *arch_get_irn_register_out(const ir_node *irn, int pos);
143 const arch_register_t *arch_get_irn_register_in(const ir_node *irn, int pos);
144
145 /**
146  * Get register constraints for an operand at position @p
147  */
148 static inline const arch_register_req_t *arch_get_irn_register_req_in(
149                 const ir_node *node, int pos)
150 {
151         const backend_info_t *info = be_get_info(node);
152         if (info->in_reqs == NULL)
153                 return arch_no_register_req;
154         return info->in_reqs[pos];
155 }
156
157 /**
158  * Get register constraint for a produced result (the @p pos result)
159  */
160 static inline const arch_register_req_t *arch_get_irn_register_req_out(
161                 const ir_node *node, int pos)
162 {
163         const backend_info_t *info = be_get_info(node);
164         if (info->out_infos == NULL)
165                 return arch_no_register_req;
166         return info->out_infos[pos].req;
167 }
168
169 static inline void arch_set_irn_register_req_out(ir_node *node, int pos,
170                 const arch_register_req_t *req)
171 {
172         backend_info_t *info = be_get_info(node);
173         assert(pos < (int)ARR_LEN(info->out_infos));
174         info->out_infos[pos].req = req;
175 }
176
177 static inline void arch_set_irn_register_reqs_in(ir_node *node,
178                 const arch_register_req_t **reqs)
179 {
180         backend_info_t *info = be_get_info(node);
181         info->in_reqs = reqs;
182 }
183
184 static inline const arch_register_req_t **arch_get_irn_register_reqs_in(
185                 const ir_node *node)
186 {
187         backend_info_t *info = be_get_info(node);
188         return info->in_reqs;
189 }
190
191 const arch_register_req_t *arch_get_irn_register_req(const ir_node *node);
192
193 /**
194  * Get the flags of a node.
195  * @param irn The node.
196  * @return The flags.
197  */
198 arch_irn_flags_t arch_get_irn_flags(const ir_node *irn);
199
200 void arch_set_irn_flags(ir_node *node, arch_irn_flags_t flags);
201 void arch_add_irn_flags(ir_node *node, arch_irn_flags_t flags);
202
203 #define arch_irn_is(irn, flag) ((arch_get_irn_flags(irn) & arch_irn_flags_ ## flag) != 0)
204
205 static inline unsigned arch_get_irn_n_outs(const ir_node *node)
206 {
207         backend_info_t *info = be_get_info(node);
208         if (info->out_infos == NULL)
209                 return 0;
210
211         return (unsigned)ARR_LEN(info->out_infos);
212 }
213
214 /**
215  * Start codegeneration
216  */
217 arch_env_t *arch_env_begin_codegeneration(const arch_isa_if_t *isa,
218                                           be_main_env_t *main_env);
219
220 /**
221  * Register an instruction set architecture
222  */
223 void be_register_isa_if(const char *name, const arch_isa_if_t *isa);
224
225 /**
226  * A register.
227  */
228 struct arch_register_t {
229         const char                  *name;         /**< The name of the register. */
230         const arch_register_class_t *reg_class;    /**< The class of the register */
231         unsigned short               index;        /**< The index of the register in
232                                                         the class. */
233         unsigned short               global_index; /** The global index this register
234                                                                                                in the architecture. */
235         arch_register_type_t         type;         /**< The type of the register. */
236         /** register constraint allowing just this register */
237         const arch_register_req_t   *single_req;
238 };
239
240 static inline const arch_register_class_t *arch_register_get_class(
241                 const arch_register_t *reg)
242 {
243         return reg->reg_class;
244 }
245
246 static inline unsigned arch_register_get_index(const arch_register_t *reg)
247 {
248         return reg->index;
249 }
250
251 static inline const char *arch_register_get_name(const arch_register_t *reg)
252 {
253         return reg->name;
254 }
255
256 /**
257  * A class of registers.
258  * Like general purpose or floating point.
259  */
260 struct arch_register_class_t {
261         unsigned                     index;   /**< index of this register class */
262         const char                  *name;    /**< The name of the register class.*/
263         unsigned                     n_regs;  /**< Number of registers in this
264                                                    class. */
265         ir_mode                     *mode;    /**< The mode of the register class.*/
266         const arch_register_t       *regs;    /**< The array of registers. */
267         arch_register_class_flags_t  flags;   /**< register class flags. */
268         const arch_register_req_t   *class_req;
269 };
270
271 /** return the number of registers in this register class */
272 #define arch_register_class_n_regs(cls) ((cls)->n_regs)
273
274 /** return the largest mode of this register class */
275 #define arch_register_class_mode(cls) ((cls)->mode)
276
277 /** return the name of this register class */
278 #define arch_register_class_name(cls) ((cls)->name)
279
280 /** return the index of this register class */
281 #define arch_register_class_index(cls)  ((cls)->index)
282
283 /** return the register class flags */
284 #define arch_register_class_flags(cls) ((cls)->flags)
285
286 static inline const arch_register_t *arch_register_for_index(
287                 const arch_register_class_t *cls, unsigned idx)
288 {
289         assert(idx < cls->n_regs);
290         return &cls->regs[idx];
291 }
292
293 /**
294  * Convenience macro to check for set constraints.
295  * @param req   A pointer to register requirements.
296  * @param kind  The kind of constraint to check for
297  *              (see arch_register_req_type_t).
298  * @return      1, If the kind of constraint is present, 0 if not.
299  */
300 #define arch_register_req_is(req, kind) \
301         (((req)->type & (arch_register_req_type_ ## kind)) != 0)
302
303 /**
304  * Expresses requirements to register allocation for an operand.
305  */
306 struct arch_register_req_t {
307         arch_register_req_type_t     type; /**< The type of the constraint. */
308         const arch_register_class_t *cls;  /**< The register class this constraint
309                                                 belongs to. */
310         const unsigned *limited;           /**< allowed register bitset
311                                                 (in case of wide-values this is
312                                                  only about the first register) */
313         unsigned other_same;               /**< Bitmask of ins which should use the
314                                                 same register (should_be_same). */
315         unsigned other_different;          /**< Bitmask of ins which shall use a
316                                                 different register
317                                                 (must_be_different) */
318         unsigned char width;               /**< specifies how many sequential
319                                                 registers are required */
320 };
321
322 static inline bool reg_reqs_equal(const arch_register_req_t *req1,
323                                   const arch_register_req_t *req2)
324 {
325         if (req1 == req2)
326                 return true;
327
328         if (req1->type              != req2->type            ||
329             req1->cls               != req2->cls             ||
330             req1->other_same        != req2->other_same      ||
331             req1->other_different   != req2->other_different ||
332             (req1->limited != NULL) != (req2->limited != NULL))
333                 return false;
334
335         if (req1->limited != NULL) {
336                 size_t const n_regs = arch_register_class_n_regs(req1->cls);
337                 if (!rbitsets_equal(req1->limited, req2->limited, n_regs))
338                         return false;
339         }
340
341         return true;
342 }
343
344 /**
345  * An inverse operation returned by the backend
346  */
347 struct arch_inverse_t {
348         int      n;       /**< count of nodes returned in nodes array */
349         int      costs;   /**< costs of this remat */
350
351         /** nodes for this inverse operation. shall be in schedule order.
352          * last element is the target value */
353         ir_node  **nodes;
354 };
355
356 struct arch_irn_ops_t {
357
358         /**
359          * Get the entity on the stack frame this node depends on.
360          * @param irn  The node in question.
361          * @return The entity on the stack frame or NULL, if the node does not have
362          *         a stack frame entity.
363          */
364         ir_entity *(*get_frame_entity)(const ir_node *irn);
365
366         /**
367          * Set the offset of a node carrying an entity on the stack frame.
368          * @param irn  The node.
369          * @param offset The offset of the node's stack frame entity.
370          */
371         void (*set_frame_offset)(ir_node *irn, int offset);
372
373         /**
374          * Returns the delta of the stackpointer for nodes that increment or
375          * decrement the stackpointer with a constant value. (push, pop
376          * nodes on most architectures).
377          * A positive value stands for an expanding stack area, a negative value for
378          * a shrinking one.
379          *
380          * @param irn       The node
381          * @return          0 if the stackpointer is not modified with a constant
382          *                  value, otherwise the increment/decrement value
383          */
384         int (*get_sp_bias)(const ir_node *irn);
385
386         /**
387          * Returns an inverse operation which yields the i-th argument
388          * of the given node as result.
389          *
390          * @param irn       The original operation
391          * @param i         Index of the argument we want the inverse operation to
392          *                  yield
393          * @param inverse   struct to be filled with the resulting inverse op
394          * @param obstack   The obstack to use for allocation of the returned nodes
395          *                  array
396          * @return          The inverse operation or NULL if operation invertible
397          */
398         arch_inverse_t *(*get_inverse)(const ir_node *irn, int i,
399                                        arch_inverse_t *inverse,
400                                        struct obstack *obstack);
401
402         /**
403          * Get the estimated cycle count for @p irn.
404          *
405          * @param irn  The node.
406          * @return     The estimated cycle count for this operation
407          */
408         int (*get_op_estimated_cost)(const ir_node *irn);
409
410         /**
411          * Asks the backend whether operand @p i of @p irn can be loaded form memory
412          * internally
413          *
414          * @param irn  The node.
415          * @param i    Index of the argument we would like to know whether @p irn
416          *             can load it form memory internally
417          * @return     nonzero if argument can be loaded or zero otherwise
418          */
419         int (*possible_memory_operand)(const ir_node *irn, unsigned int i);
420
421         /**
422          * Ask the backend to assimilate @p reload of operand @p i into @p irn.
423          *
424          * @param irn    The node.
425          * @param spill  The spill.
426          * @param i      The position of the reload.
427          */
428         void (*perform_memory_operand)(ir_node *irn, ir_node *spill,
429                                        unsigned int i);
430 };
431
432 /**
433  * Architecture interface.
434  */
435 struct arch_isa_if_t {
436         /**
437          * Initializes the isa interface. This is necessary before calling any
438          * other functions from this interface.
439          */
440         void (*init)(void);
441
442         /**
443          * Fress resources allocated by this isa interface.
444          */
445         void (*finish)(void);
446
447         /**
448          * Returns the frontend settings needed for this backend.
449          */
450         const backend_params *(*get_params)(void);
451
452         /**
453          * lowers current program for target. See the documentation for
454          * be_lower_for_target() for details.
455          */
456         void (*lower_for_target)(void);
457
458         /**
459          * parse an assembler constraint part and set flags according to its nature
460          * advances the *c pointer to point to the last parsed character (so if you
461          * parse a single character don't advance c)
462          */
463         asm_constraint_flags_t (*parse_asm_constraint)(const char **c);
464
465         /**
466          * returns true if the string is a valid clobbered (register) in this
467          * backend
468          */
469         int (*is_valid_clobber)(const char *clobber);
470
471         /**
472          * Start codegeneration
473          * @return a new isa instance
474          */
475         arch_env_t *(*begin_codegeneration)(const be_main_env_t *env);
476
477         /**
478          * Free the isa instance.
479          */
480         void (*end_codegeneration)(void *self);
481
482         /**
483          * Initialize the code generator for a graph
484          * @param irg  A graph
485          */
486         void (*init_graph)(ir_graph *irg);
487
488         /**
489          * Get the ABI restrictions for procedure calls.
490          * @param call_type   The call type of the method (procedure) in question.
491          * @param p           The array of parameter locations to be filled.
492          */
493         void (*get_call_abi)(ir_type *call_type, be_abi_call_t *abi);
494
495         /**
496          * mark node as rematerialized
497          */
498         void (*mark_remat)(ir_node *node);
499
500         /**
501          * return node used as base in pic code addresses
502          */
503         ir_node* (*get_pic_base)(ir_graph *irg);
504
505         /**
506          * Create a spill instruction. We assume that spill instructions
507          * do not need any additional registers and do not affect cpu-flags in any
508          * way.
509          * Construct a sequence of instructions after @p after (the resulting nodes
510          * are already scheduled).
511          * Returns a mode_M value which is used as input for a reload instruction.
512          */
513         ir_node *(*new_spill)(ir_node *value, ir_node *after);
514
515         /**
516          * Create a reload instruction. We assume that reload instructions do not
517          * need any additional registers and do not affect cpu-flags in any way.
518          * Constructs a sequence of instruction before @p before (the resulting
519          * nodes are already scheduled). A rewiring of users is not performed in
520          * this function.
521          * Returns a value representing the restored value.
522          */
523         ir_node *(*new_reload)(ir_node *value, ir_node *spilled_value,
524                                ir_node *before);
525
526         /**
527          * Checks if the given register is callee/caller saved.
528          * @deprecated, only necessary if backend still uses beabi functions
529          */
530         int (*register_saved_by)(const arch_register_t *reg, int callee);
531
532         /**
533          * Called directly after initialization. Backend should handle all
534          * intrinsics here.
535          */
536         void (*handle_intrinsics)(void);
537
538         /**
539          * Called before abi introduce.
540          */
541         void (*before_abi)(ir_graph *irg);
542
543         /**
544          * Called, when the graph is being normalized.
545          */
546         void (*prepare_graph)(ir_graph *irg);
547
548         /**
549          * Called before register allocation.
550          */
551         void (*before_ra)(ir_graph *irg);
552
553         /**
554          * Called directly before done is called. This should be the last place
555          * where the irg is modified.
556          */
557         void (*finish_graph)(ir_graph *irg);
558
559         /**
560          * Called after everything happened. This call should emit the final
561          * assembly code but avoid changing the irg.
562          */
563         void (*emit)(ir_graph *irg);
564 };
565
566 #define arch_env_end_codegeneration(env)               ((env)->impl->end_codegeneration(env))
567 #define arch_env_handle_intrinsics(env)                \
568         do { if((env)->impl->handle_intrinsics != NULL) (env)->impl->handle_intrinsics(); } while(0)
569 #define arch_env_get_call_abi(env,tp,abi)              ((env)->impl->get_call_abi((tp), (abi)))
570 #define arch_env_get_params(env)                       ((env)->impl->get_params())
571 #define arch_env_parse_asm_constraint(env,c)           ((env)->impl->parse_asm_constraint((c))
572 #define arch_env_is_valid_clobber(env,clobber)         ((env)->impl->is_valid_clobber((clobber))
573 #define arch_env_mark_remat(env,node) \
574         do { if ((env)->impl->mark_remat != NULL) (env)->impl->mark_remat((node)); } while(0)
575
576 #define arch_env_new_spill(env,value,after)            ((env)->impl->new_spill(value, after))
577 #define arch_env_new_reload(env,value,spilled,before)  ((env)->impl->new_reload(value, spilled, before))
578
579 /**
580  * ISA base class.
581  */
582 struct arch_env_t {
583         const arch_isa_if_t   *impl;
584         unsigned               n_registers;      /**< number of registers */
585         const arch_register_t *registers;        /**< register array */
586         unsigned               n_register_classes; /**< number of register classes*/
587         const arch_register_class_t *register_classes; /**< register classes */
588         const arch_register_t *sp;               /**< The stack pointer register. */
589         const arch_register_t *bp;               /**< The base pointer register. */
590         const arch_register_class_t *link_class; /**< The static link pointer
591                                                       register class. */
592         int                    stack_alignment;  /**< power of 2 stack alignment */
593         const be_main_env_t   *main_env;         /**< the be main environment */
594         int                    spill_cost;       /**< cost for a be_Spill node */
595         int                    reload_cost;      /**< cost for a be_Reload node */
596         bool                   custom_abi : 1;   /**< backend does all abi handling
597                                                       and does not need the generic
598                                                       stuff from beabi.h/.c */
599 };
600
601 static inline bool arch_irn_is_ignore(const ir_node *irn)
602 {
603         const arch_register_req_t *req = arch_get_irn_register_req(irn);
604         return req->type & arch_register_req_type_ignore;
605 }
606
607 static inline bool arch_irn_consider_in_reg_alloc(
608                 const arch_register_class_t *cls, const ir_node *node)
609 {
610         const arch_register_req_t *req = arch_get_irn_register_req(node);
611         return
612                 req->cls == cls &&
613                 !(req->type & arch_register_req_type_ignore);
614 }
615
616 /**
617  * Iterate over all values defined by an instruction.
618  * Only looks at values in a certain register class where the requirements
619  * are not marked as ignore.
620  * Executes @p code for each definition.
621  */
622 #define be_foreach_definition_(node, cls, value, code)                     \
623         do {                                                                   \
624         if (get_irn_mode(node) == mode_T) {                                    \
625                 const ir_edge_t *edge_;                                            \
626                 foreach_out_edge(node, edge_) {                                    \
627                         const arch_register_req_t *req_;                               \
628                         value = get_edge_src_irn(edge_);                               \
629                         req_  = arch_get_irn_register_req(value);                      \
630                         if (req_->cls != cls)                                          \
631                                 continue;                                                  \
632                         code                                                           \
633                 }                                                                  \
634         } else {                                                               \
635                 const arch_register_req_t *req_ = arch_get_irn_register_req(node); \
636                 value = node;                                                      \
637                 if (req_->cls == cls) {                                            \
638                         code                                                           \
639                 }                                                                  \
640         }                                                                      \
641         } while (0)
642
643 #define be_foreach_definition(node, cls, value, code)                      \
644         be_foreach_definition_(node, cls, value,                               \
645                 if (req_->type & arch_register_req_type_ignore)                    \
646                         continue;                                                      \
647                 code                                                               \
648         )
649
650 static inline const arch_register_class_t *arch_get_irn_reg_class(
651                 const ir_node *node)
652 {
653         const arch_register_req_t *req = arch_get_irn_register_req(node);
654         return req->cls;
655 }
656
657 bool arch_reg_is_allocatable(const arch_register_req_t *req,
658                              const arch_register_t *reg);
659
660 #endif