doc_id
int64
14
26.5k
title
stringlengths
6
340
input_text
stringlengths
52
23.6k
keyphrases
sequencelengths
1
83
lang
stringclasses
39 values
445
Rigidité normale, dévaluation et équilibre général intertemporel
La présente étude analyse les effets dynamiques de la dévaluation du franc CFA, à l’aide d’un modèle monétaire d’équilibre général, intertemporel et multisectoriel. L’accent est particulièrement mis sur les interactions entre dévaluation et accumulation du capital. Dans le modèle, les effets du changement de parité passent par le marché du travail qui se caractérise par l’inertie du salaire nominal. Les résultats montrent que la dévaluation relance l’investissement, avec des effets expansionnistes sur l’activité économique. Le choc monétaire n’a eu qu’un impact limité sur les soldes budgétaire et commercial. Une mesure d’accompagnement telle que la réduction des salaires de la fonction publique améliore ces deux soldes mais déclenche un processus récessif. This paper examines the consequences of CFA franc devaluation in a dynamic monetary CGE framework. The model incorporates intertemporal substitution on the part of consumers and firms. Unlike most studies, special attention is given to the investment response to a devaluation. In our model, what makes a devaluation have real effects is the nominal wage inertia. The simulation results show that the CFA devaluation generates expansionary effects through investment, with a negligible impact on the trade balance and the government deficit. We also find that a reduction in the public service wage which often accompanies a devaluation has important contractionary effects, though it improves trade balance and government deficit. Key words : applied general equilibrium, devaluation, intertemporal optimization
[ "équilibre général appliqué", "dévaluation", "optimisation intertemporelle" ]
fr , en
446
Explaining the Persistence of Commodity Prices
This paper extends the Competitive Storage Model by incorporating prominent features of the production process and financial markets. A major limitation of this basic model is that it cannot successfully explain the degree of serial correlation observed in actual data. The proposed extensions build on the observation that in order to generate a high degree of price persistence, a model must incorporate features such that agents are willing to hold stocks more often than predicted by the basic model. We therefore allow unique characteristics of the production and trading mechanisms to provide the required incentives. Specifically, the proposed models introduce (i) gestation lags in production with heteroskedastic supply shocks, (ii) multiperiod forward contracts, and (iii) a convenience return to inventory holding. The rational expectations solutions for twelve commodities are numerically solved. Simulations are then employed to assess the effects of the above extensions on the time series properties of commodity prices. Results indicate that each of the features above partially account for the persistence and occasional spikes observed in actual data. Evidence is presented that the precautionary demand for stocks might play a substantial role in the dynamics of commodity prices. Cette étude prolonge le modèle de stockage concurrentiel en y introduisant certains traits saillants propres au processus de production et aux marchés financiers. Une défaillance importante du modèle de base découle de son incapacité à expliquer convenablement les niveaux observés de corrélation sérielle. Ainsi, la présente extension se fonde sur l’idée qu’afin de soutenir un degré important de persistance des prix, le modèle de base doit être augmenté de certains aspects incitant les agents à détenir des inventaires plus fréquemment. À cet effet, des caractéristiques particulières sont introduites au sein des mécanismes de production et d’échange. Cela se traduit par l’insertion de : (i) délais de gestation dans la production avec chocs d’offre hétérocédastiques; (ii) contrats à terme de plusieurs périodes; (iii) un gain en utilité tiré du stock d’inventaire. Le problème avec attentes rationnelles est résolu numériquement pour douze matières premières. Des simulations sont ensuite exécutées afin d’évaluer l’effet de ces ajouts sur les propriétés des séries temporelles des prix des matières premières. Les résultats indiquent que chacune des caractéristiques insérées est partiellement responsable pour la persistance et les crêtes occasionnelles observées. Certains signes suggèrent que le motif de précaution pour la demande d’inventaires pourrait jouer un rôle important dans la dynamique des prix des commodités.
[ "nonlinear models", "persistence", "gestation lags", "convenience yield", "precautionary demand", "modèles non linéaires", "persistance", "délais de gestation", "gain en utilité", "motif de précaution" ]
en , fr
448
Statistical Inference for Computable General Equilibrium Models with Application to a Model of the Moroccan Economy
We study the problem of measuring the uncertainty of CGE (or RBC)-type model simulations associated with parameter uncertainty. We describe two approaches for building confidence sets on model endogenous variables. The first one uses a standard Wald-type statistic. The second approach assumes that a confidence set (sampling or Bayesian) is available for the free parameters, from which confidence sets are derived by a projection technique. The latter has two advantages: first, confidence set validity is not affected by model nonlinearities; second, we can easily build simultaneous confidence intervals for an unlimited number of variables. We study conditions under which these confidence sets take the form of intervals and show they can be implemented using standard methods for solving CGE models. We present an application to a CGE model of the Moroccan economy to study the effects of policy-induced increases of transfers from Moroccan expatriates. Nous étudions le problème de la mesure de l’incertitude des simulations de modèles d’équilibre général calculable (MEGC). Nous décrivons deux approches pour construire des régions de confiance pour les variables endogènes de ces modèles. La première utilise une statistique standard de type Wald. La seconde approche suppose l’existence, pour les paramètres libres du modèle, d’une région de confiance (échantillonnale ou bayesienne) à partir de laquelle des régions de confiance, pour les variables endogènes, sont déduites par une technique de projection. Cette dernière méthode a deux avantages: premièrement, la validité des régions de confiance construites n’est pas affectée par la non-linéarité du modèle; deuxièmement, on peut facilement construire des intervalles de confiance pour un nombre illimité de variables. Nous étudions aussi les conditions sous lesquelles ces régions de confiance prennent la forme d’intervalles et nous montrons que ces méthodes peuvent facilement être utilisées au moyen de méthodes standard de résolution des MEGC. Nous présentons une application sur un modèle de l’économie marocaine qui étudie les effets visant à faire augmenter les rapatriements de capitaux par les résidents marocains à l’étranger.
[ "calibration", "projection", "confidence interval", "confidence set", "computable general equilibrium models", "sensitivity analysis", "calibration", "projection", "Morocco", "fiscal policy", "intervalle de confiance", "région de confiance", "modèle d’équilibre général calculable", "analyse de sensibilité", "projection", "Maroc", "politique fiscale", "projection" ]
en , fr
449
Décentralisation financière et pays en dévelopement: concepts, mesure et évaluation
Ce texte présente ce qu’est la décentralisation fiscale, fait ressortir ses forces et ses faiblesses et identifie les raisons de son succès, le tout dans le contexte de huit pays en développement en faisant appel à de l’information sur l’Argentine, la Chine, la Colombie, l’Inde, l’Indonésie, le Maroc, le Pakistan et la Tunisie. Le texte est divisé en trois parties. La première expose les concepts pertinents, la seconde présente un certain nombre d’indicateurs quantitatifs et la troisième évalue les conditions de succès de la décentralisation. This paper presents fiscal decentralization points with its strengths and weaknesses and identifies conditions for success. This is done for developing countries, using information on Argentina, China, Columbia, India, Indonesia, Morocco, Pakistan and Tunisia. It is divided into three parts. The first presents the relevant concepts, the second examines some quantitative indicators and the third evaluates the conditions required for successful decentralization. Keywords : fiscal decentralization, developing countries, local governments
[ "décentralisation financière", "pays en développement", "gouvernements locaux" ]
fr , en
450
Tests of Conditional Asset Pricing Models in the Brazilian Stock Market
In this paper, we test a version of the conditional CAPM with respect to a local market portfolio, proxied by the Brazilian stock index during the 1976-1992 period. We also test a conditional APT model by using the difference between the 30-day rate (Cdb) and the overnight rate as a second factor in addition to the market portfolio in order to capture the large inflation risk present during this period. The conditional CAPM and APT models are estimated by the Generalized Method of Moments (GMM) and tested on a set of size portfolios created from a total of 25 securities exchanged on the Brazilian markets. The inclusion of this second factor proves to be crucial for the appropriate pricing of the portfolios. Dans cet article, nous testons une version du CAPM conditionnel par rapport au portefeuille de marché local, approximé par un indice boursier brésilien, au cours de la période 1976-1992. Nous tenons également un modèle APT conditionnel en utilisant la différence entre les taux d’intérêt sur les dépôts de 30 jours (Cdb) et le taux au jour le jour comme deuxième facteur en plus du portefeuille de marché pour capter l’important risque inflationniste présent durant cette période. Les modèles conditionnels CAPM et APT sont estimés par la méthode généralisée des moments (GMM) et testés sur un ensemble de portefeuilles construits selon la taille à partir d’un total de 25 titres échangés sur les marchés boursiers brésiliens. L’incorporation de ce deuxième facteur se révèle cruciale pour une juste valorisation des portefeuilles.
[ "conditional CAPM", "conditional APT", "efficiency of markets", "time-varying risk and returns", "CAPM conditionnel", "APT conditionnel", "efficacité des marchés", "risque et rendements variables dans le temps" ]
en , fr
451
How do Young People Choose College Majors?
Previous studies on the determinants of the choice of college major have assumed a constant probability of success across majors or a constant earnings stream across majors. Our model disregards these two restrictive assumptions in computing an expected earnings variable to explain the probability that a student will choose a specific major among four choices of concentrations. The construction of an expected earnings variable requires information on the student s perceived probability of success, the predicted earnings of graduates in all majors and the student s expected earnings if he (she) fails to complete a college program. Using data from the National Longitudinal Survey of Youth, we evaluate the chances of success in all majors for all the individuals in the sample. Second, the individuals' predicted earnings of graduates in all majors are obtained using Rumberger and Thomas's (1993) regression estimates from a 1987 Survey of Recent College Graduates. Third, we obtain idiosyncratic estimates of earnings alternative of not attending college or by dropping out with a condition derived from our college major decision-making model applied to our sample of college students. Finally, with a mixed multinominal logit model, we explain the individuals' choice of a major. The results of the paper show that the expected earnings variable is essential in the choice of a college major. There are, however, significant differences in the impact of expected earnings by gender and race. Les études antérieures sur les déterminants du choix d’une filière universitaire ont présumé une probabilité constante de succès entre les différentes filières d’études ou des revenus constants entre les filières. Notre modèle dépasse ces deux hypothèses restrictives en construisant une variable de revenus anticipés pour expliquer la probabilité qu’un étudiant choisisse une filière parmi quatre domaines de spécialisation. La construction d’une variable de revenus anticipés exige de l’information sur la probabilité de succès perçue par l’étudiant, sur les revenus estimés des diplômés dans toutes les spécialisations et sur les revenus alternatifs de l’étudiant s’il échoue à l’obtention de son diplôme. En utilisant des données du National Longitudinal Survey of Youth, nous évaluons les chances de succès dans toutes les filières d’études pour tous les individus de l’échantillon. D’autre part, les revenus individuels estimés des diplômés dans toutes les filières sont obtenus en utilisant les coefficients des régressions de Rumberger et Thomas (1993) obtenus de l’enquête Survey of Recent College Graduates de 1987. Puis nous calculons des revenus alternatifs idiosyncratiques avec une condition dérivée de notre modèle de choix de filière universitaire appliqué à notre échantillon d’étudiants. Finalement, avec un modèle de logit polytomique mixte, nous expliquons le choix individuel d’un domaine d’études. Les résultats de ce travail montrent que la variable de revenus anticipés idiosyncratiques est essentielle dans le choix d’un domaine d’études. Toutefois, il y a des différences significatives dans l’impact des revenus anticipés par sexe et par race.
[ "college majors", "expected idiosyncratic earnings", "mixed multinominal logit model", "choix de filières", "revenus anticipés idiosyncratiques", "modèle polytomique mixte" ]
en , fr
452
Risk Aversion, Intertemporal Substitution, and Option Pricing
This paper develops a general stochastic framework and an equilibrium asset pricing model that make clear how attitudes towards intertemporal substitution and risk matter for option pricing. In particular, we show under which statistical conditions option pricing formulas are not preference-free, in other words, when preferences are not hidden in the stock and bond prices as they are in the standard Black and Scholes (BS) or Hull and White (HW) pricing formulas. The dependence of option prices on preference parameters comes from several instantaneous causality effects such as the so-called leverage effect. We also emphasize that the most standard asset pricing models (CAPM for the stock and BS or HW preference-free option pricing) are valid under the same stochastic setting (typically the absence of leverage effect), regardless of preference parameter values. Even though we propose a general non-preference-free option pricing formula, we always keep in mind that the BS formula is dominant both as a theoretical reference model and as a tool for practitioners. Another contribution of the paper is to characterize why the BS formula is such a benchmark. We show that, as soon as we are ready to accept a basic property of option prices, namely their homogeneity of degree one with respect to the pair formed by the underlying stock price and the strike price, the necessary statistical hypotheses for homogeneity provide BS-shaped option prices in equilibrium. This BS-shaped option-pricing formula allows us to derive interesting characterizations of the volatility smile, that is, the pattern of BS implicit volatilities as a function of the option moneyness. First, the asymmetry of the smile is shown to be equivalent to a particular form of asymmetry of the equivalent martingale measure. Second, this asymmetry appears precisely when there is either a premium on an instantaneous interest rate risk or on a generalized leverage effect or both, in other words, whenever the option pricing formula is not preference-free. Therefore, the main conclusion of our analysis for practitioners should be that an asymmetric smile is indicative of the relevance of preference parameters to price options. Dans le présent article, on propose un cadre stochastique général et un modèle d’évaluation d’actifs financiers à l’équilibre qui mettent en évidence les rôles respectifs de l’élasticité de substitution intertemporelle et de l’aversion pour le risque dans le prix de marché des options. Nous précisons en particulier les conditions statistiques sous lesquelles les formules d’évaluation d’options dépendent ou non explicitement des paramètres de préférence, en particulier quand ces paramètres ne sont pas cachés dans les prix de l’actif sous-jacent et d’une obligation, comme c’est le cas dans les modèles standards de Black et Scholes (BS) ou de Hull et White (HW). Plusieurs effets de causalité instantanée, du type effet de levier, expliquent l’occurrence non redondante des paramètres de préférence dans les prix d’options. On prouve aussi que les modèles d’évaluation d’actifs financiers les plus classiques (CAPM pour les actions, BS ou HW où les prix d’options ne font pas apparaître les paramètres de préférence) sont fondés sur les mêmes hypothèses stochastiques (typiquement l’absence d’effet de levier), indépendamment des valeurs des paramètres de préférence. Même si notre formule générale d’évaluation d’options dépend dans certains cas explicitement des paramètres de préférence, on n’oublie pas que la formule BS est dominante à la fois comme modèle théorique de référence et comme instrument de gestion. Une autre contribution de l’article est la validation théorique de ce rôle de référence. Ainsi, dans la mesure où on accepte une propriété essentielle des prix d’options, à savoir leur homogénéité de degré un par rapport au couple formé par le prix de l’actif sous-jacent et le prix d’exercice, on peut montrer que les hypothèses statistiques nécessaires et suffisantes pour l’homogénéité donnent à l’équilibre des prix d’options qui conservent l’essentiel de la forme fonctionnelle de BS. Cette forme fonctionnelle nous permet de mettre en évidence certaines propriétés importantes du « sourire » de volatilité, c’est-à-dire de la représentation graphique des volatilités implicites de BS en fonction de la position de l’option par rapport à la monnaie. On montre d’abord que l’asymétrie de ce sourire est équivalente à une forme particulière d’asymétrie de la mesure de martingale équivalente. Enfin, cette asymétrie correspond précisément au cas où il existerait soit une prime sur un risque instantané de taux d’intérêt, soit un effet de levier généralisé, soit les deux, en d’autres termes lorsque la formule d’évaluation d’options dépend explicitement des paramètres de préférence. En conclusion, le message principal pour la gestion d’options résultant de notre analyse est que l’évidence d’une asymétrie dans le sourire de volatilité signale l’importance de la prise en compte des paramètres de préférence dans les formules d’évaluation d’options.
[ "causality", "hidden Markov chains", "non-separable utility", "equilibrium option pricing", "recursive utility", "Black-Scholes implicit volatility", "smile effect", "causalité", "chaînes de Markov cachées", "utilité non séparable", "évaluation d’options par modèle d’équilibre", "utilité récursive", "volatilité implicite de Black- Scholes", "sourire de volatilité" ]
en , fr
453
Political Influence, Economic Interests and Endogenous Tax Structure in a Computable Equilibrium Framework: with Applicatioon to the United States, 1973 and 1983
A full understanding of public affairs requires the ability to distinguish between the policies that voters would like the government to adopt, and the influence that different voters or group of voters actually exert in the democratic process. We consider the properties of a computable equilibrium model of a competitive political economy in which the economic interests of groups of voters and their effective influence on equilibrium policy outcomes can be explicitly distinguished and computed. The model incorporates an amended version of the GEMTAP tax model, and is calibrated to data for the United States for 1973 and 1983. Emphasis is placed on how the aggregation of GEMTAP households into groups within which economic and political behaviour is assumed homogeneous affects the numerical representation of interests and influence for representative members of each group. Experiments with the model suggest that the changes in both interests and influence are important parts of the story behind the evolution of U.S. tax policy in the decade after 1973. Si l’on aspire à une meilleure compréhension des choix publics, il est impératif de pouvoir faire la distinction entre les préférences de chaque électeur et l’influence qu’exerce chacun de ces électeurs, ou groupe d’électeurs, au sein du processus démocratique. Cette étude se penche sur certaines propriétés d’un modèle calculable d’équilibre général pour une économie avec concurrence politique. La modélisation proposée de cette économie permet d’isoler, à l’équilibre, le rôle joué par les intérêts économiques des différents groupes d’électeurs de celui joué par l’influence réelle qu’exerce chacun de ces groupes. Le modèle fait appel à une version modifiée du modèle GEMTAP de taxation, calibré afin de correspondre aux données de l’économie des États-Unis en 1973 et 1983. L’attention porte particulièrement sur l’importance du critère d’agrégation des différents ménages présents dans le modèle GEMTAP. De chaque critère d’agrégation, il résulte différents groupes de ménages à l’intérieur desquels les intérêts économiques et politiques sont supposés homogènes. Le modèle permet alors de déterminer comment chaque critère affecte la représentation numérique des intérêts et de l’influence associés au membre représentatif de chaque groupe. Après avoir soumis le modèle à différents essais, il est permis de croire que les changements à la fois dans les intérêts et dans l’influence doivent être pris en compte séparément afin d’expliquer l’évolution de la politique de taxation aux États-Unis entre 1973 et 1983.
[ "GEMTAP", "political competition", "probabilistic voting", "political influence", "tax policy", "public goods", "GEMTAP", "computable equilibrium", "concurrence politique", "vote probabiliste", "influence politique", "politique de taxation", "biens publics", "GEMTAP", "équilibre général calculable", "GEMTAP" ]
en , fr
455
Efficient Strategy-Proof Allocation Functions in Linear Production Economies
In a linear production model, we characterize the class of efficient and strategy-proof allocation functions, and the class of efficient and coalition strategy-proof allocation functions. In the former class, requiring equal treatment of equals allows us to identify a unique allocation function. This function is also the unique member of the latter class which satisfies uniform treatment of uniforms. Dans le cadre d'une économie de production à technologie linéaire, nous caractérisons les règles d'allocation efficaces et non manipulables, tant au sens individuel que coalitionnel. Différentes propriétés de symétries nous permettent ensuite d'isoler une règle unique.
[ "strategy-proofness", "efficiency", "linear production set", "non-manipulabilité", "efficacité", "ensemble de production linéaire" ]
en , fr
456
Non-Commitment and Savings in Dynamic Risk-Sharing Contracts
We characterize the solution to a model of consumption smoothing using financing under non-commitment and savings. We show that, under certain conditions, these two different instruments complement each other perfectly. If the rate of time preference is equal to the interest rate on savings, perfect smoothing can be achieved in finite time. We also show that, when random revenues are generated by periodic investments in capital through a concave production function, the level of smoothing achieved through financial contracts can influence the productive investment efficiency. As long as financial contracts cannot achieve perfect smoothing, productive investment will be used as a complementary smoothing device. Nous caractérisons la solution d'un modèle de lissage de la consommation avec financement externe sujet à des contraintes d'engagement et épargne. Nous démontrons que, sous certaines conditions, l'épargne et le financement externe se complètent parfaitement. Si le taux d'escompte est égal au taux d'intérêt, on obtient en temps fini un lissage parfait. Nous démontrons également que le lissage obtenu sur les marchés financiers affecte l'investissement en capital physique. Lorsque le lissage est imparfait, l'investissement est utilisé pour des fins de lissage.
[ "non-engagement", "savings", "consumption", "dynamic risk sharing", "non-commitment", "épargne", "consommation", "partage de risque dynamique" ]
en , fr
457
Computation and Analysis of Multiple Structural-Change Models
In a recent paper, Bai and Perron (1998) considered theoretical issues related to the limiting distribution of estimators and test statistics in the linear model with multiple structural changes. In this companion paper, we consider practical issues for the empirical applications of the procedures. We first address the problem of estimation of the break dates and present an efficient algorithm to obtain global minimizers of the sum of squared residuals. This algorithm is based on the principle of dynamic programming and requires at most least-squares operations of order O(T 2) for any number of breaks. Our method can be applied to both pure and partial structural-change models. Secondly, we consider the problem of forming confidence intervals for the break dates under various hypotheses about the structure of the data and the errors across segments. Third, we address the issue of testing for structural changes under very general conditions on the data and the errors. Fourth, we address the issue of estimating the number of breaks. We present simulation results pertaining to the behavior of the estimators and tests in finite samples. Finally, a few empirical applications are presented to illustrate the usefulness of the procedures. All methods discussed are implemented in a GAUSS program available upon request for non-profit academic use. Dans un récent papier, Bai et Perron (1998) ont considéré les problèmes théoriques reliés à la distribution des estimateurs et tests statistiques dans le modèle linéaire avec changements structurels multiples. Dans ce papier, nous regardons les problèmes pratiques pour les applications empiriques des procédures. En premier, nous regardons le problème d'estimation des dates de rupture et présentons un algorithme efficace pour obtenir les minimums globaux des sommes des résidus carrés. Cet algorithme est basé sur le principe de la programmation dynamique et nécessite au plus des opérations de moindres carrés d'ordre O(T 2) pour tout nombre de ruptures. Deuxièmement, nous considérons le problème de construire des intervalles de confiance pour les dates de rupture sous plusieurs hypothèses de structure des données et d'erreurs entre segments. Troisièmement, nous considérons le problème de tester la présence de changements structurels sous des conditions très générales sur les donnés et les erreurs. Quatrièmement, nous étudions l'estimation du nombre de ruptures. Nous présentons les résultats de simulations sur le comportement des estimateurs et des tests en échantillons finis. Finalement, nous offrons quelques applications empiriques pour illustrer l'utilité des procédures. Toutes les méthodes présentées sont exécutées à l'aide d'un programme GAUSS disponible sur demande pour utilisation académique seulement.
[ "dynamic programming", "partial structural change", "hypothesis testing", "multiple regimes", "breaks", "model selection", "regression model", "programmation dynamique", "changement structurel partiel", "tests d'hypothèses", "régimes multiples", "ruptures", "sélection de modèle", "modèle de régression" ]
en , fr
463
Quadratic M-Estimators for ARCH-Type Processes
This paper addresses the issue of estimating semiparametric time series models specified by their conditional mean and conditional variance. We stress the importance of using joint restrictions on the mean and variance. This leads us to take into account the covariance between the mean and the variance and the variance of the variance, that is, the skewness and kurtosis. We establish the direct links between the usual parametric estimation methods, namely, the QMLE, the GMM and the M-estimation. The ususal univariate QMLE is, under non-normality, less efficient than the optimal GMM estimator. However, the bivariate QMLE based on the dependent variable and its square is as efficient as the optimal GMM one. A Monte Carlo analysis confirms the relevance of our approach, in particular, the importance of skewness. Cet article s’intéresse à l’estimation des modèles semiparamétriques de séries temporelles définis par leur moyenne et variance conditionnelles. Nous mettons en exergue l’importance de l’utilisation jointe des restrictions sur la moyenne et la variance. Ceci amène à tenir compte de la covariance entre la moyenne et la variance ainsi que de la variance de la variance, autrement dit la \"skewness\" et la \"kurtosis\". Nous établissons les liens directs entre les méthodes paramétriques usuelles d’estimation, à savoir l’EPMV (estimateur du pseudo maximum de vraisemblance), les GMM et les M-estimateurs. L’EPMV usuel est, dans le cas de la non-normalité, moins efficace que l’estimateur GMM optimal. Néanmoins, l’EPMV bivarié, basé sur le vecteur composé de la variable dépendante et de son carré, est aussi efficace que l’estimateur GMM optimal. Une analyse Monte Carlo confirme la pertinence de notre approche, en particulier l’importance de la \"skewness\".
[ "GMM", "M-estimator", "QMLE", "GMM", "heteroskedasticity", "conditional skewness and kurtosis", "M-estimateur", "EPMV", "GMM", "hétéroscédasticité", "\\\"skewness\\\" et \\\"kurtosis\\\" conditionnelles", "GMM" ]
en , fr
464
Asymptotic Approximations in the Near-Integrated Model with a Non-Zero Initial Condition
This paper considers various asymptotic approximations in the near-integrated firstorder autoregressive model with a non-zero initial condition. We first extend the work of Knight and Satchell (1993), who considered the random walk case with a zero initial condition, to derive the expansion of the relevant joint moment generating function in this more general framework. We also consider, as alternative approximations, the stochastic expansion of Phillips (1987c) and the continuous time approximation of Perron (1991). We assess how these alternative methods provide or not an adequate approximation to the finite-sample distribution of the least-squares estimator in a first-order autoregressive model. The results show that, when the initial condition is non-zero, Perron's (1991) continuous time approximation performs very well while the others only offer improvements when the initial condition is zero. Ce papier considère plusieurs approximations asymptotiques dans le modèle autorégressif de premier ordre presque intégré avec une condition initiale non nulle. En premier, nous élargissons le travail de Knight et Satchell (1993) qui ont considéré le cas d'une marche aléatoire avec une condition initiale nulle. Ensuite, nous dérivons l'expansion de la fonction génératrice de moments conjointe qui est pertinente dans ce cadre théorique plus général. Nous considérons aussi, comme approximation alternative, l'expansion stochastique de Phillips (1987c) et l'approximation en temps continu de Perron (1991). Nous assurons comment ces méthodes alternatives donnent ou non une approximation adéquate pour la distribution en échantillon fini de l'estimateur de moindres carrés dans un modèle AR(1). Les résultats montrent que, quand la condition initiale est non nulle, l'approximation en temps continu de Perron (1991) fonctionne très bien, alors que les autres offrent seulement des améliorations lorsque la condition initiale est nulle.
[ "Edgeworth expansion", "continuous-time asymptotics", "stochastic expansion", "distribution function", "autoregressive model", "expansion d'Edgeworth", "asymptotiques en temps continu", "expansion stochastique", "fonction de répartition", "modèle autorégressif" ]
en , fr
465
Sampling Interval and estimated Betas : Implications for the Presence of Transitory Components in Stock Prices
We provide a theoretical framework to explain the empirical finding that the estimated betas are sensitive to the sampling interval even when using continuously compounded returns. We suppose that stock prices have both permanent and transitory components. The permanent component is a standard geometric Brownian motion while the transitory component is a stationary Ornstein-Uhlenbeck process. The discrete time representation of the beta depends on the sampling interval and two components labelled \"permanent and transitory betas\". We show that if no transitory component is present in stock prices, then no sampling interval effect occurs. However, the presence of a transitory component implies that the beta is an increasing (decreasing) function of the sampling interval for more (less) risky assets. In our framework, assets are labelled risky if their \"permanent beta\" is greater than their \"transitory beta\" and vice versa for less risky assets. Simulations show that our theoretical results provide good approximations for the means and standard deviations of estimated betas in small samples. Our results can be perceived as indirect evidence for the presence of a transitory component in stock prices, as proposed by Fama and French (1988) and Poterba and Summers (1988). Nous donnons un cadre théorique pour expliquer le fait empirique que les bêta estimés sont sensibles à l'intervalle de l'échantillon même en utilisant des rendements composés sans interruption. La composante permanente est un mouvement brownien géométrique standard et la composante transitoire est un processus stationnaire Orstein- Uhlenbeck. La représentation en temps discret des bêta dépend de l'intervalle de l'échantillon et de deux composantes appelées \"bêta permanent et transitoire\". Nous montrons que, si la composante transitoire n'est pas présente dans les prix des actifs, il n'existe pas d'effet d'intervalle de l'échantillon. Cependant, la présence d'une composante transitoire implique que le bêta est une fonction croissante (décroissante) de l'intervalle de l'échantillon pour actifs plus (moins) risqués. Dans notre cadre théorique, les actifs sont risqués si ses \"bêta permanents\" sont plus grands que ses \"bêta transitoires\" et vice versa pour des actifs moins risqués. Les simulations montrent que nos résultats théoriques donnent une bonne approximation pour les moyennes et écart-types des bêta estimés en petits échantillons. Nos résultats peuvent être perçus comme une évidence indirecte de la présence d'une composante transitoire dans les prix des actifs, comme proposé par Fama et French (1988) et Poterba et Summers (1988).
[ "processus d'Ornstein-Uhlenbeck", "stochastic differential equations", "Wiener process", "market efficiency", "meanreversion", "Ornstein-Uhlenbeck process", "équations différentielles stochastiques", "processus de Wiener", "efficacité des marchés", "retour à la moyenne" ]
en , fr
466
The FCLT with Dependent Errors: an Helicopter Tour of the Quality of the Approximation
This note investigates the adequacy of the finite-sample approximation provided by the Functional Central Limit Theorem (FCLT) when the errors are allowed to be dependent. We compare the distribution of the scaled partial sums of some data with the distribution of the Wiener process to which it converges. Our setup is purposely very simple in that it considers data generated from an ARMA(1,1) process. Yet, this is sufficient to bring out interesting conclusions about the particular elements which cause the approximations to be inadequate in even quite large sample sizes. Cette note examine la pertinence de l'approximation en échantillon fini donnée par le théorème de la limite centrale fonctionnelle quand les erreurs sont dépendantes. Nous comparons la distribution des sommes partielles échelonnées de quelques donnés avec la distribution du processus de Wiener sur lequel elle converge. Notre modèle est intentionnellement très simple, compte tenu qu'il considère les donnés générées à partir d'un processus ARMA(1,1). Cependant, c'est suffisant pour obtenir des conclusions intéressantes sur les éléments particuliers qui causent des approximations inadéquates même en larges échantillons.
[ "corrélation temporelle", "Wiener process", "Brownian bridge", "distribution function", "serial correlation", "asymptotic approximation", "processus de Wiener", "pont brownien", "fonction de répartition", "approximation asymptotique" ]
en , fr
468
Semi-Parametric Weak Instrument Regressions with an Application to the Risk-Return Trade-off
Recent work shows that a low correlation between the instruments and the included variables leads to serious inference problems. We extend the local-to-zero analysis of models with weak instruments to models with estimated instruments and regressors and with higher-order dependence between instruments and disturbances. This makes this framework applicable to linear models with expectation variables that are estimated non-parametrically. Two examples of such models are the risk-return trade-off in finance and the impact of inflation uncertainty on real economic activity. Results show that inference based on Lagrange Multiplier (LM) tests is more robust to weak instruments than Wald-based inference. Using LM confidence intervals leads us to conclude that no statistically significant risk premium is present in returns on the S&P 500 index, excess holding yields between 6-month and 3-month Treasury bills, or in yen-dollar spot returns. Des recherches récentes démontrent qu'une corrélation faible entre les instruments et les variables explicatives peut mener à de sérieux problèmes d'inférence dans les régressions avec variables instrumentales. Nous étendons l'analyse locale à zéro des modèles avec instruments faibles aux modèles avec des instruments et régresseurs estimés et avec de la dépendance dans les moments supérieurs. Ainsi, cet environnement devient applicable aux modèles linéaires avec des variables anticipatoires qui sont estimées de façon non paramétrique. Deux exemples de tels modèles sont la relation entre le risque et les rendements en finance et l'impact de l'incertitude de l'inflation sur l'activité économique réelle. Nos résultats démontrent que l'inférence basée sur les tests du multiple de Lagrange (LM) est plus robuste à la présence d'instruments faibles que l'inférence basée sur les tests de Wald. En utilisant des intervalles de confiance construits selon les tests de LM, nous concluons qu'il n'y a pas de prime de risque significative dans les rendements de l'indice S&P 500, les rendements excédentaires entre les Bons du Trésor de 6 mois et de 3 mois et les rendements du taux de change spot entre le yen japonais et le dollar américain.
[ "anticipations", "instrumental variables", "weak instruments", "local-to-zero analysis", "LM tests", "Wald tests", "risk premium", "expectations", "semi-parametric models", "neural networks", "variables instrumentales", "instruments faibles", "analyse locale à zéro", "tests du multiple de Lagrange", "tests de Wald", "prime de risque", "modèles semi-paramétriques", "noyaux", "réseaux de neurones", "kernels" ]
en , fr
469
Coherent Cost-Sharing Rules
We reconsider the discrete version of the axiomatic cost-sharing model. We propose a condition of (informational) coherence requiring that not all informational refinements of a given problem be solved differently from the original problem. We prove that strictly coherent linear cost-sharing rules must be simple random-order rules. Nous réexaminons la version discrète du modèle axiomatique de partage de coûts. Nous proposons une condition de cohérence (informationnelle) qui exige que la solution d'un problème soit identique à celle donnée à au moins un de ses raffinements. Nous prouvons qu'une règle linéaire strictement cohérente doit être une règle d'ordre aléatoire simple.
[ "cost sharing", "additivity", "random order", "partage de coûts", "additivité", "ordre aléatoire" ]
en , fr
471
Sector-Specific Training and Mobility in Germany
This article studies mobility patterns of German workers in light of a model of sector-specific human capital. Furthermore, I employ and describe little-used data on continuous on-the-job training occurring after apprenticeships. Results are presented describing the incidence and duration of continuous training. Continuous training is quite common, despite the high incidence of apprenticeships which precedes this part of a worker's career. Most previous studies have only distinguished between firm-specific and general human capital, usually concluding that training was general. Inconsistent with those conclusions, I show that German men are more likely to find a job within the same sector if they have received continuous training in that sector. These results are similar to those obtained for young U.S. workers, and suggest that sector-specific capital is an important feature of very different labor markets. In addition, they suggest that the observed effect of training on mobility is sensible to the state of the business cycle, indicating a more complex interaction between supply and demand that most theoretical models allow for. Cet article étudie la mobilité des travailleurs allemands à la lumière d'un modèle de capital humain dont la spécificité est sectorielle. En outre, j'utilise et décris des données peu utilisées sur la formation formelle ayant lieu après la fin d'un apprentissage. Comparativement aux Etats-Unis, un plus grand nombre de travailleurs suit une formation annuellement, et ce, en dépit d'une incidence élevée de précédents apprentissages. Tandis que plusieurs autres études font une distinction uniquement entre capital humain spécifique à une seule firme et capital humain général, je montre que les travailleurs allemands ont une plus grande probabilité de trouver un emploi dans un secteur s'ils ont suivi une formation formelle dans ce même secteur. Ce résultat n'est cohérent ni avec la présence de capital humain spécifique à une seule firme, ni avec du capital humain complètement général. Conjointement avec des résultats semblables pour des travailleurs américains, ils suggèrent l'importance du capital humain spécifique à l'industrie. Par ailleurs, l'effet de la formation sur la mobilité semble sensible à l'état de la conjoncture, suggérant une interaction entre offre et demande plus complexe que celle décrite par la plupart des modèles théoriques.
[ "on-the-job training", "employment duration", "sectoral mobility", "industry-specific human capital", "multinomial models", "formation en lieu de travail", "durée de l'emploi", "mobilité sectorielle", "capital humain spécifique au secteur", "modèles multinomiaux" ]
en , fr
472
Wage Flexibility and Contract Structure in Germany
In this paper, we look at how labor market conditions at different points during the tenure of individuals with firms are correlated with current earnings. Using data on individuals from the German Socioeconomic Panel for the 1985-1994 period, we find that both the contemporaneous unemployment rate and prior values of the unemployment rate are significantly correlated with current earnings, contrary to results for the American labor market. Estimated elasticities vary between 9 and 15 percent for the elasticity of earnings with respect to current unemployment rates, and between 6 and 10 percent with respect to unemployment rates at the start of current firm tenure. Moreover, whereas local unemployment rates determine levels of earnings, national rates influence contemporaneous variations in earnings. We interpret this result as evidence that German unions do, in fact, bargain over wages and employment, but that models of individualistic contracts, such as the implicit contract model, may explain some of the observed wage drift and longer-term wage movements reasonably well. Furthermore, we explore the heterogeneity of contracts over a variety of worker and job characteristics. In particular, we find evidence that contracts differ across firm size and worker type. Workers of large firms are remarkably more insulated from the job market than workers for any other type of firm, indicating the importance of internal job markets. Dans cet article, nous analysons la corrélation entre les revenus de travail contemporains et les conditions sur le marché du travail, à savoir le taux de chômage mesuré à différents moments pendant la durée du contrat de travail. Les données que nous utilisons proviennent du Panel Socio-économique Allemand et comprennent la période 1984-1994. Contrairement aux résultats pour le marché américain, nous trouvons que l'état actuel du marché du travail est un important facteur, même en contrôlant pour le taux de chômage en vigueur au début de la relation d'emploi. Les élasticités estimées varient entre 9 et 15 pourcent pour l'élasticité des revenus de travail par rapport au taux de chômage contemporain et entre 6 et 10 pourcent par rapport au taux de chômage en début de contrat. Notamment, tandis que le taux de chômage régional affecte le niveau des revenus d'emploi, le taux national influence la variation dans les revenus. Ces résultats sont cohérents avec la présence simultanée de conventions collectives et de contrats individuels, tels les modèles de contrats implicites, qui expliquent une partie de la variance de revenus de travail et des mouvements de revenu à long terme. En plus de la variation régionale, nous étudions l'hétérogénéité des contrats selon certaines caractéristiques des travailleurs et des emplois. En particulier, nous constatons que les contrats de travail diffèrent selon la taille de l'entreprise et le type de travailleur. Un travailleur dans une grande entreprise est remarquablement plus isolé de fluctuation du marché de travail qu'un travailleur dans toute autre taille d'entreprise, suggérant l'importance des marchés du travail internes pour ces firmes.
[ "wage curve", "implicit contracts", "wages structure", "Germany", "courbe de salaire", "contrats implicites", "structure des salaires", "Allemagne" ]
en , fr
473
Sector-Specific on-the-Job Training: Evidence from U.S. Data
Using data from the National Longitudinal Survey of Youth (NLSY), we re-examine the effect of formal on-the-job training on mobility patterns of young American workers. By employing parametric duration models, we evaluate the economic impact of training on productive time with an employer. Confirming previous studies, we find a positive and statistically significant impact of formal on-the-job training on tenure with the employer providing the training. However, the expected net duration of the time spent in the training program is generally not significantly increased. We proceed to document and analyze intra-sectoral and cross-sectoral mobility patterns in order to infer whether training provides firm-specific, industry-specific, or general human capital. The econometric analysis rejects a sequential model of job separation in favor of a competing risks specification. We find significant evidence for the industry-specificity of training. The probability of sectoral mobility upon job separation decreases with training received in the current industry, whether with the last employer or previous employers, and employment attachment increases with on-the-job training. These results are robust to a number of variations on the base model. Nous utilisons des données américaines provenant du National Longitudinal Survey of Youth (NLSY) pour examiner l'effet de la formation formelle en lieu de travail par rapport à la mobilité observée des jeunes travailleurs américains. Des modèles de durée paramétriques nous permettent d'évaluer l'impact économique de la formation sur le temps productif passé avec un employeur. Nos résultats sont cohérents avec la plupart des études précédentes, qui trouvaient un impact positif et significatif. Cependant, la durée de la relation de travail nette du temps passé en formation n'augmente pas de manière significative. Nous procédons par la suite à l'analyse de la mobilité intrasectorielle et intersectorielle àfin de permettre l'inférence par rapport à la spécificité du capital humain acquis par la formation, soit du capital humain spécifique à la firme, soit spécifique à l'industrie, soit général. L'analyse économétrique permet de rejeter un modèle séquentiel de choix de secteur en faveur d'un modèle à risques concurrents. Nos résultats présentent une forte évidence en faveur de la spécificité de la formation à l'industrie. La probabilité d'un changement de secteur d'activité suite à une séparation d'emploi décroît avec la formation reçue dans l'industrie présente, peu importe si celle-ci a été reçue du dernier employeur ou d'un employeur précédent. La probabilité de détenir un emploi suite à une séparation augmente avec la formation sur le tas. Ces résultats sont robustes à des variations du modèle de base.
[ "on-the-job training", "employment duration", "sectoral mobility", "industry-specific human capital", "parametric duration models", "competing risks model", "formation sur le tas", "durée de l'emploi", "mobilité sectorielle", "capital humain spécifique au secteur", "modèles de durée paramétriques", "modèle à risques concurrents" ]
en , fr
475
The Shape of the Risk Premium: Evidence from a Semiparametric Garch Model
We examine the relationship between the risk premium on the S&P 500 index return and its conditional variance. We use the SMEGARCH - Semiparametric-Mean EGARCH - model in which the conditional variance process is EGARCH while the conditional mean is an arbitrary function of the conditional variance. For monthly S&P 500 excess returns, the relationship between the two moments that we uncover is nonlinear and nonmonotonic. Moreover, we find considerable persistence in the conditional variance as well as a leverage effect, as documented by others. Moreover, the shape of these relationships seems to be relatively stable over time. Nous étudions la relation entre la prime de risque sur l'indice S&P 500 et sa variance conditionnelle. Nous utilisons le modèle SMEGARCH - Semiparametric-Mean EGARCH - selon lequel la variance conditionnelle suit un processus EGARCH, alors que la moyenne est une fonction arbitraire de la variance conditionnelle. Pour les rendements excédentaires mensuels sur l'indice S&P 500, la relation que nous trouvons est non linéaire et non monotone. De plus, nous trouvons beaucoup de persistance dans la variance conditionnelle ainsi qu'un effet de levier, tel que documenté par plusieurs autres auteurs.
[ "ARCH models", "asset pricing", "backfitting", "Fourier series", "risk premium", "modèles ARCH", "évaluation d'actifs", "séries Fourier", "noyau", "prime de risque", "kernel" ]
en , fr
477
Distortionary Taxation and Labor Supply: Evidence from Canada
This paper examines empirically the effects of distortionary taxation on labor supply using a general equilibrium framework. The long-term relations predicted by the model are derived and tested using Canadian data between 1966 and 1993. While the cointegrating predictions of the model without taxation are rejected, the ones of the model with labor taxation are not. Persistent labor tax rate increases appear to play an important role in the observed downward trend in hours worked. Cet article examine de façon empirique les effets des taxes distorsionnaires sur l'offre de travail dans le cadre d'un modèle d'équilibre général. Les relations de long terme impliquées par le modèle sont dérivées et testées en utilisant des données canadiennes entre 1966 et 1993. Alors que les relations de coïntégration prédites par le modèle sans taxe distorsionnaire sont rejetées par les données, celles avec taxe ne le sont pas. Les accroissements persistants du taux de taxation du revenu de travail semblent jouer un rôle important dans la tendance décroissante observée des heures travaillées.
[ "Canada", "labor taxation", "labor supply", "cointegration", "Canada", "taxation du travail", "offre de travail", "coïntégration" ]
en , fr
478
The Inflation Bias When the Central Bank Targets, the Natural Rate of Unemployment
This paper studies the proposition that an inflation bias can arise in a setup where a central banker with asymmetric preferences targets the natural unemployment rate. Preferences are asymmetric in the sense that positive unemployment deviations from the natural rate are weighted more (or less) severely than negative deviations in the central banker's loss function. The bias is proportional to the conditional variance of unemployment. The time-series predictions of the model are evaluated using data from G7 countries. Econometric estimates support the prediction that the conditional variance of unemployment and the rate of inflation are positively related. Cet article étudie la proposition qu'un biais inflationniste puisse survenir dans une situation où un banquier central ayant des préférences asymétriques cible le taux de chômage naturel. Les préférences sont asymétriques dans le sens que les écarts positifs du chômage par rapport au taux naturel sont pondérés plus (ou moins) sévèrement que les écarts négatifs dans la fonction de perte du banquier central. Le biais est proportionnel à la variance conditionnelle du chômage. Les prédictions du modèle sont évaluées en utilisant des données des pays du G7. Les estimations économétriques soutiennent la prédiction que la variance conditionnelle du chômage et le taux d'inflation sont reliés positivement.
[ "inflation bias", "asymmetric preferences", "biais inflationniste", "préférences asymétriques" ]
en , fr
483
Inter-temporal Price Discrimination when Imports are Restricted by Quotas
A dominant firm holding import quota engages in inter-temporal price discrimination when facing a competitive fringe engaged in seasonal production. This causes a welfare loss that comes in addition the loss attributable to limitation of imports below the free trade level.
[ "quota", "monopoly", "discrimination", "dominance", "dynamic" ]
en
484
Les cycles économiques et la science économique
Cette communication situe la théorie des grands cycles économiques dans le contexte général des économies de marché. Il y est postulé que le cycle financier et économique international de longue période (50-60 ans) n'est pas une aberration statistique, mais est le résultat de conditions institutionnelles, politiques, financières et économiques récurrentes dans l'économie mondiale. Il y est proposé comme hypothèse que la source des cycles financiers et économiques de longue durée origine d'un déréglement monétaire, lequel met en marche un processus auto-généré de sur-endettement, d'inflation des actifs financiers, de sur-investissement généralisé dans les équipements et de sur-production. Ce processus se résorbe par une liquidation des dettes, une déflation monétaire et par une contraction de l'activité économique, pouvant résulter en une récession alongée ou une dépression économique. L'information imparfaite et l'asymétrie dans l'information expliquent les erreurs de décisions des firmes à différentes périodes du grand cycle économique. Les chocs qui provoquent ces erreurs peuvent être géopolitiques (guerres), économiques, monétaires ou financiers. Les guerres sont des facteurs déclencheurs du grand cycle d'inflation-désinflation-déflation. (Communication pour le 53ème congrès de l'Association Internationale des économistes de langue française AIELF, Athènes mai 2003)
[ "cycle économique", "inflation bousière", "sur-endettement", "déflation monétaire", "ralentissement économique", "récession", "dépression" ]
fr
485
Testing Normality : A GMM Approach
In this paper, we consider testing marginal normal distributional assumptions. More precisely, we propose tests based on moment conditions implied by normality. These moment conditions are known as the Stein (1972) equations. They coincide with the first class of moment conditions derived by Hansen and Scheinkman (1995) when the random variable of interest is a scalar diffusion. Among other examples, Stein equation implies that the mean of Hermite polynomials is zero. The GMM approach we adopted is well suited for two reasons. It allows us to study in detail the parameter uncertainty problem, i.e., when the tests depend on unknown parameters that have to be estimated. In particular, we characterize the moment conditions that are robust against parameter uncertainty and show that Hermite polynomials are special examples. This is the main contribution of the paper. The second reason for using GMM is that our tests are also valid for time series. In this case, we adopt a Heteroskedastic-Autocorrelation-Consistent approach to estimate the weighting matrix when the dependence of the data is unspecified. We also make a theoretical comparison of our tests with Jarque and Bera (1980) and OPG regression tests of Davidson and MacKinnon (1993). Finite sample properties of our tests are derived through a comprehensive Monte Carlo study. Finally, three applications to GARCH and realized volatility models are presented.
[ "Normality", "Stein-Hansen-Scheinkman equation", "GMM", "Hermite polynomials", "parameter uncertainty", "HAC", "OPG regression" ]
en
487
Maximal-Element Rationalizability
We examine the maximal-element rationalizability of choice functions with arbitrary do-mains. While rationality formulated in terms of the choice of greatest elements according to a rationalizing relation has been analyzed relatively thoroughly in the earlier litera-ture, this is not the case for maximal-element rationalizability, except when it coincides with greatest-element rationalizability because of properties imposed on the rationalizing relation. We develop necessary and sufficient conditions for maximal-element rationaliz-ability by itself, and for maximal-element rationalizability in conjunction with additional properties of a rationalizing relation such as re exivity, completeness, P-acyclicity, quasi-transitivity, consistency and transitivity.
[ "Choice Functions", "Maximal-Element Rationalizability" ]
en
488
Testing Mean-Variance Efficiency in CAPM with Possibly Non-Gaussian Errors : An Exact Simulation-Based Approach
In this paper we propose exact likelihood-based mean-variance efficiency tests of the market portfolio in the context of Capital Asset Pricing Model (CAPM), allowing for a wide class of error distributions which include normality as a special case. These tests are developed in the frame-work of multivariate linear regressions (MLR). It is well known however that despite their simple statistical structure, standard asymptotically justified MLR-based tests are unreliable. In financial econometrics, exact tests have been proposed for a few specific hypotheses [Jobson and Korkie (Journal of Financial Economics, 1982), MacKinlay (Journal of Financial Economics, 1987), Gib-bons, Ross and Shanken (Econometrica, 1989), Zhou (Journal of Finance 1993)], most of which depend on normality. For the gaussian model, our tests correspond to Gibbons, Ross and Shanken’s mean-variance efficiency tests. In non-gaussian contexts, we reconsider mean-variance efficiency tests allowing for multivariate Student-t and gaussian mixture errors. Our framework allows to cast more evidence on whether the normality assumption is too restrictive when testing the CAPM. We also propose exact multivariate diagnostic checks (including tests for multivariate GARCH and mul-tivariate generalization of the well known variance ratio tests) and goodness of fit tests as well as a set estimate for the intervening nuisance parameters. Our results [over five-year subperiods] show the following: (i) multivariate normality is rejected in most subperiods, (ii) residual checks reveal no significant departures from the multivariate i.i.d. assumption, and (iii) mean-variance efficiency tests of the market portfolio is not rejected as frequently once it is allowed for the possibility of non-normal errors. Dans cet article nous proposons des tests exacts, basés sur la vraisemblance, de l’efficience du portefeuille de marché dans l’espace moyenne-variance. Ces tests, utilisés ici dans le contexte du modèle du CAPM (Capital Asset Pricing Model), permettent de considérer diverses classes de distributions incluant la loi normale. Les tests sont développés dans le cadre de modèles de régres-sion linéaires multivariés (RLM). Il est, par ailleurs, bien établi que, malgré leur structure simple, les écart-types et tests usuels asymptotiques de ces modèles ne sont pas fiables. En économétrie financière, des tests en échantillons finis ont été proposés pour quelques hypothèses spécifiques, lesquels dépendent pour la plupart de l’hypothèse de normalité [Jobson et Korkie (Journal of Fi-nancial Economics, 1982), MacKinlay (Journal of Financial Economics, 1987), Gibbons, Ross et Shanken (Econometrica, 1989), Zhou (Journal of Finance 1993)]. Dans le contexte gaussien, nos tests d’efficience correspondent à ceux de Gibbons, Ross et Shanken. Dans un contexte non-gaussien, nous reconsidérons l’efficience moyenne-variance du portefeuille de marché en permet-tant des distributions multivariées de Student et des « mélanges de lois normales ». Notre démarche nous permet d’évaluer si l’hypothèse de normalité est trop restrictive lorsque l’on teste le CAPM. Nous proposons aussi des tests diagnostiques multivariés (incluant des tests pour les effets GARCH multivariés et une généralisation multivariée des tests de ratio de variance), des tests de spécifica-tion ainsi qu’un estimateur ensembliste pour les paramètres de nuisance pertinents. Nos résultats montrent que i) l’hypothèse de normalité multivariée est rejetée sur la plupart des sous-périodes, ii) les tests diagnostiques appliqués aux résidus de nos estimations ne montrent pas de différences importantes par rapport à l’hypothèse des erreurs i.i.d. multivariées, et iii) les tests d’efficience du portefeuille de marché dans l’espace moyenne-variance ne rejettent aussi fréquemment l’hypothèse d’efficience lorsqu’on s’autorise à considérer des lois non normales sur les erreurs.
[ "CAPM", "test exact", "bootstrap", "GARCH", "capital asset pricing model", "CAPM", "mean-variance efficiency", "non-normality", "multi-variate linear regression", "uniform linear hypothesis", "exact test", "Monte Carlo test", "bootstrap", "nuisance parameters", "specification test", "diagnostics", "GARCH", "variance ratio test", "modèle d’évaluation d’actifs financiers", "CAPM", "efficience de portefeuille", "non-normalité", "modèle de régression multivarié", "hypothèse linéaire uniforme", "test de Monte Carlo", "paramètres de nuisance", "test de spécification", "tests diagnostiques", "GARCH", "test de ratio des variances", "capital asset pricing model", "CAPM", "GARCH" ]
en , fr
489
Testing for a Unit Root in Panels with Dynamic Factors
This paper studies testing for a unit root for large n and T panels in which the cross-sectional units are correlated. To model this cross-sectional correlation, we assume that the data is generated by an unknown number of unobservable common factors. We propose unit root tests in this environment and derive their (Gaussian) asymptotic distribution under the null hypothesis of a unit root and local alternatives. We show that these tests have significant asymptotic power when the model has no incidental trends. However, when there are incidental trends in the model and it is necessary to remove heterogeneous deterministic components, we show that these tests have no power against the same local alternatives. Through Monte Carlo simulations, we provide evidence on the finite sample properties of these new tests. Cet article analyse des tests de racines unitaires dans les panels où n et T sont tous les deux rands et où les unités d’observations sont corrélées. Cette corrélation transversale est modélisée à l’aide d’un modèle à facteurs dynamiques inobservables. Nous proposons plusieurs tests dans cet environnement et dérivons leurs lois limites sous l’hypothèse nulle d’une racine unitaire et des alternatives locales. Nous mon-trons aussi que ces tests n’ont pas de puissance contre ces mêmes alternatives locales lorsqu’il est nécessaire d’estimer des composantes déterministes. À l’aide d’une expérience de Monte Carlo, nous comparons les propriétés en échantillons finis de ces tests et de d’autres suggérés dans la littérature.
[ "unit roots", "panel data", "factor models", "racines unitaires", "données de panels", "modèles à facteurs" ]
en , fr
492
Harsanyi’s Social Aggregation Theorem : A Multi-Profile Approach with Variable-Population Extensions
This paper provides new versions of Harsanyi’s social aggregation theorem that are formulated in terms of prospects rather than lotteries. Strengthening an earlier result, fixed-population ex-ante utilitarianism is characterized in a multi-profile setting with fixed probabilities. In addition, we extend the social aggregation theorem to social-evaluation problems under uncertainty with a variable population and generalize our approach to uncertain alternatives, which consist of compound vectors of probability distributions and prospects.
[ "Harsanyi’s social aggregation theorem", "multi-profile social choice", "population ethics" ]
en
496
Correcting the Errors : A Note on Volatility Forecast Evaluation Based on High-Frequency Data and Realized Volatilities
This note develops general model-free adjustment procedures for the calculation of unbiased volatility loss functions based on practically feasible realized volatility benchmarks. The procedures, which exploit the recent asymptotic distributional results in Barndorff-Nielsen and Shephard (2002a), are both easy to implement and highly accurate in empirically realistic situations. On properly accounting for the measurement errors in the volatility forecast evaluations reported in Andersen, Bollerslev, Diebold and Labys (2003), the adjustments result in markedly higher estimates for the true degree of return-volatility predictability. Cette note développe des méthodes d’ajustement, sans spécifier le modèle, qui corrigent le biais induit par les erreurs de mesures de la volatilité dans la mesure de performance des méthodes de prévision de la volatilité. Les procédures, qui utilisent la récente théorie asymptotique de Barndorff-Nielsen et Shephard (2002a), sont faciles à mettre en oeuvre et très performantes dans les situations empiriques usuelles. En particulier, la prise en compte des erreurs de mesures dans les procédures de prévision de Andersen, Bollerslev, Diebold et Labys (2003), amène à des performances de prévision de la volatilité très élevées.
[ "measurement errors", "model-free adjustment procedures", "integrated volatility", "realized volatility", "high-frequency data", "time series forecasting", "Mincer-Zarnowitz regressions", "erreurs de mesure", "méthode d’ajustement", "volatilité intégrée", "volatilité réalisée", "données à haute fréquence", "prévision de séries chronologiques", "régressions de Mincer-Zarnowitz" ]
en , fr
497
Finite-Sample Diagnostics for Multivariate Regressions with Applications to Linear Asset Pricing Models
In this paper, we propose several finite-sample specification tests for multivariate linear regressions (MLR) with applications to asset pricing models. We focus on departures from the assumption of i.i.d. errors assumption, at univariate and multivariate levels, with Gaussian and non-Gaussian (including Student t) errors. The univariate tests studied extend existing exact procedures by allowing for unspecified parameters in the error distributions (e.g., the degrees of freedom in the case of the Student t distribution). The multivariate tests are based on properly standardized multivariate residuals to ensure invariance to MLR coefficients and error covariances. We consider tests for serial correlation, tests for multivariate GARCH and sign-type tests against general dependencies and asymmetries. The procedures proposed provide exact versions of those applied in Shanken (1990) which consist in combining univariate specification tests. Specifically, we combine tests across equations using the MC test procedure to avoid Bonferroni-type bounds. Since non-Gaussian based tests are not pivotal, we apply the “maximized MC” (MMC) test method [Dufour (2002)], where the MC p-value for the tested hypothesis (which depends on nuisance parameters) is maximized (with respect to these nuisance parameters) to control the test’s significance level. The tests proposed are applied to an asset pricing model with observable risk-free rates, using monthly returns on New York Stock Exchange (NYSE) portfolios over five-year subperiods from 1926-1995. Our empirical results reveal the following. Whereas univariate exact tests indicate significant serial correlation, asymmetries and GARCH in some equations, such effects are much less prevalent once error cross-equation covariances are accounted for. In addition, significant departures from the i.i.d. hypothesis are less evident once we allow for non-Gaussian errors. Dans cet article, nous proposons plusieurs tests de spécification valides pour des échantillons finis dans le cadre de régression linéaires multivariées (RLM), avec des applications à des modèles d’évaluation d’actifs. Nous nous concentrons sur les déviations par rapport à l’hypothèse d’erreurs i.i.d. univariée ou multivariée, pour des distributions d’erreurs gaussiennes et non gaussiennes. Les tests univariés étudiés prolongent les procédures exactes existantes en permettant des paramètres non spécifiés dans la distribution des erreurs (e.g., le nombre de degrés de liberté dans le cas de la distribution de Student). Les tests multivariés sont basés sur des résidus standardisés multivariés qui assurent l’invariance par rapport aux coefficients RLM et à ceux de la matrice de covariance des erreurs. Nous considérons des tests contre la dépendance sérielle, contre la présence d’effets GARCH multivariés et des tests de signes contre l’asymétrie. Les procédures proposées sont des versions exactes des tests de Shanken (1990) qui consistent à combiner des tests de spécification univariés. Spécifiquement, nous combinons des tests entre équations en utilisant une approche de test de Monte Carlo (MC), ce qui permet d’éviter des bornes de type Bonferroni. Étant donné que les tests dans un contexte non gaussien ne sont pas pivotaux, nous appliquons une approche de test de Monte Carlo maximisé [Dufour (2002)] où la valeur p simulée pour l’hypothèse testée (qui dépend de paramètres de nuisance) est maximisée (par rapport aux dits paramètres de nuisance) dans le but de contrôler le niveau des tests. Nous appliquons les tests proposés à un modèle d’évaluation d’actifs qui comprend un taux d’intérêt sans risque observable et utilise les rendements de porte-feuilles mensuels de titres inscrits à la bourse de New York, sur des sous-périodes de cinq ans allant de janvier 1926 à décembre 1995. Nos résultats révèlent que les tests univariés exacts présentent des problèmes de dépendance sérielle, d’asymétrie et d’effets GARCH statistiquement significatifs dans certaines équations. Cependant ces problèmes s’avèrent moins importants, loresque l’on tient compte de la dépendance entre équations. De plus, les écarts importants par rapport à l’hypothèse i.i.d. sont moins évidents une fois que l’on considère des erreurs non gaussiennes.
[ "CAPM", "boot-strap", "diagnostics", "GARCH", "capital asset pricing model", "CAPM", "mean-variance efficiency", "non-normality", "multivariate linear regression", "uniform linear hypothesis", "exact test", "Monte Carlo test", "bootstrap", "nuisance parameters", "specification test", "diagnostics", "GARCH", "variance ratio test", "modèle d’évaluation d’actifs financiers", "efficacité moyenne-variance", "non-normalité", "modèle de régression multivarié", "hypothèse uniforme linéaire", "test de Monte Carlo", "paramètre de nuisance", "test de spécification", "GARCH", "test du ratio des variances", "GARCH" ]
en , fr
499
Projection-Based Statistical Inference in Linear Structural Models with Possibly Weak Instruments
It is well known that standard asymptotic theory is not valid or is extremely unreliable in models with identification problems or weak instruments [Dufour (1997, Econometrica), Staiger and Stock (1997, Econometrica), Wang and Zivot (1998, Econometrica), Stock and Wright (2000, Econometrica), Dufour and Jasiak (2001, International Economic Review)]. One possible way out consists here in using a variant of the Anderson-Rubin (1949, Ann. Math. Stat.) procedure. The latter, however, allows one to build exact tests and confidence sets only for the full vector of the coefficients of the endogenous explanatory variables in a structural equation, which in general does not allow for individual coefficients. This problem may in principle be overcome by using projection techniques [Dufour (1997, Econometrica), Dufour and Jasiak (2001, International Economic Review)]. AR-types are emphasized because they are robust to both weak instruments and instrument exclusion. However, these techniques can be implemented only by using costly numerical techniques. In this paper, we provide a complete analytic solution to the problem of building projection-based confidence sets from Anderson-Rubin-type confidence sets. The latter involves the geometric properties of “quadrics” and can be viewed as an extension of usual confidence intervals and ellipsoids. Only least squares techniques are required for building the confidence intervals. We also study by simulation how “conservative” projection-based confidence sets are. Finally, we illustrate the methods proposed by applying them to three different examples: the relationship between trade and growth in a cross-section of countries, returns to education, and a study of production functions in the U.S. economy. L’une des questions les plus étudiés récemment en économétrie est celle des modèles présentant des problèmes de quasi non-identification ou d’instruments faibles. L’une des conséquences importantes de ce problème est la non validité de la théorie asymptotique standard [Dufour (1997, Econometrica), Staiger et Stock (1997, Econometrica), Wang et Zivot (1998, Econometrica), Stock et Wright (2000, Econometrica), Dufour et Jasiak (2001, International Economic Review)]. Le défi majeur dans ce cas consiste à trouver des méthodes d’inférence robustes à ce problème. Une solution possible consiste à utiliser la statistique d’Anderson-Rubin (1949, Ann. Math. Stat.). Nous mettons l’emphase sur les procédures de type Anderson-Rubin, car celles-ci sont robustes tant à la présence d’instruments faibles et à l’exclusion d’instruments. Cette dernière ne fournit cependant des tests exacts que pour les hypothèses spécifiant le vecteur entier des coefficients des variables endogènes dans un modèle structurel, et de façon correspondante, que des régions de confiance simultanées pour ces coefficients. Elle ne permet pas de tester des hypothèses spécifiant des coefficients individuels ou sur des transformations de ces coefficients. Ce problème peut être résolu en principe par des techniques de projection [Dufour (1997, Econometrica), Dufour et Jasiak (2001, International Economic Review)]. Cependant , ces techniques ne sont pas toujours faciles à appliquer et requièrent en général l’emploi de méthodes numériques. Dans ce texte, nous proposons une solution explicite complète au problème de la construction de régions de confiance par projection basées sur des statistiques de type Anderson-Rubin. Cette solution exploite les propriétés géométriques des “quadriques” et peut s’interpréter comme une extension des intervalles et ellipsoïdes de confiance usuels. Le calcul de ces régions ne requièrent que des techniques de moindres carrés. Nous étudions également par simulation le degré de conservatisme des régions de confiance obtenues par projection. Enfin, nous illustrons les méthodes proposées par trois applications différentes: la relation entre l’ouverture commerciale et la croissance, le rendement de l’éducation et une étude sur les rendement d’échelles dans l’économie américaine.
[ "variable instrumentale", "test", "projection", "Simultaneous equations", "structural model", "instrumental variable", "weak instrument", "confidence interval", "testing", "projection", "simultaneous inference", "exact inference", "asymptotic theory", "équations simultanées", "modèle structurel", "instruments faibles", "intervalle de confiance", "test", "projection", "inférence simultanée", "inférence exacte", "théorie asymptotique", "projection" ]
en , fr
500
Méthodes d’inférence exactes pour un modèle de régression avec erreurs AR(2) gaussiennes
Ce texte propose des méthodes d’inférence exactes (tests et régions de confiance) sur des modèles de régression linéaires avec erreurs autocorrélées suivant un processus autorégressif d’ordre deux [AR(2)], qui peut être non stationnaire. L’approche proposée est une généralisation de celle décrite dans Dufour (1990) pour un modèle de régression avec erreurs AR(1) et comporte trois étapes. Premièrement, on construit une région de confiance exacte pour le vecteur des coefficients du processus autorégressif (φ). Cette région est obtenue par inversion de tests d’indépendance des erreurs sur une forme transformée du modèle contre des alternatives de dépendance aux délais un et deux. Deuxièmement, en exploitant la dualité entre tests et régions de confiance (inversion de tests), on détermine une région de confiance conjointe pour le vecteur φ et un vecteur d’intérêt M de combinaisons linéaires des coefficients de régression du modèle. Troisièmement, par une méthode de projection, on obtient des intervalles de confiance «marginaux» ainsi que des tests à bornes exacts pour les composantes de M. Ces méthodes sont appliquées à des modèles du stock de monnaie (M2) et du niveau des prix (indice implicite du PNB) américains In this paper, we consider a linear regression model with Gaussian autoregressive errors of order p = 2, which may be nonstationary. Exact inference methods (tests and confidence region) are developed for the autoregressive parameters and the regression coefficients. We generalize the method proposed in Dufour (1990) for linear regression models with autoregressive errors of order p = 1. The proposed approach consists in three stages. First, we build an exact confidence set for the complete vector of the autoregressive coefficients (φ). This region is obtained by inverting independence tests for model errors after the model has been transformed to get independent errors under the null hypothesis. The independence tests are based on combining tests for the presence of autocorrelation at lags one and two. Exploiting the duality between tests and confidence sets, an exact confidence set is then built by finding the set of autoregressive parameter values which are not rejected (test inversion). Second, using this confidence set for φ, simultaneous confidence sets for the autoregressive parameters and regression coefficients are obtained. Finally, marginal confidence intervals for the regression coefficients are derived using a projection approach. We also propose generalized bounds tests for the regression parameters. These methods are applied to time series models of the U.S. money stock (M2) and GNP deflator. Keywords : AR(2) errors, exact test, confidence set, induced test, generalized bounds test, projection method, test inversion, money stock, M2, price level
[ "régression linéaire", "AR(2)", "région de confiance exacte", "test induit", "test à borne généralisé", "projection", "masse monétaire", "M2", "niveau des prix", "autocorrélation", "AR(2)", "test exact", "projection", "M2" ]
fr , en
501
Identification, Weak Instruments and Statistical Inference in Econometrics
We discuss statistical inference problems associated with identification and testability in econometrics, and we emphasize the common nature of the two issues. After reviewing the relevant statistical notions, we consider in turn inference in nonparametric models and recent developments on weakly identified models (or weak instruments). We point out that many hypotheses, for which test procedures are commonly proposed, are not testable at all, while some frequently used econometric methods are fundamentally inappropriate for the models considered. Such situations lead to ill-defined statistical problems and are often associated with a misguided use of asymptotic distributional results. Concerning nonparametric hypotheses, we discuss three basic problems for which such difficulties occur: (1) testing a mean (or a moment) under (too) weak distributional assumptions; (2) inference under heteroskedasticity of unknown form; (3) inference in dynamic models with an unlimited number of parameters. Concerning weakly identified models, we stress that valid inference should be based on proper pivotal functions —a condition not satisfied by standard Wald-type methods based on standard errors — and we discuss recent developments in this field, mainly from the viewpoint of building valid tests and confidence sets. The techniques discussed include alternative proposed statistics, bounds, projection, split-sampling, conditioning, Monte Carlo tests. The possibility of deriving a finite-sample distributional theory, robustness to the presence of weak instruments, and robustness to the specification of a model for endogenous explanatory variables are stressed as important criteria assessing alternative procedures. Nous analysons les problèmes d’inférence associés à l’identification et à la testabilité en économétrie, en soulignant la similarité entre les deux questions. Après une courte revue des notions statistiques requises, nous étudions tour à tour l’inférence dans les modèles non-paramétriques ainsi que les résultats récents sur les modèles structurels faiblement identifiés (ou les instruments faibles). Nous remarquons que beaucoup d’hypothèses, pour lesquelles des tests sont régulièrement proposés, ne sont pas en fait testables, tandis que plusieurs méthodes économétriques fréquemment utilisées sont fondamentalement inappropriées pour les modèles considérés. De telles situations conduisent à des problèmes statistiques mal posés et sont souvent associées à un emploi mal avisé de résultats distributionnels asymptotiques. Concernant les hypothèses non-paramétriques, nous analysons trois problèmes de base pour lesquels de telles difficultés apparaissent: (1) tester une hypothèse sur un moment avec des restrictions trop faibles sur la forme de la distribution; (2) l’inférence avec hétéroscédasticité de forme non spécifiée; (3) l’inférence dans les modèles dynamiques avec un nombre illimité de paramètres. Concernant les modèles faiblement identifiés, nous insistons sur l’importance d’utiliser des fonctions pivotales —une condition qui n’est pas satisfaite par les méthodes usuelles de type Wald basées sur l’emploi d’écart-types — et nous passons en revue les développements récents dans ce domaine, en mettant l’accent sur la construction de test et régions de confiance valides. Les techniques considérées comprennent les différentes statistiques proposées, l’emploi de bornes, la subdivision d’échantillon, les techniques de projection, le conditionnement et les tests de Monte Carlo. Parmi les critères utilisés pour évaluer les procédures, nous insistons sur la possibilité de fournir une théorie distributionnelle à distance finie, sur la robustesse par rapport à la présence d’instruments faibles ainsi que sur la robustesse par rapport la spécification d’un modèle pour les variables explicatives endogènes du modèle.
[ "identification", "Bahadur-Savage", "variable instrumentale", "projection", "bootstrap", "hypothesis testing", "confidence set", "confidence interval", "identification", "testability", "asymptotic theory", "exact inference", "pivotal function", "nonparametric model", "Bahadur-Savage", "heteroskedasticity", "serial dependence", "unit root", "simultaneous equations", "structural model", "instrumental variable", "weak instrument", "weak identification", "simultaneous inference", "projection", "split-sample", "conditional test", "Monte Carlo test", "bootstrap", "test d’hypothèse", "région de confiance", "intervalle de confiance", "identification", "testabilité", "théorie asymptotique", "inférence exacte", "fonction pivotale", "modèle non-paramétrique", "hétéroscédasticité", "dépendance sérielle", "racine unitaire", "équations simultanées", "modèle structurel", "instrument faible", "inférence simultanée", "projection", "subdivision d’échantillon", "test conditionnel", "test de Monte Carlo", "identification", "projection" ]
en , fr
502
Efficient Priority Rules
We study the assignment of indivisible objects with quotas (houses, jobs, or offices) to a set of agents (students, job applicants, or professors). Each agent receives at most one object and monetary compensations are not possible. We characterize efficient priority rules by efficiency, strategy-proofness, and reallocation-consistency. Such a rule respects an acyclical priority structure and the allocations can be determined using the deferred acceptance algorithm.
[ "acyclical priority structures", "indivisible objects" ]
en
503
Resource-Monotonicity for House Allocation Problems
We study a simple model of assigning indivisible objects (e.g., houses, jobs, offices, etc.) to agents. Each agent receives at most one object and monetary compensations are not possible. We completely describe all rules satisfying efficiency and resource-monotonicity. The characterized rules assign the objects in a sequence of steps such that at each step there is either a dictator or two agents who “trade” objects from their hierarchically specified “endowments.”
[ "indivisible objects", "resource-monotonicity" ]
en
505
Short run and long run causality in time series: Inference
We propose methods for testing hypotheses of non-causality at various horizons, as defined in Dufour and Renault (1998, Econometrica). We study in detail the case of VAR models and we propose linear methods based on running vector autoregressions at different horizons. While the hypotheses considered are nonlinear, the proposed methods only require linear regression techniques as well as standard Gaussian asymptotic distributional theory. Bootstrap procedures are also considered. For the case of integrated processes, we propose extended regression methods that avoid nonstandard asymptotics. The methods are applied to a VAR model of the U.S. economy. Nous proposons des méthodes pour tester des hypothèses de non-causalité à différents horizons, tel que défini dans Dufour et Renault (1998, Econometrica). Nous étudions le cas des modèles VAR en détail et nous proposons des méthodes linéaires basées sur l’estimation d’autorégressions vectorielles à différents horizons. Même si les hypothèses considérées sont non linéaires, les méthodes proposées ne requièrent que des techniques de régression linéaire de même que la théorie distributionnelle asymptotique gaussienne habituelle. Dans le cas des processus intégrés, nous proposons des méthodes de régression étendue qui ne requièrent pas de théorie asymptotique non standard. L’application du bootstrap est aussi considérée. Les méthodes sont appliquées à un modèle VAR de l’économie américaine. MOTS CLES : séries chronologiques, causalité, causalité indirecte, causalité à différents horizons, autorégression, modèle autorégressif, autorégression vectorielle, VAR, processus stationnaire, processus non stationnaire, processus intégré, racine unitaire, autorégression étendue, bootstrap, Monte Carlo, macroéconomie, monnaie, taux d’intérêt, production, inflation.
[ "time series", "Granger causality", "indirect causality", "multiple horizon causality", "autoregression", "autoregressive model", "vector autoregression", "VAR", "stationary process", "nonstationary process", "integrated process", "unit root", "extended autoregression", "bootstrap", "macroeconomics", "money", "interest rates", "output", "VAR", "bootstrap", "Monte Carlo", "inflation" ]
en , fr
509
Yesterday’s Games: Contingency Learning and the Growth of Public Spending, 1890-1938
Neither democracy nor globalization can explain the doubling of the peacetime public share in many Western countries between World Wars I and II. Here we examine two other explanations that are consistent with the timing of the observed changes, namely, (1) a shift in the demand for public goods and (2) the effect of war on the willingness to share. We first model each of these approaches as a contingency-learning phenomenon within Schelling’s Multi-Person Dilemma. We then derive verifiable propositions from each hypothesis. National time series of public spending as a share of GNP reveal no unit root but a break in trend, a result shown to favor explanation (2) over (1).
[ "Wagner's Law", "war", "government expenditures", "democracy", "globalization" ]
en
511
The Backing of Government Debt and the Price Level
This paper studies the interdependence between fiscal and monetary policies, and their joint role in the determination of the price level. The government is characterized by a long-run fiscal policy rule whereby a given fraction of the outstanding debt, say d, is backed by the present discounted value of current and future primary surpluses. The remaining debt is backed by seigniorage revenue. The parameter d characterizes the interdependence between fiscal and monetary authorities. It is shown that in a standard monetary economy, this policy rule implies that the price level depends not only on the money stock, but also on the proportion of debt that is backed with money. Empirical estimates of d are obtained for OECD countries using data on nominal consumption, monetary base, and debt. Results indicate that debt plays only a minor role in the determination of the price level in these economies. Estimates of d correlate well with institutional measures of central bank independence. Dans cet article, nous étudions la dépendance entre les politiques fiscales et monétaires et leur rôle conjoint dans la détermination du niveau des prix. Dans le cadre étudié, une politique fiscale de long terme permet à l'État de supporter une part d d'une importante dette publique par la valeur présente escomptée des excédents primaires courants et futurs. Le reste de la dette est supporté par seigneuriage. Le paramètre d illustre la dépendance entre les autorités monétaires et fiscales. Nous montrons que dans une économie monétaire standard, cette règle de politique implique que le niveau des prix ne dépend pas uniquement du stock de monnaie, mais aussi de la part de la dette supportée par la monnaie. Dans une application empirique, nous estimons les valeurs de d pour les pays de l'OCDE à partir de données sur la consommation nominale, la base monétaire et la dette publique. Selon nos résultats, la dette semble jouer un rôle mineur dans la détermination du niveau des prix de ces économies. De plus, les estimations de d sont en accord avec les mesures habituelles d'indépendance des banques centrales.
[ "Ricardian/Non-Ricardian regimes", "policy rules", "central banking", "régimes ricardiens et non ricardiens", "règles de politique", "banque centrale" ]
en , fr
512
Methods to Estimate Dynamic Stochastic General Equilibrium Models
This paper employs the one-sector Real Business Cycle model as a testing ground for four different procedures to estimate Dynamic Stochastic General Equilibrium (DSGE) models. The procedures are: 1 ) Maximum Likelihood, with and without measurement errors and incorporating Bayesian priors, 2) Generalized Method of Moments, 3) Simulated Method of Moments, and 4) Indirect Inference. Monte Carlo analysis indicates that all procedures deliver reasonably good estimates under the null hypothesis. However, there are substantial differences in statistical and computational efficiency in the small samples currently available to estimate DSGE models. GMM and SMM appear to be more robust to misspecification than the alternative procedures. The implications of the stochastic singularity of DSGE models for each estimation method are fully discussed. Cet article utilise un modèle de cycles réels à un secteur pour tester la validité et l'efficacité de quatre procédures d'estimation des modèles d'équilibre général dynamique stochastique (EGDS): 1) estimation par maximum de vraisemblance avec ou sans erreur de mesure et en introduisant un cadre bayésien à l'aide de distributions a priori; 2) par méthode des moments généralisée; 3) par méthode des moments simulés; et enfin, 4) par inférence indirecte. Des simulations de Monte-Carlo montrent que toutes ces méthodes produisent des estimateurs généralement bons sous l'hypothèse nulle. Cependant, leurs efficacités statistiques et computationnelles diffèrent de façon substantielle, en particulier lorsque l'on se place dans de petits échantillons comme ceux généralement disponibles pour estimer ce type de modèle. Dans ce cas, les méthodes des moments semblent être les plus robustes à une mauvaise spécification du modèle. Enfin, nous discutons, de manière exhaustive, de l'implication de la singularité stochastique des modèles EGDS pour chaque méthode d'estimation.
[ "DSGE models", "estimation methods", "Monte Carlo analysis", "stochastic sin- gularity", "Bayesian priors", "modèles EGDS", "méthodes d'estimation", "simulations de Monte-Carlo", "singularité stochastique", "cadre bayésien" ]
en , fr
513
Nonlinear Monetary Policy Rules: Some New Evidence for the U.S.
This paper derives optimal monetary policy rules in setups where certainty equivalence does not hold because either central bank preferences are not quadratic, and/or the aggregate supply relation is nonlinear. Analytical results show that these features lead to sign and size asymmetries, and nonlinearities in the policy rule. Reduced-form estimates indicate that US monetary policy can be characterized by a nonlinear policy rule after 1983, but not before 1979. This finding is consistent with the view that the Fed's inflation preferences during the Volcker-Greenspan regime differ considerably from the ones during the Burns-Miller regime. Dans cet article, nous dérivons les règles de politique monétaire optimales dans des cadres où \"l'équivalence certaine\" n'est pas satisfaite. On trouve des cas de ce type lorsque, par exemple, les préférences de la banque centrale ne sont pas quadratiques ou lorsque la relation d'offre agrégée n'est pas linéaire. Les résultats théoriques semblent montrer qu'ils peuvent conduire à des asymétries de signe et de niveau et à des nonlinéarités dans la règle de politique. À partir d'estimations de la forme réduite sur données américaines, nous trouvons que la politique monétaire des États-Unis peut être caractérisée par une règle décisionnelle non linéaire après 1983, mais que ce n'est pas le cas avant 1979. Ces résultats reflètent bien la nette différence d'attitude de la Réserve Fédérale face à l'inflation durant les périodes Volcker-Greenspan et Burns-Miller.
[ "nonlinear Taylor rules", "inflation targets", "asymmetric preferences", "non- linear Phillips curve", "monetary policy", "règles de Taylor non linéaires", "objectifs d'inflation", "préférences asymétriques", "courbe de Phillips non linéaire", "politique monétaire" ]
en , fr
514
Deprivation and Social Exclusion
Social exclusion manifests itself in the lack of an individual’s access to functionings as compared to other members of society. Thus, the concept is closely related to deprivation. We view deprivation as having two basic determinants: the lack of identification with other members of society and the aggregate alienation experienced by an agent with respect to those with fewer functioning failures. We use an axiomatic approach to characterize classes of deprivation and exclusion measures and apply some of them to EU data for the period from 1994 to 2000.
[ "Social Exclusion", "Deprivation", "Equity" ]
en
515
Temporary Natural Resource Cartels
We analyze the behavior of a nonrenewable resource cartel that anticipates being forced, at some date in the future, to break-up into an oligopolistic market in which its members will then have to compete as rivals. Under reasonable assumptions about the value function of the individual firms in the oligopolistic equilibrium that follows the break-up, we show that the cartel will then produce more over the same interval of time than it would if there were no threat of dissolution, and that its rate of extraction is a decreasing function of the cartel's life; that there are circumstances under which the cartel will attach a negative marginal value to the resource stocks, in which case the rate of depletion will be increasing over time during the cartel phase; that, for a given date of dissolution, the equilibrium stocks allocated to the post-cartel phase will increase as a function of the total initial stocks, whereas those allocated to the cartel phase will increase at first, but begin decreasing beyond some level of the total initial stocks.
[ "Cartels", "dissolution", "nonrenewable natural resources" ]
en
517
The Macroeconomic Effects of Infrequent Information with Adjustment Costs
In the last decade, the potential macroeconomic effects of intermittent large adjustments in microeconomic decision variables such as prices, investment, consumption of durables or employment – a behavior which may be justified by the presence of kinked adjustment costs – have been studied in models where economic agents continuously observe the optimal level of their decision variable. In this paper, we develop a simple model which introduces infrequent information in a kinked adjustment cost model by assuming that agents do not observe continuously the frictionless optimal level of the control variable. Periodic releases of macroeconomic statistics or dividend announcements are examples of such infrequent information arrivals. We first solve for the optimal individual decision rule, that is found to be both state and time dependent. We then develop an aggregation framework to study the macroeconomic implications of such optimal individual decision rules. Our model has the distinct characteristic that a vast number of agents tend to act together, and more so when uncertainty is large. The average effect of an aggregate shock is inversely related to its size and to aggregate uncertainty. We show that these results differ substantially from the ones obtained with full information adjustment cost models. Au cours de la dernière décennie, plusieurs articles on étudié les effets macroéconomiques que pouvaient entraîner des ajustements importants et intermittents de variables de décision microéconomiques telles que les prix, les investissements, la consommation de biens durables ou l’emploi, un comportement qui peut se justifier par la présence de coudes dans les fonctions de coûts d’ajustement. Dans ces modèles, les agents observent continuellement le niveau optimal de leur variable de décision. Dans le présent article, nous développons un modèle similaire mais où justement les agents n’observent pas continuellement ce niveau optimal car l’information arrive par intermittence comme dans le cas des publications de statistiques économiques ou des annonces de dividendes. Nous trouvons d’abord la règle optimale de décision individuelle, qui dépend à la fois du temps et de l’état de la nature. Nous développons ensuite un cadre d’agrégation afin d’étudier les implications macroéconomiques de ces règles optimales de décision individuelle. Une caractéristique distinctive de notre modèle est qu’un grand nombre d’agents tendent à agir en même temps, et ce, d’autant plus que l’incertitude est importante. L’effet moyen d’un choc agrégé est en relation inverse avec l’amplitude du choc et l’incertitude agrégée. Nous montrons que ces effets sont nettement différents des effets obtenus avec des modèles à coûts d’ajustement avec information complète.
[ "macroeconomic effects of infrequent information", "adjustment costs", "state dependent and time dependent rules", "effets macroéconomiques d’information intermittente", "coûts d’ajustement", "règles de décision optimales avec coûts d’ajustement" ]
en , fr
520
Interpersonal Comparisons of Well-Being
This paper, which is to be published as a chapter in the Oxford Handbook of Political Economy, provides an introduction to social-choice theory with interpersonal comparisons of well-being. We argue that the most promising route of escape from the negative conclusion of Arrow’s theorem is to use a richer informational environment than ordinal measurability and the absence of interpersonal comparability of well-being. We discuss welfarist social evaluation (which requires that the levels of individual well-being in two alternatives are the only determinants of their social ranking) and present characterizations of some important social-evaluation orderings.
[ "Arrow’s theorem", "social choice with interpersonal utility comparisons", "welfarism" ]
en
523
Aumann-Shapley Pricing : A Reconsideration of the Discrete Case
We reconsider the following cost-sharing problem: agent i = 1,...,n demands a quantity xi of good i; the corresponding total cost C(x1,...,xn) must be shared among the n agents. The Aumann-Shapley prices (p1,...,pn) are given by the Shapley value of the game where each unit of each good is regarded as a distinct player. The Aumann-Shapley cost-sharing method assigns the cost share pixi to agent i. When goods come in indivisible units, we show that this method is characterized by the two standard axioms of Additivity and Dummy, and the property of No Merging or Splitting: agents never find it profitable to split or merge their demands.
[ "Cost sharing", "Aumann-Shapley pricing", "merging", "splitting" ]
en
525
Reference Groups and Individual Deprivation
We provide an axiomatization of Yitzhaki’s index of individual deprivation. Our result differs from an earlier characterization due to Ebert and Moyes in the way the reference group of an individual is represented in the model. Ebert and Moyes require the index to be defined for all logically possible reference groups, whereas we employ the standard definition of the reference group as the set of all agents in a society. As a consequence of this modification, some of the axioms used by Ebert and Moyes can no longer be applied and we provide alternative formulations.
[ "Income distribution", "deprivation", "equity" ]
en
526
The Ghost in the Machine: Inferring Machine-Based Strategies from Observed Behavior
We introduce a procedure to infer the repeated-game strategies that generate actions in experimental choice data. We apply the technique to set of experiments where human subjects play a repeated Prisoner's Dilemma. The technique suggests that two types of strategies underly the data.
[ "strategy inference", "Bayesian methods", "experimental economics", "Prisoner's Dilemma", "repeated games" ]
en
528
Relative Uncertainty and Additively Representable Set Rankings
This paper proposes a definition of relative uncertainty aversion for decision models under complete uncertainty. It is shown that, for a large class of decision rules characterized by a set of plausible axioms, the new criterion yields a complete ranking of those rules with respect to the relative degree of uncertainty aversion they represent. In addition, we address a combinatorial question that arises in this context, and we examine conditions for the additive representability of our rules.
[ "Choice under complete uncertainty", "uncertainty aversion", "additive representability" ]
en
529
Nearly Serial Sharing Methods
A group of agents participate in a cooperative enterprise producing a single good. Each participant contributes a particular type of input; output is nondecreasing in these contributions. How should it be shared? We analyze the implications of the axiom of Group Monotonicity: if a group of agents simultaneously decrease their input contributions, not all of them should receive a higher share of output. We show that in combination with other more familiar axioms, this condition pins down a very small class of methods, which we dub nearly serial.
[ "surplus sharing", "cost sharing", "group monotonicity", "serial method" ]
en
531
Economic Development under Alternative Trade Regimes
How does openness affect economic development? This question is answered in the context of a dynamic general equilibrium model of the world economy, where countries have technological differences that are both sector-neutral and specific to the investment goods sector. Relative to a benchmark case of trade in credit markets only, consider (i) a complete restriction of trade, and (ii) a full liberalization of trade. The first change decreases the cross-sectional dispersion of incomes only slightly, and produces a relatively small welfare loss. The second change, instead, decreases dispersion by a significant amount, and produces a very large welfare gain.
[ "Economic Development", "International Trade", "Investment-Specific Technology", "Quantitative Dynamic General Equilibrium", "Incomplete Markets" ]
en
532
Monte Carlo Tests with Nuisance Parameters: A General Approach to Finite-Sample Inference and Nonstandard Asymptotics
The technique of Monte Carlo (MC) tests [Dwass (1957), Barnard (1963)] provides an attractive method of building exact tests from statistics whose finite sample distribution is intractable but can be simulated (provided it does not involve nuisance parameters). We extend this method in two ways: first, by allowing for MC tests based on exchangeable possibly discrete test statistics; second, by generalizing the method to statistics whose null distributions involve nuisance parameters (maximized MC tests, MMC). Simplified asymptotically justified versions of the MMC method are also proposed and it is shown that they provide a simple way of improving standard asymptotics and dealing with nonstandard asymptotics (e.g., unit root asymptotics). Parametric bootstrap tests may be interpreted as a simplified version of the MMC method (without the general validity properties of the latter).
[ "Monte Carlo test", "maximized monte Carlo test", "finite sample test", "exact test", "nuisance parameter", "bounds", "bootstrap", "parametric bootstrap", "simulated annealing", "asymptotics", "nonstandard asymptotic distribution" ]
en
533
Exact Multivariate Tests of Asset Pricing Models with Stable Asymmetric Distributions
In this paper, we propose exact inference procedures for asset pricing models that can be formulated in the framework of a multivariate linear regression (CAPM), allowing for stable error distributions. The normality assumption on the distribution of stock returns is usually rejected in empirical studies, due to excess kurtosis and asymmetry. To model such data, we propose a comprehensive statistical approach which allows for alternative - possibly asymmetric - heavy tailed distributions without the use of large-sample approximations. The methods suggested are based on Monte Carlo test techniques. Goodness-of-fit tests are formally incorporated to ensure that the error distributions considered are empirically sustainable, from which exact confidence sets for the unknown tail area and asymmetry parameters of the stable error distribution are derived. Tests for the efficiency of the market portfolio (zero intercepts) which explicitly allow for the presence of (unknown) nuisance parameter in the stable error distribution are derived. The methods proposed are applied to monthly returns on 12 portfolios of the New York Stock Exchange over the period 1926-1995 (5 year subperiods). We find that stable possibly skewed distributions provide statistically significant improvement in goodness-of-fit and lead to fewer rejections of the efficiency hypothesis.
[ "capital asset pricing model", "mean-variance efficiency", "non-normality", "multivariate linear regression", "stable distribution", "skewness", "kurtosis", "asymmetry", "uniform linear hypothesis", "exact test", "Monte Carlo test", "nuisance parameter", "specification test", "diagnostics" ]
en
534
Distribution-Free Bounds for Serial Correlation Coefficients in Heteroskedastic Symmetric Time Series
We consider the problem of testing whether the observations X1, ..., Xn of a time series are independent with unspecified (possibly nonidentical) distributions symmetric about a common known median. Various bounds on the distributions of serial correlation coefficients are proposed: exponential bounds, Eaton-type bounds, Chebyshev bounds and Berry-Esséen-Zolotarev bounds. The bounds are exact in finite samples, distribution-free and easy to compute. The performance of the bounds is evaluated and compared with traditional serial dependence tests in a simulation experiment. The procedures proposed are applied to U.S. data on interest rates (commercial paper rate).
[ "autocorrelation", "serial dependence", "nonparametric test", "distribution-free test", "heterogeneity", "heteroskedasticity", "symmetric distribution", "robustness", "exact test", "bound", "exponential bound", "large deviations", "Chebyshev inequality", "Berry-Esséen", "interest rates" ]
en
536
Tests multiples simulés et tests de normalité basés sur plusieurs moments dans les modèles de régression
Cet article illustre l’applicabilité des méthodes de rééchantillonnage dans le cadre des tests multiples (simultanés), pour divers problèmes économétriques. Les hypothèses simultanées sont une conséquence habituelle de la théorie économique, de sorte que le contrôle de la probabilité de rejet de combinaisons de tests est un problème que l’on rencontre fréquemment dans divers contextes économétriques et statistiques. À ce sujet, on sait que le fait d’ignorer le caractère conjoint des hypothèses multiples peut faire en sorte que le niveau de la procédure globale dépasse considérablement le niveau désiré. Alors que la plupart des méthodes d’inférence multiple sont conservatrices en présence de statistiques non-indépendantes, les tests que nous proposons visent à contrôler exactement le niveau de signification. Pour ce faire, nous considérons des critères de test combinés proposés initialement pour des statistiques indépendantes. En appliquant la méthode des tests de Monte Carlo, nous montrons comment ces méthodes de combinaison de tests peuvent s’appliquer à de tels cas, sans recours à des approximations asymptotiques. Après avoir passé en revue les résultats antérieurs sur ce sujet, nous montrons comment une telle méthodologie peut être utilisée pour construire des tests de normalité basés sur plusieurs moments pour les erreurs de modèles de régression linéaires. Pour ce problème, nous proposons une généralisation valide à distance finie du test asymptotique proposé par Kiefer et Salmon (1983) ainsi que des tests combinés suivant les méthodes de Tippett et de Pearson-Fisher. Nous observons empiriquement que les procédures de test corrigées par la méthode des tests de Monte Carlo ne souffrent pas du problème de biais (ou sous-rejet) souvent rapporté dans cette littérature – notamment contre les lois platikurtiques – et permettent des gains sensibles de puissance par rapport aux méthodes combinées usuelles.
[ "régression linéaire", "test de normalité", "ajustement", "asymétrie", "aplatissement", "moments d’ordre supérieur", "Monte Carlo", "test induit", "combinaison de tests", "inférence simultanée", "Tippett", "Fisher", "Pearson", "SURE", "test d’hétéroscédasticité" ]
fr
537
Consistent House Allocation
In practice we often face the problem of assigning indivisible objects (e.g., schools, housing, jobs, offices) to agents (e.g., students, homeless, workers, professors) when monetary compensations are not possible. We show that a rule that satisfies consistency, strategy-proofness, and efficiency must be an efficient generalized priority rule; i.e. it must adapt to an acyclic priority structure, except -maybe- for up to three agents in each object's priority ordering.
[ "indivisible objects", "priority structure", "consistency", "strategy-proofness" ]
en
538
Asymptotic Distribution of a Simple Linear Estimator for VARMA Models in Echelon Form
In this paper, we study the asymptotic distribution of a simple two-stage (Hannan-Rissanen-type) linear estimator for stationary invertible vector autoregressive moving average (VARMA) models in the echelon form representation. General conditions for consistency and asymptotic normality are given. A consistent estimator of the asymptotic covariance matrix of the estimator is also provided, so that tests and confidence intervals can easily be constructed.
[ "Time series", "VARMA", "stationary", "invertible", "echelon form", "estimation", "asymptotic normality", "bootstrap", "Hannan-Rissanen" ]
en
539
Dynamic Measures of Individual Deprivation
We introduce and axiomatize a one-parameter class of individual deprivation measures. Motivated by a suggestion of Runciman, we modify Yitzhaki’s index by multiplying it by a function that is interpreted as measuring the part of deprivation generated by an agent’s observation that others in its reference group move on to a higher level of income than itself. The parameter reflects the relative weight given to these dynamic considerations, and the standard Yitzhaki index is obtained as a special case. In addition, we characterize more general classes of measures that pay attention to this important dynamic aspect of deprivation.
[ "Deprivation", "Equity", "Individual Well-Being" ]
en
540
Von Neumann-Morgenstern Stable Sets in Matching Problems
The following properties of the core of a one well-known: (i) the core is non-empty; (ii) the core is a lattice; and (iii) the set of unmatched agents is identical for any two matchings belonging to the core. The literature on two-sided matching focuses almost exclusively on the core and studies extensively its properties. Our main result is the following characterization of (von Neumann-Morgenstern) stable sets in one-to-one matching problem only if it is a maximal set satisfying the following properties : (a) the core is a subset of the set; (b) the set is a lattice; (c) the set of unmatched agents is identical for any two matchings belonging to the set. Furthermore, a set is a stable set if it is the unique maximal set satisfying properties (a), (b) and (c). We also show that our main result does not extend from one-to-one matching problems to many-to-one matching problems.
[ "Matching Problem", "Von Neumann-Morgenstern Stable Sets" ]
en
541
Finite-Sample Simulation-Based Inference in VAR Models with Applications to Order Selection and Causality Testing
Statistical tests in vector autoregressive (VAR) models are typically based on large-sample approximations, involving the use of asymptotic distributions or bootstrap techniques. After documenting that such methods can be very misleading even with fairly large samples, especially when the number of lags or the number of equations is not small, we propose a general simulation-based technique that allows one to control completely the level of tests in parametric VAR models. In particular, we show that maximized Monte Carlo tests [Dufour (2002)] can provide provably exact tests for such models, whether they are stationary or integrated. Applications to order selection and causality testing are considered as special cases. The technique developed is applied to quarterly and monthly VAR models of the U.S. economy, comprising income, money, interest rates and prices, over the period 1965-1996.
[ "Vector autoregression", "VAR", "exact test", "Monte Carlo test", "maximized Monte Carlo test", "bootstrap", "Granger causality", "order selection", "nonstationary model", "macroeconomics", "money and income", "interest rate", "inflation" ]
en
542
Rational Choice on Arbitrary Domains: A Comprehensive Treatment
The rationalizability of a choice function on arbitrary domains by means of a transitive relation has been analyzed thoroughly in the literature. Moreover, characterizations of various versions of consistent rationalizability have appeared in recent contributions. However, not much seems to be known when the coherence property of quasi-transitivity or that of P-acyclicity is imposed on a rationalization. The purpose of this paper is to fill this significant gap. We provide characterizations of all forms of rationalizability involving quasi-transitive or P-acyclical rationalizations on arbitrary domains.
[ "Rational Choice", "Quasi-Transitivity", "P-Acyclicity" ]
en
543
Choosing Wisely: The Natural Multi-Bidding Mechanism
Pérez-Castrillo and Wettstein (2002) propose a multi-bidding mechanism to determine a winner from a set of possible projects. The winning project is implemented and its surplus is shared among the agents. In the multi-bidding mechanism each agent announces a vector of bids, one for each possible project, that are constrained to sum up to zero. In addition, each agent chooses a favorite a object which is used as a tie-breaker if several projects receive the same highest aggregate bid. Since more desirable projects receive larger bids, it is natural to consider the multi-bidding mechanism without the announcement of favorite projects. We show that the merits of the multi-bidding mechanism appear not to be robust to this natural simplification. Specifically, a Nash equilibrium exists if and only if there are at least two individually optimal projects and all individually optimal projects are efficient.
[ "(natural) multi-bidding mechanism", "existence", "efficiency" ]
en
544
On Limits to the Use of Linear Markov Strategies in Common Property Natural Resource Games
We derive conditions that must be satisfied by the primitives of the problem in order for an equilibrium in linear Markov strategies to exist in some common property natural resource differential games. These conditions impose restrictions on the admissible form of the natural growth function, given a benefit function, or on the admissible form of the benefit function, given a natural growth function.
[ "common property", "natural resources", "differential games", "linear Markov strategies" ]
en
545
The Transmission of Monetary Policy in a Multi-Sector Economy
This paper constructs and estimates a sticky-price, Dynamic Stochastic General Equilibrium model with heterogenous production sectors. Sectors differ in price stickiness, capital-adjustment costs and production technology, and use output from each other as material and investment inputs following an Input-Output Matrix and Capital Flow Table that represent the U.S. economy. By relaxing the standard assumption of symmetry, this model allows different sectoral dynamics in response to monetary policy shocks. The model is estimated by Simulated Method of Moments using sectoral and aggregate U.S. time series. Results indicate 1) substantial heterogeneity in price stickiness across sectors, with quantitatively larger differences between services and goods than previously found in micro studies that focus on final goods alone, 2) a strong sensitivity to monetary policy shocks on the part of construction and durable manufacturing, and 3) similar quantitative predictions at the aggregate level by the multi-sector model and a standard model that assumes symmetry across sectors.
[ "Multi-sector models", "sticky-price DGSE models", "monetary policy" ]
en
548
Why Have Aggregate Skilled Hours Become So Cyclical Since the Mid-1980's?
This paper documents and discusses a dramatic change in the cyclical behavior of aggregate hours worked by individuals with a college degree (skilled workers) since the mid-1980’s. Using the CPS outgoing rotation data set for the period 1979:1-2003:4, we find that the volatility of aggregate skilled hours relative to the volatility of GDP has nearly tripled since 1984. In contrast, the cyclical properties of unskilled hours have remained essentially unchanged. We evaluate the extent to which a simple supply/demand model for skilled and unskilled labor with capital-skill complementarity in production can help explain this stylized fact. Within this framework, we identify three effects which would lead to an increase in the relative volatility of skilled hours: (i) a reduction in the degree of capital-skill complementarity, (ii) a reduction in the absolute volatility of GDP (and unskilled hours), and (iii) an increase in the level of capital equipment relative to skilled labor. We provide empirical evidence in support of each of these effects. Our conclusion is that these three mechanisms can jointly explain about sixty percent of the observed increase in the relative volatility of skilled labor. The reduction in the degree of capital-skill complementarity contributes the most to this result.
[ "Macroeconomics", "Business Cycles", "Volatility", "Skilled Hours", "Skill Premium", "Capital- Skill Complementarity" ]
en
552
Social Choice: Recent Developments
In the past quarter century, there has been a dramatic shift of focus in social choice theory, with structured sets of alternatives and restricted domains of the sort encountered in economic problems coming to the fore. This article provides an overview of some of the recent contributions to four topics in normative social choice theory in which economic modelling has played a prominent role: Arrovian social choice theory on economic domains, variable-population social choice, strategy-proof social choice, and axiomatic models of resource allocation.
[ "Social Choice", "Arrow’s Theorem", "Gibbard–Satterthwaite Theorem", "Strategy-proofness", "Fairness", "Axiomatic Models of Resource Allocation" ]
en
553
The Dynamic (In)efficiency of Monetary Policy by Committee
This paper develops a model where the value of the monetary policy instrument is selected by a heterogenous committee engaged in a dynamic voting game. Committee members differ in their institutional power and, in certain states of nature, they also differ in their preferred instrument value. Preference heterogeneity and concern for the future interact to generate decisions that are dynamically ineffcient and inertial around the previously-agreed instrument value. This model endogenously generates autocorrelation in the policy variable and provides an explanation for the empirical observation that the nominal interest rate under the central bank’s control is infrequently adjusted.
[ "Committees", "status-quo bias", "interest-rate smoothing", "dynamic voting" ]
en
554
Consistent Relations
Consistency, a natural weakening of transitivity introduced in a seminal contribution by Suzumura (1976b), has turned out to be an interesting and promising concept in a variety of areas within economic theory. This paper summarizes its recent applications and provides some new observations in welfarist social choice and in population ethics. In particular, it is shown that the conclusion of the welfarism theorem remains true if transitivity is replaced by consistency and that an impossibility result in variable-population social-choice theory turns into a possibility if transitivity is weakened to consistency.
[ "Consistency", "Ordering Extensions", "Rationalizability", "Welfarism", "Population Ethics" ]
en
555
Respecting Priorities when Assigning Students to Schools
We consider the problem of assigning students to schools on the basis of priorities. Students are allowed to have equal priority at a school. We characterize the efficient rules which weakly/strongly respect students’ priorities. When priority orderings are not strict, it is not possible to simply break ties in a fixed manner. All possibilities of resolving the indifferences need to be considered. Neither the deferred acceptance algorithm nor the top trading cycle algorithm successfully solve the problem of efficiently assigning the students to schools whereas a modified version of the deferred acceptance algorithm might. In this version tie breaking depends on students’ preferences.
[ "School Choice", "Equal Priority", "Tie Breaking" ]
en
556
Public Decisions: Solidarity and the Status Quo
A public decision model specifies a fixed set of alternatives A, a variable population, and a fixed set of admissible preferences over A, common to all agents. We study the implications, for any social choice function, of the principle of solidarity, in the class of all such models. The principle says that when the environment changes, all agents not responsible for the change should all be affected in the same direction: either all weakly win, or all weakly lose. We consider two formulations of this principle: population-monotonicity (Thomson, 1983); and replacement-domination (Moulin, 1987). Under weak additional requirements, but regardless of the domain of preferences considered, each of the two conditions implies (i) coalition-strategy-proofness; (ii) that the choice only depends on the set of preferences that are present in the society and not on the labels of agents, nor on the number of agents having a particular preference; (iii) that there exists a status quo point, i.e. an alternative always weakly Pareto-dominated by the alternative selected by the rule. We also prove that replacement-domination is generally at least as strong as population-monotonicity.
[ "Population-monotonicity", "replacement-domination", "solidarity", "strategy-proofness", "coalition-strategy-proofness", "public decision", "status quo" ]
en
557
Solidarity in Choosing a Location on a Cycle
We study the implications of two solidarity conditions on the efficient location of a public good on a cycle, when agents have single-peaked, symmetric preferences. Both conditions require that when circumstances change, the agents not responsible for the change should all be affected in the same direction: either they all gain or they all loose. The first condition, population-monotonicity, applies to arrival or departure of one agent. The second, replacement-domination, applies to changes in the preferences of one agent. Unfortunately, no Pareto-efficient solution satisfies any of these properties. However, if agents’ preferred points are restricted to the vertices of a small regular polygon inscribed in the circle, solutions exist. We characterize them as a class of efficient priority rules.
[ "Location Theory", "Cycle", "Efficiency", "Population-monotonicity", "Replacement-Domination", "Single-Peaked" ]
en
558
Bundling under the Threat of Parallel Trade
This paper examines the use of bundling by a firm that sells in two national markets and faces entry by parallel traders. The firm can bundle its main product, - a tradable good- with a non-traded service. It chooses between the strategies of pure bundling, mixed bundling and no bundling. The paper shows that in the low-price country the threat of grey trade elicits a move from mixed bundling, or no bundling, towards pure bundling. It encourages a move from pure bundling towards mixes bundling or no bundling in the high-price country. The set of parameter values for which the profit maximizing strategy is not to supply the low price country is smaller than in the absence of bundling. The welfare effects of deterrence of grey trade are not those found in conventional models of price arbitrage. Some consumers in the low-price country may gain from the threat of entry by parallel traders although they pay a higher price. This is due to the fact that the firm responds to the threat of arbitrageurs by increasing the amount of services it puts in the bundle targeted at consumers in that country. Similarly, the threat of parallel trade may affect some consumers in the hight-price country adversely.
[ "parallel trade", "bundling", "arbitrage" ]
en
570
Étude du rôle des professionnels de l'information dans les systèmes d'information Web du Gouvernement fédéral canadien
Les professionnels de l'information traversent actuellement une période de redéfinition de leur profession provoquée par la transformation de l'information et des processus informationnels vers un mode de plus en plus électronique. Les systèmes d'information Web (SIW) — c'est-à-dire des systèmes d'information basés sur les technologies Web tels que les sites Web externes, les intranets, les systèmes de commerce électronique et les extranets — font partie des technologies à l'origine de ces changements. Ces systèmes sont de plus en plus adoptés par les organisations et, en particulier, par les gouvernements dans leur volonté de devenir électroniques. Le gouvernement fédéral canadien est reconnu comme un des plus innovateurs en matière de SIW et doit adapter son environnement informationnel, dont font partie les professionnels de l'information, à l'introduction de ces systèmes. Malgré l'innovation que les SIW représentent, peu d'études empiriques ont été menées pour identifier quels sont les intervenants nécessaires à leur mise en place. Aucun consensus n'émerge de la littérature quant à la nature de l'intervention des professionnels de l'information dans ces systèmes. Cette recherche vise à accroître les connaissances sur l'intervention des professionnels de l'information dans les SIW. Pour les besoins de cette recherche, les professionnels de l'information sont définis comme les personnes ayant une maîtrise en bibliothéconomie et sciences de l'information ou toute autre formulation équivalente. Cette recherche étudie quatre questions de recherche qui portent sur : (1) les rôles des professionnels de l'information décrits dans les politiques d'information pan-gouvernementales liées aux SIW ainsi que ceux des autres intervenants mentionnés en lien direct avec les SIW, (2) les types de SIW dans lesquels les professionnels de l'information interviennent, (3) les tâches des professionnels de l'information dans ces SIW, et (4) les autres intervenants qui travaillent dans ces systèmes. Une approche qualitative a été utilisée pour répondre à ces questions et implique quatre modes de collecte des données : (1) des entrevues en profondeur en personne avec des professionnels de l'information impliqués dans des SIW, (2) une analyse des SIW où interviennent ces professionnels de l'information, (3) une analyse des politiques pan-gouvernementales liées aux SIW, et (4) la documentation pertinente. Les professionnels de l'information rencontrés proviennent de sept ministères du gouvernement fédéral canadien, ministères retenus pour leur implication dans les SIW. Les résultats indiquent que les professionnels de l'information rencontrés interviennent dans les SIW aux niveaux micro et macro, c'est-à-dire dans des SIW spécifiques ainsi que globalement au niveau de l'ensemble des SIW d'un ministère ou du gouvernement fédéral. Ces professionnels de l'information sont impliqués dans toutes les dimensions et les phases de développement des SIW. Les tâches liées au contenu sont prédominantes mais les tâches technologiques sont aussi très présentes. Trois variables se dégagent de cette étude qui ont un impact sur l'intervention des professionnels de l'information dans les SIW : les types de SIW, les types de postes occupés par les professionnels de l'information et les types de gouvernance. Information professionals are rethinking their role, which is being challenged by the transformation to the electronic environment of information and information processes. Web information systems (WIS) — that is, information systems based on Web technologies such as external Web sites, intranets, extranets and electronic commerce systems — are one of the technologies that is bringing these changes about. Organizations are making massive investments in WIS. Governments are implementing WIS as they move toward e-government. The Canadian federal government is one of the most innovative in term of WIS, and has to adapt its information environment, including information professionals, to cope with these systems. Despite the innovative character of WIS, few empirical studies were found which try to gain a better understanding of the players needed to implement such systems. No consensus seems to exist in the literature on the role of the information professional in WIS. This study aims at increasing knowledge of the roles information professionals play in WIS. In this study, an information professional is someone with a graduate degree in library and information science or equivalent. The study examines four research questions: (1) the role of information professionals described in the WIS-related cross-governmental information policies as well as those of the other players directly related to WIS, (2) the types of WIS in which information professionals are involved, (3) the WIS-related tasks of information professionals, and (4) other players involved in WIS. A qualitative approach has been used based on four data collection techniques: (1) in-depth face-to-face interviews with information professionals involved in WIS, (2) an analysis of the WIS in which those information professionals are involved, (3) an analysis of the WIS-related pan-governmental information policies, and (4) relevant evidence in the existing documentation. The information professionals interviewed are from seven departments of the Canadian federal government. These departments were chosen because of their work in the area of WIS. The results show that information professionals are working with WIS at the micro and macro levels, involved with specific WIS as well as with all the WIS of a department or of the government. The information professionals are involved in all the dimensions and the development phases of WIS. Their content-related tasks on the WIS are predominant but the technological tasks are also very present. The study found that three variables impact on the role of information professionals in WIS: types of WIS, types of jobs of information professionals, and types of governance.
[ "professionnel de l'information", "système d'information Web", "gouvernement fédéral canadien", "information professional", "Web information system", "Canadian federal government" ]
fr , en
571
Économie du document scientifique - Pour des archithécaires
Entre l'adaptation rapide des éditeurs au numérique, la popularité du libre accès et les hésitations des chercheurs, l'explosion du Web 2.0, l'économie du don et l'insolente vitalité des moteurs, une économie de l'édition numérique scientifique se reconfigure. Les institutions documentaires doivent, de leur côté, renouveler leur positionnement et repenser leurs savoir-faire.
[ "Document numérique", "Document scientifique", "Économie de l'édition" ]
fr
573
Les pratiques pédagogiques exemplaires en sciences de l'information : 21 fiches annotées
Ce rapport présente les résultats de projets d'intégration pédagogique réalisés dans le cadre du Comité local d'intégration pédagogique (CLIP) de l'École de bibliothéconomie et des sciences de l'information (EBSI) de l'Université de Montréal. Cet inventaire des pratiques pédagogiques exemplaires (best practices) en sciences de l'information (SI) fait partie du projet « Banque de ressources pédagogiques en sciences de l'information » ayant pour but la constitution d’un portail mettant à la disposition des enseignants en SI une variété de ressources pédagogiques actuellement dispersées et donc difficilement exploitables. La première partie de ce document présente un état de la question sur les pratiques pédagogiques exemplaires en SI, réalisé à partir des deux composantes suivantes : une revue de littérature sur les pratiques pédagogiques en SI, et une enquête menée auprès des enseignants de l’EBSI. La seconde partie du document est constituée de 21 fiches annotées sur les pratiques pédagogiques exemplaires en SI.
[ "pratiques pédagogiques exemplaires", "enseignement", "sciences de l'information", "bibliothéconomie", "archivistique" ]
fr
575
Analyse des pratiques de lecture sur livres électroniques chez les étudiants universitaires
La lecture numérique prend de plus en plus de place dans l'espace global de la lecture des étudiants. Bien que les premiers systèmes de lecture numérique, communément appelés livres électroniques, datent déjà de plusieurs années, les opinions quant à leur potentiel divergent encore. Une variété de contenus universitaires numériques s’offre aujourd’hui aux étudiants, entraînant par le fait même une multiplication d'usages ainsi qu'une variété de modes de lecture. Les systèmes de lecture numérique font maintenant partie intégrante de l’environnement électronique auquel les étudiants ont accès et méritent d’être étudiés plus en profondeur. Maintes expérimentations ont été menées dans des bibliothèques publiques et dans des bibliothèques universitaires sur les livres électroniques. Des recherches ont été conduites sur leur utilisabilité et sur le degré de satisfaction des lecteurs dans le but d’en améliorer le design. Cependant, très peu d’études ont porté sur les pratiques de lecture proprement dites des universitaires (notamment les étudiants) et sur leurs perceptions de ces nouveaux systèmes de lecture. Notre recherche s’intéresse à ces aspects en étudiant deux systèmes de lecture numérique, une Tablet PC (dispositif nomade) et un système de livres-Web, NetLibrary (interface de lecture intégrée à un navigateur Web). Notre recherche étudie les pratiques de lecture des étudiants sur ces systèmes de lecture numérique. Elle est guidée par trois questions de recherche qui s’articulent autour (1) des stratégies de lecture employées par des étudiants (avant, pendant et après la lecture), (2) des éléments du système de lecture qui influencent (positivement ou négativement) le processus de lecture et (3) des perceptions des étudiants vis-à-vis la technologie du livre électronique et son apport à leur travail universitaire. Pour mener cette recherche, une approche méthodologique mixte a été retenue, utilisant trois modes de collecte de données : un questionnaire, des entrevues semi-structurées avec les étudiants ayant utilisé l’un ou l’autre des systèmes étudiés, et le prélèvement des traces de lecture laissées par les étudiants dans les systèmes, après usage. Les répondants (n=46) étaient des étudiants de l’Université de Montréal, provenant de trois départements (Bibliothéconomie & sciences de l’information, Communication et Linguistique & traduction). Près de la moitié d’entre eux (n=21) ont été interviewés. Parallèlement, les traces de lecture laissées dans les systèmes de lecture par les étudiants (annotations, surlignages, etc.) ont été prélevées et analysées. Les données des entrevues et des réponses aux questions ouvertes du questionnaire ont fait l'objet d'une analyse de contenu et un traitement statistique a été réservé aux données des questions fermées du questionnaire et des traces de lecture. Les résultats obtenus montrent que, d’une façon générale, l’objectif de lecture, la nouveauté du contenu, les habitudes de lecture de l’étudiant de même que les possibilités du système de lecture sont les éléments qui orientent le choix et l’application des stratégies de lecture. Des aides et des obstacles à la lecture ont été identifiés pour chacun des systèmes de lecture étudiés. Les aides consistent en la présence de certains éléments de la métaphore du livre papier dans le système de lecture numérique (notion de page délimitée, pagination, etc.), le dictionnaire intégré au système, et le fait que les systèmes de lecture étudiés facilitent la lecture en diagonale. Pour les obstacles, l’instrumentation de la lecture a rendu l’appropriation du texte par le lecteur difficile. De plus, la lecture numérique (donc « sur écran ») a entraîné un manque de concentration et une fatigue visuelle notamment avec NetLibrary. La Tablet PC, tout comme NetLibrary, a été perçue comme facile à utiliser mais pas toujours confortable, l’inconfort étant davantage manifeste dans NetLibrary. Les étudiants considèrent les deux systèmes de lecture comme des outils pratiques pour le travail universitaire, mais pour des raisons différentes, spécifiques à chaque système. L’évaluation globale de l’expérience de lecture numérique des répondants s’est avérée, dans l’ensemble, positive pour la Tablet PC et plutôt mitigée pour NetLibrary. Cette recherche contribue à enrichir les connaissances sur (1) la lecture numérique, notamment celle du lectorat universitaire étudiant, et (2) l’impact d’un système de lecture sur l’efficacité de la lecture, sur les lecteurs, sur l’atteinte de l’objectif de lecture, et sur les stratégies de lecture utilisées. Outre les limites de l’étude, des pistes pour des recherches futures sont présentées. Electronic reading is taking an increasing place in the total reading space of students. Although the first e-reading systems, commonly called electronic books or ebooks, have been existing for several years, opinions about their potential still diverge. A great variety of electronic scholarly content is now offered to students, and this involves a multiplication of uses as well as a variety of reading modes. E-reading systems are now an integral part of the electronic environment to which students have access and need to be studied in greater depth. Many experiments have been conducted in public libraries and academic libraries on electronic books. Research was undertaken on their usability and the degree of readers’ satisfaction in order to improve their design. However, few studies have tackled the reading practices of scholars (in particular students) and their perceptions of these new reading systems. Our research focuses on these aspects by studying two different e-reading systems, the Tablet PC (portable device) and a Web-books system, NetLibrary (reading interface integrated into a Web navigator). Our research investigates the reading practices of students on electronic books. It is guided by three research questions : (1) students’ reading strategies (before, during and after reading), (2) elements of the e-reading system which influence (positively or negatively) the reading process, and (3) students’ perceptions of the electronic book technology and its potential contribution to their scholarly work. For this research, a mixed-method approach was chosen, using three modes of data collection : a questionnaire, semi-structured interviews with students having used one e-reading system, and the capture of reading traces (annotations, highlights, etc.) left by students in the systems, after use. Respondents in our study (n=46) were students at the Université de Montréal, from three departments (Library & information sciences, Communications and Linguistics & translation). About half of them (n=21) were interviewed. Furthermore, reading traces left by students in the e-reading systems were analysed. Data from interviews and answers to open questions of the questionnaire were subjected to content analysis, while data from the closed questions of the questionnaire were summarized statistically. Our results show that, generally, the reading goal, the type and structure of the text, student’s reading practices and functionalities of the e-reading system are the elements which determine and orient the choice and use of reading strategies. Helps and barriers for the reading process were identified for each of the two e-reading systems under study. Help mostly consists in elements of the paper book metaphor in the electronic reading environment (delimited page, pagination, etc.), the integrated dictionary, and the fact that ereading systems facilitate text skimming. As for the barriers, reading instrumentation seems to affect text appropriation by the reader. Moreover, the electronic reading (eg. « on screen ») involved lack of concentration and visual tiredness, particularly with NetLibrary. Both the Tablet PC and NetLibrary were considered easy to use, although not always comfortable, discomfort with NetLibrary being more manifest. Students believe that the two e-reading systems are practical tools for their academic work, although for various reasons, specific to each reading system. Overall evaluation of the e-reading experience by respondents was judged positive for the Tablet PC, and somewhat mitigated for NetLibrary. This research contributes to the knowledge on : (1) electronic reading, in particular that of student readers, and (2) the impact of a reading system on reading effectiveness, on readers, on the achievement of a reading goal, and on reading strategies used. In addition to the limits of this study, suggestions for future research are presented.
[ "lecture numérique", "livres électroniques", "systèmes de lecture numérique", "étudiants universitaires", "stratégies de lecture", "pratiques de lecture", "perceptions des lecteurs", "NetLibrary", "Tablet PC", "electronic reading", "e-books", "e-reading systems", "university students", "reading strategies", "reading practices", "readers’ perceptions", "NetLibrary", "Tablet PC" ]
fr , en
581
La transformation du rôle de représentante d’aidantes familiales pendant l’hébergement de leur parent atteint de démence : une théorisation ancrée
L'hébergement en centre de soins de longue durée d'un parent âgé atteint de démence marque une transition pour les personnes qui occupent un rôle d’aidant familial principal. Ces personnes, principalement des femmes, poursuivent leur engagement après l’hébergement et souhaitent être impliquées dans les décisions concernant les soins offerts à leur parent. Souvent l'hébergement survient au moment où la personne âgée n'est plus en mesure, compte tenu de ses déficiences cognitives, d'exprimer clairement ses besoins; les aidantes accordent alors une place centrale au rôle de représentante de leur proche hébergé. Cette étude avait pour but d’expliquer la transformation du rôle de représentante chez des aidantes familiales dont le parent atteint de démence vit dans un centre d’hébergement et de soins de longue durée (CHSLD). La méthode qualitative de la théorisation ancrée a été retenue pour expliquer ce processus social. Les résultats obtenus reposent sur 14 entrevues en profondeur réalisées auprès de filles dont le parent atteint de démence était hébergé depuis plus de six mois dans un CHSLD. Ces aidantes ont été sélectionnées selon une procédure d’échantillonnage théorique et l’analyse des données a été réalisée à partir de la transcription intégrale des entrevues en suivant trois niveaux d'analyse, soit la codification ouverte, axiale et sélective. Une proposition théorique, générée par voie inductive, met en lumière trois processus intermédiaires interreliés expliquant la transformation du rôle de représentante pendant l’hébergement du proche : 1) l’intégration dans le milieu ; 2) l’évaluation de la qualité des soins et 3) le développement de la confiance envers le milieu d’hébergement. Plus précisément, les aidantes déploient différentes stratégies d’intégration dans le milieu d’hébergement, soit l’établissement de relations de réciprocité et d’une collaboration avec le personnel soignant, ainsi que l’utilisation d’un style de communication diplomatique. Parallèlement, elles évaluent la qualité des soins en trois étapes : jugement, pondération et action. Finalement, une relation de confiance avec les membres du personnel de l’établissement se développe en lien avec cinq facteurs spécifiques, soit les premières impressions, la comparaison avec d’autres CHSLD, l’intérêt démontré par le personnel envers le proche, le fait d’être entendue et prise au sérieux et la transparence du milieu d’hébergement. Ces trois processus contribuent au bien-être du parent hébergé et à celui de l’aidante. Le développement de la confiance étant associé aux deux autres processus intermédiaires ainsi qu’au bien-être de l’aidante, il est le processus central de la théorie contextuelle qui émerge de cette recherche. Cette étude contribue au développement des connaissances, notamment en fournissant plusieurs éléments inédits de compréhension du processus de transformation du rôle de représentante des aidantes familiales, de même que des pistes pour soutenir ces aidantes dont le parent, souffrant de démence, n’est plus en mesure de prendre des décisions. La théorie contextuelle proposée dans le cadre de cette étude constitue les prémices d’une théorie de niveau intermédiaire portant sur le rôle de représentant des aidants familiaux dans le contexte plus général du système de santé. Des études réalisées dans d’autres contextes de soins et auprès d’aidants de proches vulnérables ayant d’autres types d’affections sont ainsi recommandées. The institutionalization of an elderly parent, suffering from dementia, represents a transition for the primary family caregiver. Following the institutionalization, that person, mainly a female caregiver, pursues her engagement and wants to be involved in the parent’s care decision making. The admission often takes place when, due to cognitive impairment, the elderly is no longer able to clearly articulate his or her needs. At this point, family caregivers assume the central role of advocate, voicing the needs of their institutionalized relative. The purpose of this qualitative study was to explain, using a grounded theory approach, the social process of transformation of family caregivers’ advocacy role after nursing home admission of a relative suffering from dementia. Fourteen daughters, taking care of their cognitively impaired mother or father living in a nursing home for more than six months, were interviewed using a semi-structured interview guide. Participants were selected according to a theoretical sampling strategy. Transcribed verbatim was analyzed according to three analytical procedures: open coding, axial coding and selective coding. An inductively generated theoretical proposition reveals three interrelated processes to explain the transformation of the family caregiver advocacy role: 1) integration in the nursing home; 2) quality of care assessment; and 3) trust building. Caregivers use various strategies for their integration in the nursing home, namely establishing collaborative and reciprocal relationships with staff members and using a diplomatic style of communication. They simultaneously assess the quality of care following three steps: appraisal, valuation, and action. Finally, they build a trustful relationship with the health care team along five factors: the first impression, the comparison with other nursing homes, the interest shown by the staff towards the relative, the fact of being listened to and taken seriously by the staff, and the transparency of the institution. These three processes contribute to the well-being of the relative as well as with the well-being of the caregiver. As trust is related to most factors identified, it was identified as the core variable of the emergent theory proposed in this study. This study contributes to further our understanding of an important family role after nursing home admission of an elderly parent, i.e. the advocacy role. It suggests ways to support these caregivers whose cognitive impaired parent is not able to take his or her own decisions. The situation-specific theory proposed in this study lays the foundations of a middle-range theory on the advocacy role of family caregivers in the health care system. Further studies are needed in other care settings and with caregivers dealing with relatives affected by other ailments.
[ "Représentant", "Représentation", "Démence", "Aidants familiaux", "Hébergement", "Relations infirmière-famille", "Soins de longue durée", "Théorisation ancrée", "Advocate", "Advocacy", "Dementia", "Family caregivers", "Nursing home", "Nurse-family relationship", "Grounded theory", "Situation-specific theory", "Long-term care" ]
fr , en
598
Access 2005 Edmonton
Court rapport de la conférence Access 2005 tenue à Edmonton, Canada. Résumé des idées et tendances principales exposées. Brief report on the Access Conference 2005 held in Edmonton, Canada. Summary of key ideas and trends presented.
[ "Conférence Access", "Numérisation", "Consortia de bibliothèques", "Moteur de recherche fédérée", "Bibliothèques et technologie", "Access Conference", "Digitization", "Library consortia", "Federated search engine", "Libraries and technology" ]
fr , en
601
Les fils RSS en bibliothèques : pourquoi et comment?
La syndication de contenu, plus connue sous le nom de fils RSS, est une technologie qui permet d’une part, pour les producteurs d’information, de diffuser de façon pratique, hiérarchisée et automatisée des contenus (des « fils ou flux d’information ») et d’autre part, pour les consommateurs d’information, d’effectuer une veille informationnelle efficace et ciblée. De plus en plus utilisée sur Internet, cette technologie présente un réel potentiel pour les bibliothèques. La 1ère partie de l’activité fera le point sur ce qu’est cette technologie tandis que la seconde s’appliquera à présenter des pistes d’utilisation er de création de fils RSS en bibliothèque (veille, référence, développement de collection, diffusion de l’information).
[ "RSS", "Syndication de contenu", "XML", "Bibliothèques", "Diffusion d'information", "Canaux de communication" ]
fr
602
Guide à l'intention de la communauté enseignante et de recherche 2006
Guide des collections et services offerts à la communauté enseignante et de recherche par la Direction des bibliothèques de l'Université de Montréal.
[ "Guide", "Enseignants", "Chercheurs", "Bibliothèques de l'Université de Montréal" ]
fr
603
L’archivistique québécoise ne doit pas s’endormir sur ses lauriers
L'archivistique québécoise se porte bien. Mais il n'est pas sûr que demain la relève soit assurée. Il faut mesurer les besoins à venir et prendre les moyens pour qu'ils soient comblés.
[ "archivistique", "Québec" ]
fr
606
Etude des instabilités d'interface du procédé de coextrusion
Une étude expérimentale et numérique du procédé de coextrusion est abordée dans ce mémoire. On trouve essentiellement les étapes de la conception d'une filière de coextrusion comportant un hublot permettant d'observer l'écoulement en continu. L'expérience est menée avec cette filière afin d'observer des instabilités à l'interface polymère-polymère. Les deux polymères coextrudés sont du polypropylène (PP) et du polyetylène basse densité linèaire (PEBDL). Par contre, aucune instabilité n'a été observée à l'interface. Une étude de l'écoulement stationnaire a donc été menée par biréfringence. Une comparaison entre l'expérience et l'analyse numérique est effectuée en rapport avec la position de l'interface, fonction de la rhéologie et des débits et aussi en fonction des courbes de biréfringence reliées à la différence des contrainttes principales
[ "non-newtonian fluids", "coextrusion" ]
fr
691
Étude théorique des propriétés électroniques et optiques des super-réseaux de Si/SiO2
FRANCAIS: L'observation d'une intense luminescence dans les super-réseaux de Si/SiO2 a ouvert de nouvelles avenues en recherche théorique des matériaux à base de silicium, pour des applications éventuelles en optoélectronique. Le silicium dans sa phase cristalline possède un gap indirect, le rendant ainsi moins intéressant vis-à-vis d'autres matériaux luminescents. Concevoir des matériaux luminescents à base de silicium ouvrira donc la voie sur de multiples applications. Ce travail fait état de trois contributions au domaine. Premièrement, différents modèles de super-réseaux de Si/SiO2 ont été conçus et étudiés à l'aide de calculs ab initio afin d'en évaluer les propriétés structurales, électroniques et optiques. Les deux premiers modèles dérivés des structures cristallines du silicium et du dioxyde de silicium ont permis de démontrer l'importance du rôle de l'interface Si/SiO2 sur les propriétés optiques. De nouveaux modèles structurellement relaxés ont alors été construits afin de mieux caractériser les interfaces et ainsi mieux évaluer la portée du confinement sur les propriétés optiques. Deuxièmement, un gap direct dans les modèles structurellement relaxés a été obtenu. Le calcul de l'absorption (par l'application de la règle d'or de Fermi) a permis de confirmer que les propriétés d'absorption (et d'émission) du silicium cristallin sont améliorées lorsque celui-ci est confiné par le SiO2. Un décalage vers le bleu avec accroissement du confinement a aussi été observé. Une étude détaillée du rôle des atomes sous-oxydés aux interfaces a de plus été menée. Ces atomes ont le double effet d'accroître légèrement le gap d'énergie et d'aplanir la structure électronique près du niveau de Fermi. Troisièmement, une application directe de la théorique des transitions de Slater, une approche issue de la théorie de la fonctionnelle de la densité pour des ensembles, a été déterminée pour le silicium cristallin puis comparée aux mesures d'absorption par rayons X. Une très bonne correspondance entre cette théorie et l'expérience est observée. Ces calculs ont été appliqués aux super-réseaux afin d'estimer et caractériser leurs propriétés électroniques dans la zone de confinement, dans les bandes de conduction. ENGLISH: The observation of intense luminescence in Si/SiO2 superlattices has opened up new vistas in theoretical research, with a view to fabricate Si-based devices suitable for optoelectronic applications. Crystalline silicon has an indirect energy gap that makes this material less competitive compared to other luminescent materials. The fabrication of silicon-based luminescent materials would thus provide multiple applications in the future. Three achievements are presented in this work. (a) Several Si/SiO2 superlattice models have been constructed and studied within a first-principles framework in order to evaluate their structural, electronic and optical properties. The first two models are derived from crystalline phases of silicon and silicon dioxide. From these models, the interfaces are shown to play a significant role on their optical properties. New structurally-relaxed models have thus been constructed in order to satisfy more closely the interface topology and evaluate accurately the confinement effects on their optical properties. (b) Direct bandgaps are obtained in the structurally-relaxed models. Their absorption coefficient has been calculated (by applying the Fermi Golden rule) and compared to that of bulk Si, giving a clear demonstration of the enhanced absorption (and emission) properties of Si confined systems, compared to bulk Si. A blueshift with increased confinement has been confirmed. Furthermore, the precise role of suboxide Si atoms at the interfaces has been investigated. These suboxides are shown to have two main effects: (i) increase slightly the energy gap; (ii) reduce the dispersion in the band structure near the Fermi level. (c) A direct application of the Slater transition state theory applied to crystalline silicon has been performed and compared to X-Ray near-edge absorption spectroscopy measurements. The Slater transition state theory constitutes a subset of the density functional theory for ensembles. Very good agreement between this theory and the experiment is obtained. This type of calculations has been applied to the Si/SiO2 superlattices in order to estimate and characterize the electronic properties of the confined region in the conduction bands.
[ "Matière condensée", "Silicium", "Dioxyde de silicium", "Puits quantiques", "Confinement", "Systèmes de faible dimension", "Confinement" ]
fr , en
704
Présentation Shibboleth
Présentation vulgarisée pour faire apparaitre le potentiel de transformation de service et de soutien de services communs d'une pareille infrastructure.
[ "Shibboleth", "Gestion fédérée des identités" ]
fr
707
C'est dans l'ordre que les protestants polynésiens trouvent leur volupté
Quel effet provoque le discours théologique sur la sensibilité humaine? Pour répondre à cette question, je vais rendre compte de ce que j’ai pu éprouver en écoutant le discours théologique de l’Église évangélique de Polynésie française (EEPF), pendant les 6 ans que j’y ai vécu, de 1993 à 1999. À Tahiti, j’ai pris conscience de la valeur théologique d’un ancien concept aujourd’hui désuet: "l’ordre". Je suis conscient de la mauvaise image qu’il traîne. Quant on lui associe d’autres termes — "ordre moral", "nouvel ordre mondial", etc. — il devient même franchement repoussant. Conséquences, il est plus correct aujourd’hui de parler "d’organisation", "d’institutions" de "règles" ou de "systèmes". J’aimerais pourtant "remettre de l’ordre", un peu par goût de la provocation, mais surtout parce que je ne crois pas qu’il suffise censurer un mot pour faire disparaître une idée.
[ "Théologie", "Théologie pratique", "Polynésie", "Tahiti", "Esthétique", "Ordre", "Rite", "Culte" ]
fr
708
Ein Ergebnis einer "Symbolisierenden" Überführung: Liturgische Handlungen im Kultischen Raum
Dans ce texte je réponds à quatre questions: 1. Existe-t-il un espace cultuel? 2. Quel espace cultuel les actes liturgiques construisent-ils? 3. Que symbolisent-ils ainsi? 4. Quel rôle joue l'espace dans le culte? In diesem Referat will ich auf vier Fragen antworten: 1. Gibt es einen kultischen Raum? 2. Wie konstruieren die liturgischen Handlungen diesen kultischen Raum? 3. Was wird damit symbolisiert? 4. Wie wichtig ist die Frage des Raumes für den Gottesdienst?
[ "Théologie", "Théologie pratique", "Herméneutique", "Culte", "Église", "Suisse" ]
fr , de
720
Rite et théologie protestante: La cène dans l’Église évangélique de Polynésie française
Si elle disposait du dispositif théorique adéquat, la théologie protestante saurait que faire des rites que les Églises protestantes célèbrent ! Fort de cette conviction, l’auteur propose de comprendre le rite comme une technique d’influence. Reprenant les travaux de Catherine Bell, il invite à rechercher les stratégies de ritualisation mises en place pour chaque rite afin de découvrir le type de relation à Dieu que chaque Église y suggère. À titre d’exemple, l’auteur applique cette méthode à la célébration de la cène dans l’Église évangélique de Polynésie française. If Protestant theology had the theoretical tools to reflect upon ritual activities, it would know how to theologically analyze the rites performed in Protestant churches. Based on this conviction, the author sets up an understanding of ritual as a technique that influences cultural and religious representations. Inspired by Catherine Bell's work, the author proposes to uncover the strategies of ritualization established for each rite in order to reveal what type of relationship to God each congregation develops. As an example, the author applies this methodology to the celebration of the Eucharist in the Evangelical Church of French Polynesia.
[ "Théologie", "Théologie pratique", "Rite", "Ritualisation", "Sacrement", "Cène", "Polynésie française", "Nourriture", "Rite", "Tahiti" ]
fr , en
721
Matching Markets under (In)complete Information
We are the first to introduce incomplete information to centralized many-to-one matching markets such as those to entry-level labor markets or college admissions. This is important because in real life markets (i) any agent is uncertain about the other agents' true preferences and (ii) most entry-level matching is many-to-one (and not one-to-one). We show that for stable (matching) mechanisms there is a strong and surprising link between Nash equilibria under complete information and Bayesian Nash equilibria under incomplete information. That is,given a common belief, a strategy profile is a Bayesian Nash equilibrium under incomplete information in a stable mechanism if and only if, for any true profile in the support of the common belief, the submitted profile is a Nash equilibrium under complete information at the true profile in the direct preference revelation game induced by the stable mechanism. This result may help to explain the success of stable mechanisms in these markets.
[ "Many-To-One Matching Market", "Incomplete Information", "Stability" ]
en
725
Introduction : Comprendre et maîtriser la redocumentarisation du monde
Introduction du livre bilan du réseau thématique pluridisciplinaire du CNRS : "Document et contenu". Problématique générale et présentation des chapitres résumant les apports des groupes de travail.
[ "Document", "Document numérique" ]
fr
778
Du beau, du bon... du bon Dieu
Olivier Bauer ne se demande pas si la théologie doit s’intéresser aux cinq sens, mais comment elle doit le faire ! L’auteur rappelle d’abord la manière dont nous percevons le monde avec nos cinq sens et le rôle que chacun remplit. Il démontre ensuite comment le christianisme s’est toujours exprimé autant dans des goûts, des odeurs et des textures que dans des mots, des musiques ou des images. Il souligne l’importance pour le théologien de repérer ce qui fait de nous les chrétiens que nous sommes. Il propose enfin une démarche communautaire pour choisir des goûts, des odeurs, des textures, des sons ou des images pour transmettre l’Évangile. Olivier Bauer does not ask if theology ought to be concerned with the five senses, but how it is to do so! The author recalls first of all the way in which we perceive the world with our five senses, and the role that each of these plays. He then shows how Christianity has always expressed itself as much through tastes, smells and textures as in words, music or images. He underlines the importance for theologians to recover, that which makes us the kind of Christians we are. Finally, he proposes a communal approach to choosing the tastes, odours, textures, sounds and images in which to transmit the Gospel.
[ "Théologie", "Théologie pratique", "Dieu", "Goûter", "Toucher", "Voir", "Entendre", "5 sens", "Sentir" ]
fr , en
780
Le transfert informel des connaissances tacites chez les gestionnaires municipaux en situation de coordination
Ce rapport de recherche porte sur une étude s’intéressant au transfert des connaissances tacites chez les gestionnaires, c’est-à-dire le partage de ces connaissances et leur utilisation informelle, durant une situation de coordination dans un service municipal. La thèse est articulée autour des questions suivantes : Quelles sont les situations de coordination vécues par les gestionnaires municipaux? Quelles sont les sources de connaissances tacites partagées et utilisées? Quelles sont les relations de connaissances mobilisées de façon informelle lors du transfert des connaissances tacites? Quels sont les facteurs encourageant ou inhibant le transfert informel des connaissances tacites? À partir d’un modèle basé sur une approche situationnelle (Taylor, 1989 et 1991), nous avons revu la documentation touchant nos questions de recherche. Nous avons défini notamment la récursivité des connaissances et le réseau de connaissances, de même que présenté le modèle de la conversion des connaissances (Nonaka, 1994) et celui de l’actualisation de soi (St-Arnaud, 1996). Nous avons questionné 22 répondants à l’aide d’instruments de mesure qui combinent les techniques de l’incident critique, de l’entrevue cognitive et réflexive, le questionnement sur les réseaux organisationnels et l’observation participante. Tels des filets, ces instruments ont permis de traquer et d’obtenir des données d’une grande richesse sur les connaissances tacites et les comportements informels durant le transfert de connaissances en situation de coordination. Ces données ont été analysées selon une approche méthodologique essentiellement qualitative combinant l’analyse de contenu, la schématisation heuristique et l’analyse des réseaux sociaux. Nos résultats montrent que la complexité d’une situation de coordination conditionne le choix des mécanismes de coordination. De plus, les sources de connaissances sont, du point de vue individuel, le gestionnaire et ses artefacts, de même que son réseau personnel avec ses propres artefacts. Du point de vue collectif, ces sources sont réifiées dans le réseau de connaissances. Les connaissances clés d’une situation de coordination sont celles sur le réseau organisationnel, le contexte, les expériences en gestion et en situation complexe de coordination, la capacité de communiquer, de négocier, d’innover et celle d’attirer l’attention. Individuellement, les gestionnaires privilégient l’actualisation de soi, l’autoformation et la formation contextualisée et, collectivement, la coprésence dans l’action, le réseautage et l’accompagnement. Cette étude fournit un modèle valide du transfert contextualisé des connaissances qui est un cas de coordination complexe d’activités en gestion des connaissances. Ce transfert est concomitant à d’autres situations de coordination. La nature tacite des connaissances prévaut, de même que le mode informel, les médias personnels et les mécanismes d’ajustement mutuel. Les connaissances tacites sont principalement transférées au début des processus de gestion de projet et continuellement durant la rétroaction et le suivi des résultats. Quant aux connaissances explicites, les gestionnaires les utilisent principalement comme un symbole à la fin des processus de gestion de projet. Parmi les personnes et les groupes de personnes d’une situation de transfert contextualisé des connaissances, 10 % jouent des rôles clés, soit ceux d’experts et d’intermédiaires de personnes et d’artefacts. Les personnes en périphérie possèdent un potentiel de structuration, c’est-à-dire de connexité, pour assurer la continuité du réseau de connaissances organisationnel. Notre étude a élargi le modèle général de la complexité d’une situation (Bystrom, 1999; Choo, 2006; Taylor, 1986 et 1991), la théorie de la coordination (Malone et Crowston, 1994), le modèle de la conversion des connaissances (Nonaka, 1994), celui de l’actualisation de soi (St-Arnaud, 1996) et la théorie des réseaux de connaissances (Monge et Contractor, 2003). Notre modèle réaffirme la concomitance de ces modèles généraux selon une approche constructiviste (Giddens, 1987) où la dualité du structurel et la compétence des acteurs sont confirmées et enrichies. This research report is about a study on tacit knowledge transfer in the organization. This study focuses on sharing tacit knowledge and its informal utilization in a coordination situation. This thesis is articulated around those following questions : In which kind of coordination situations are involved municipal managers? Which knowledge sources are shared and used? Which knowledge relations are mobilised in an informal way during tacit knowledge transfer? Which factors encourage it? From an situational approach model, we revised litterature on those questions. We defined knowledge recursivity, knowledge network and knowledge conversion model (Nonaka, 1994) and a model on self actualization (St-Arnaud, 1996). We interviewed 22 respondants with research tools combining critical incident technique, cognitive and reflexive interview, organizational network questionning and participating observation. Like fishing nets , those tools permitted to track and obtain rich data on tacit knowledge and informal behavior during tacit knowledge transfer involving coordination situation. The data were analysed combining qualitative content analysis, mind mapping and social network analysis. Our research results show that coordination situation complexity conditions the choice of coordination mechanism. On an individual basis, knowledge sources are the manager and its artefacts and his personal network including also its artefacts. Collective knowledge sources are reificated in a knowledge network. Key knowledge and skills as far as a coordination situation is concerned are organizational network, context, management and complex coordination situation experience, communication capacity, negociation, innovation and attention capacities. Individually, managers prefer self actualization, self- learning, contextualized learning and, collectively, managers rely more on copresence in action, social networking and escorting. This study has, as an outcome, a valid model on contextualized knowledge transfer which is a complex knowledge management coordination case. This transfer is concomitant with other coordination situations. Tacit knowledge prevails as it is the case with the informal mode, personal medias and mutual adjustment mecanisms. Tacit knowledge is mainly transfered at the very beginning of a project management process and also constantly, during retroaction and result following. Explicit knowledge is used by managers mainly like a symbol at the end of a project management process. Amongst individuals and groups involved in a coordination situation no more than 10 % play key roles : experts, artefact and persons brokers. Peripheral individuals have structuration potential, in other words connexity, for the continuity of organizational knowledge network. Our study enlarged the general situation complexity model (Bystrom, 1999; Choo, 2006; Taylor, 1986 et 1991), the theory of coordination (Malone et Crowston, 1994), the knowledge conversion model (Nonaka, 1994), self actualization model (St-Arnaud, 1996) and, the knowledge network theory (Monge et Contractor, 2003). Our model confirms concomitance of those general models according to the constructivist approach (Giddens, 1987) where structural duality and actors competence are confirmed and enriched. En este reporte de investigación se expone un estudio sobre la transferencia de conocimientos tácitos en los gestores, es decir sobre el cómo se comparten estos conocimientos y su utilización informal durante una situación de coordinación en un servicio municipal. La tesis está articulada en torno a las siguientes preguntas: ¿Cuáles son las situaciones de coordinación que viven los gestores municipales? ¿Cuáles son las fuentes de conocimientos tácitos que comparten y utilizan? ¿Cuáles son las relaciones de conocimientos que se movilizan de manera informal durante la transferencia de conocimientos tácitos? ¿Cuáles son los factores que promueven o inhiben la transferencia informal de conocimientos tácitos? Se revisó la documentación relativa a nuestro tema de investigación a partir de un modelo con enfoque situacional (Taylor, 1989 et 1991). Hemos definido señaladamente la recursividad de los conocimientos y de la red de conocimientos. Asimismo hemos presentado el modelo de la conversión de conocimientos (Nonaka, 1994) y el de la actualización de sí (St-Arnaud, 1996). Inquirimos a 22 informantes, mediante instrumentos de medición que combinan las técnicas del incidente crítico, la entrevista cognitiva y reflexiva, la averiguación sobre las redes organizacionales y la observación participante. Como si fueran tramas, estos instrumentos han permitido rastrear y obtener datos de gran riqueza sobre los conocimientos tácitos y los comportamientos informales durante la transferencia de conocimientos en situaciones de coordinación. Estos datos se analizaron adoptando un enfoque metodológico esencialmente cualitativo combinando el análisis de contenidos, la esquematización heurística y el análisis de redes sociales. Nuestros resultados muestran que la complejidad de una situación de coordinación condiciona la elección de los mecanismos de coordinación. Además, las fuentes de conocimientos son, desde el punto de vista individual, el gestor y sus artefactos, así como su red personal con sus propios artefactos. Desde el punto de vista colectivo, estas fuentes se reifican en la red de conocimientos. Los conocimientos claves de una situación de coordinación son aquellos relativos a la red organizacional, el contexto, las experiencias en gestión, y en situación compleja de coordinación, la capacidad de comunicar, de negociar, de innovar, y la de llamar la atención. Individualmente, los gestores privilegian la actualización de sí, la autoformación y la formación contextualizada y, colectivamente, la co-presencia en la acción, la puesta en red y el acompañamiento. Este estudio aporta un modelo válido de la transferencia contextualizada de conocimientos que constituye un caso de coordinación compleja de actividades en gestión de conocimientos. Esta transferencia es concomitante con otras situaciones de coordinación. La naturaleza tácita de los conocimientos prevalece, así como el modo informal, los medios personales y los mecanismos de ajuste mutuo. Los conocimientos tácitos se transfieren principalmente al inicio de los procesos de gestión de proyectos y se siguen transferiendo durante la retroacción y el seguimiento de los resultados. En cuanto a los conocimientos explícitos, los gestores los utilizan principalmente como un símbolo al final de los procesos de gestión de proyecto. Entre las personas y los grupos de personas de una situación de transferencia contextualizada de conocimientos 10% tienen papeles claves, es decir los de expertos e intermediarios de personas y de artefactos. Las personas en periferia poseen un potencial de estructuración, es decir, de conexidad, para asegurar la continuidad de la red de conocimientos organizacionales. Nuestro estudio amplió el modelo general de la complejidad de una situación (Bystrom, 1999; Choo, 2006; Taylor, 1986 et 1991), la teoría de la coordinación (Malone et Crowston, 1994), el modelo de la conversión de conocimientos (Nonaka, 1994), el de la actualización sí (St-Arnaud, 1996) y la teoría de redes de conocimientos (Monge et Contractor, 2003). Nuestro modelo reafirma la concomitancia de estos modelos generales según un enfoque constructivista (Giddens, 1987) en el cual la dualidad estructural y la competencia de los actores se confirman y se enriquecen.
[ "transfert des connaissances", "connaissances tacites", "informel dans l'organisation", "comportement informationnel", "situation de coordination", "réseau de connaissances", "méthode qualitative", "gestionnaire", "municipalité", "visualisation des connaissances", "knowledge transfer", "tacit knowledge", "informal in organization", "informational behavior", "coordination situation", "knowledge network", "qualitative method", "manager", "municipality", "knowledge visualization", "transferencia de conocimientos", "conocimiento tácito", "informal en la organización", "comportamiento informacional", "situación de coordinación", "red de conocimientos", "método cualitativo", "gerente", "municipalidad", "visualización de conocimientos" ]
fr , en , es
785
L'essentiel est inaudible aux oreilles
Ne doit-on prêcher que pour les oreilles? Ou peut-on aussi prêcher pour les yeux, la peau, le nez ou la bouche? Comment alors s’adresser à ces sens? C’est à ces questions qu’Olivier Bauer s’efforce d’apporter des réponses qu’il considère comme modestes et partiales. À partir de l’expérience accumulée comme prédicateur et comme paroissien en Europe francophone et en Polynésie française, il défend l’hypothèse qu’un prédicateur doit mobiliser les cinq sens de ses paroissiens et qu’il ne peut d’ailleurs faire autrement. Are we to preach to ears only? Or should we preach to eyes, skin, nose and mouth as well? On the ground of his own pastoral experience in French speaking Europe and in the South Pacific, Olivier Bauer suggests that our preaching should take in account, more consciously than it usually does, the diversity of sensorial perceptions.
[ "Théologie", "Théologie pratique", "Protestantisme", "Culte", "Prédication", "5 sens", "Rite", "Liturgie" ]
fr , en
789
Faire lire la Bible comme à l'école: un mode d'emploi
Même si je suis loin de croire qu’aborder la Bible comme à l’école soit le meilleur moyen de la rendre plus attirante ou plus sexy, je pense pourtant que le catéchète peut trouver un avantage à faire "lire la Bible comme à l’école". Dans cet article, je le démontre à l'aide des programmes de français du collège en France.
[ "Théologie", "Théologie pratique", "Éducation", "Éducation de la foi", "Catéchisme", "Catéchèse", "Bible", "École" ]
fr
1,329
Parliamentary Debates in Statutory Interpretation: A Question of Admissibility or of Weight?
The exclusionary rule which prohibits references to parliamentary materials as an aid to statutory interpretation has been applied for decades in most common law jurisdictions. The House of Lords handed down its fundamental decision in Pepper v. Hart which allowed reference to parliamentary dabates in limited circumstances. The author first examines the English origins of the exclusionary rule as well as its application in other common law jurisdictions, including Australia, New Zealand, the United States and Canada, The author also comments on the situation prevailing in Quebec's civil law system. The exclusion of parliamentary debates is then considered in the broader context of the methods and principles of statutory construction. The author contends that the issue of parliamentary dabates in statutory interpretation is a question of weight and not of admissibility. To support this position, the rationales underlying the exclusionary rule are analysed and, for the most part, refuted. After demonstrating that parliamentary debates should play a role as an interpretative aid to ascertain legislative intent, the author concludes by suggesting factors to consider in determining their persuasive force.
[ "legislation", "statutory interpretation", "parliamentary debates", "legislative history", "extrinsic aid", "parliamentary intent" ]
en
1,352
Driedger's 'Modern Principle' at the Supreme Court of Canada: Interpretation, Justification, Legitimization
In the last 20 years, Elmer Driedger’s “modern principle” has emerged as THE expression of the Supreme Court of Canada’s preferred approach to statutory interpretation. The authors examine this fundamental development in Canadian law, including the variable relations between Driedger’s quote and the Court’s use of it, the different circumstances in which the principle is invoked and its influence on the caselaw of other superior courts in the country. Follows an appraisal of the impact of the “modern principle” on Canadian law. The principle is shown to serve three clearly different functions. It is used in the interpretation of statutes, it provides judges with a justification framework for interpretive decisions, and it is also instrumental in the legitimization of the judicial function in statutory interpretation. No doubt, the “modern principle” has brought about some advances in the law relating to statutory interpretation in Canada. However, the author reckon that it constitutes an over-simplified reflection of the actual practice of Canadian jurists, including judges. As a result, Driedger’s principle provides neither a valid method for interpreting statutes nor a suitable structure for the courts’ justification of interpretive decisions. One should not see in it more than a good starting point for statutory interpretation.
[ "legislation", "statutory interpretation", "Elmer Driedger", "modern principle of statutory interpretation", "Supreme Court of Canada", "fonctions of interpretative arguments" ]
en
1,353
The Social Power of Bodin's 'Sovereignty' and International Law
The word ‘sovereignty’ provides a forceful example of the social power of language as an organic instrument playing a leading role in the continuous and continuing process of creating and transforming human reality. The paper examines a pivotal episode in the history of the word ‘sovereignty’ — its formal introduction in the 16th century by Jean Bodin in his Six Livres de la Republique. It focuses on the social effects ‘sovereignty’ has had on the shared consciousness of humanity, including that of the international community. The proposed metalogical inquiry adopts a method that draws from the hermeneutic school of historical knowledge. The argument is that Bodin used ‘sovereignty’ for the purpose of attributing to the ruler (the French king) supreme power in the hierarchical organisational structure of society. This idea of a pyramid of authority is found in different elements of the discourse in Six Livres de la Republique, which is examined in the immediate context of Bodin’s personal background as well as the extended social, political and intellectual context of 16th century France. The conclusion shows that Bodin’s work was the first seminal step in the development of contemporary ideas of ‘internal sovereignty’ and ‘external sovereignty’. It is thus part of the history of the true power that the word at hand has exercised in framing the international state system and hence the international legal system.
[ "sovereignty", "internal and external sovereignty", "international law", "international relations", "legal theory", "international theory", "Jean Bodin", "semiotics and law" ]
en
1,363
Libres propos sur le droit des affaires électroniques
Entre tradition et nouveauté, quelle est la place du droit des technologies de l’information, et plus particulièrement du droit des affaires électroniques? Telle est la question à laquelle l’auteur nous invite à réfléchir eu égard à l’évolution constante du domaine, à ses caractéristiques technologiques, à ses répercussions économiques et politiques mais aussi quant à la façon de concevoir, de dire le droit afin de faciliter le recours aux technologies de l’information tout en protégeant des intérêts catégoriels.
[ "Contrat électronique", "Commerce électronique", "Cyberconsommation", "Affaires électroniques" ]
fr
1,368
Frailty, an Emerging Research and Clinical Paradigm: Issues and Controversies
Clinicians and researchers have shown increasing interest in frailty. Yet, there is still considerable uncertainty around the concept and its definition. In this paper, we present perspectives on key issues and controversies discussed by scientists from 13 different countries, representing a diverse range of disciplines, at the 2006 Second International Working Meeting on Frailty and Aging. The following fundamental questions are discussed: what is the distinction, if any, between frailty and aging? What is its relationship with chronic disease? Is frailty a syndrome or a series of age-related impairments that predict adverse outcomes? What are the critical domains in its operational definition? Is frailty a useful concept? The implications of different models and approaches are examined. While consensus has yet to be attained, work accomplished to date has opened exciting new horizons. The paper concludes with suggested directions for future research.
[ "frailty", "aging", "vieillissement", "Second International Working Meeting on Frailty and Aging" ]
en
1,370
La loi fédérale sur la responsabilité : Conflits d'intérêts et éthique, quelques enjeux contemporains
Après avoir tenté, à plusieurs reprises, d’adopter une loi sur les conflits d’intérêts, le Parlement réussissait finalement à le faire. Le 12 décembre dernier, la Loi fédérale sur la responsabilité recevait la sanction royale. Cette loi volumineuse contient entre autres la Loi sur les conflits d’intérêts qui réglemente les situations de conflits d’intérêts pouvant survenir pendant et après le mandat d’un titulaire de charge publique. Dans ce texte, l’auteure décrit, dans ses grandes lignes, le contenu de la Loi sur les conflits d’intérêts et critique la portée et les limites du concept de «conflit d’intérêts» qui a été retenu par le législateur. Elle s’interroge également sur l’évolution du droit sur les conflits d’intérêts au rythme des changements de la gouvernance publique.
[ "Droit", "Imputabilité", "Conflits intérêts", "Éthique", "Parlement fédéral", "Gouvernance publique" ]
fr