On Natural Language and Possibility

Autor
Lemanek, Kamil
Promotor
Odrowąż-Sypniewska, Joanna
Kawczyński, Filip
Data publikacji
2023-04-27
Abstrakt (PL)

Teorie znaczenia są zróżnicowane i złożone, łączą formalne pojęcia i perspektywy charakterystyczne dla technicznych dziedzin nauki ze zwykłymi intuicjami i wyobrażeniami na temat tego, jak faktycznie działają języki, których używamy. Zajmując się tymi teoriami, możemy wyodrębnić ich aspekty semantyczne i fundamentalne. O ile te pierwsze polegają na przypisywaniu wartości wyrażeniom, o tyle te drugie polegają na pracy koncepcyjnej i wyjaśnieniach dotyczących podstaw tych przypisań. Fundamentalne aspekty teorii znaczenia sprowadzają się do wyjaśnienia, dlaczego wyrażenia znaczą to, co znaczą w społecznościach językowych, które się nimi posługują. Niniejsza praca jest rozwinięciem fundamentalnych aspektów teorii znaczenia - jej celem jest w szczególności ustanowienie potrzeby szerszego rozważania pojęcia możliwości na przecięciu podstawowych struktur języka naturalnego, naszych koncepcji znaczenia i naszych zdolności jako mówców do ich stosowania. Głównym twierdzeniem jest to, że natura słów i zdań języka naturalnego może być wykorzystana do sproblematyzowania teorii znaczenia o wyraźnych zobowiązaniach fundamentalnych poprzez wystawienie ich na teoretyczne możliwości, które te wyrażenia umożliwiają. W celu sproblematyzowania fundamentalnych zobowiązań, słowa, frazy i zdania są konstruowane jako odrębne typy wyrażeń, przy założeniu leksykalizacji i kompozycyjności jako cech języka naturalnego. Zarówno leksykalizacja, jak i kompozycyjność okazują się użyteczne w tworzeniu przykładów niestandardowych możliwych wyrażeń, które stanowią problem dla fundamentalnych teorii znaczenia. Sposoby wytwarzania tego rodzaju wyrażeń możliwych są następnie zastosowane do dwóch przykładów fundamentalnych teorii znaczenia: atomizmu Jerry'ego Fodora i inferencjalizmu Roberta Brandoma. Dla pierwszej z nich istotne są kwestie leksykalizacji i wyrażeń prostych, dla drugiej zaś kwestie kompozycyjności i wyrażeń złożonych. W pewnym sensie wynikiem podjętych tu analiz jest opracowanie zestawu idei i perspektyw, za pomocą których możemy mierzyć i oceniać zalety konkurujących ze sobą teorii znaczenia. Pokazując ich zastosowanie do dwóch takich teorii, pokazujemy, że można je rozszerzyć na inne teorie znaczenia, a tym samym osiągnąć cel, o którym była mowa na początku: ustalić potrzebę szerszego rozważania możliwości teoretycznych w naszym podejściu do teorii znaczenia. Rozprawę otwiera kompleksowa analiza wyrażeń w języku naturalnym. W celu stworzenia odpowiedniego tła skonstruowano uproszczoną teorię znaczenia wraz z modelem typ/egzemplarz, który ma uchwycić strukturę wyrażeń. Dostarcza nam to podstawowego materiału do nakreślenia zbioru wyrażeń, w ramach którego musimy wyodrębnić słowa, frazy i zdania jako odrębne typy. Słowa definiowane są zgodnie z zasadami gramatycznymi, ze szczególnym uwzględnieniem morfemów. Kategorie gramatyczne są następnie wykorzystywane do wyodrębnienia typów słów z innych typów słów, a następnie odwołujemy się do formy i znaczenia, aby odróżnić konkretne słowa od innych słów w ramach tych rodzajów. Leksykalizacja jest następnie wprowadzona jako proces, w którym nowe słowa są wprowadzane do danego języka (tj. leksykalizacja diachroniczna), z omówieniem literatury i przykładów. W odniesieniu do fraz i zdań, podejście polega na zdefiniowaniu najpierw wyrażeń złożonych w stosunku do słów, które są traktowane jako wyrażenia proste. Wyrażenia złożone są następnie analizowane poprzez wprowadzenie i eksplikację kompozycyjności, która jest niezbędna do zrozumienia wyrażeń złożonych i zdań. W ramach zbioru wyrażeń złożonych, frazy i zdania są następnie odróżniane od siebie poprzez ich stosunek do sądów. W ramach każdego typu, frazy i zdania są wyodrębniane na podstawie ich formy i znaczenia, w oparciu o podejście przyjęte w przypadku słów. Ten obraz różnych typów wyrażeń, leksykalizacji i kompozycyjności jest następnie analizowany w kontekście możliwości. Zaczynamy od szerokiego omówienia możliwości, a następnie przechodzimy do naszych własnych węższych kryteriów dostosowanych do kontekstu języka poprzez odwołanie się do aktualności. Opierając się na aktualności, możliwość w odniesieniu do prostych wyrażeń jest definiowana w kategoriach bycia leksykalizowalnym; możliwość w odniesieniu do wyrażeń złożonych jest definiowana w kategoriach bycia składalnym (composable). Zilustrowano to na przykładzie słowa "tranzystor", badając je przed wprowadzeniem do języka i po jego leksykalizacji. W procesie tym pojawiają się dwie kategorie: możliwości niezrealizowane i możliwości zaktualizowane. Pierwsza z nich dotyczy wyrażeń, które pozostają jedynie możliwe, natomiast druga - wyrażeń, które według naszych kryteriów są nie tylko możliwe, ale i rzeczywiste. Możliwości są następnie analizowane poprzez tworzenie przykładów należących do różnych zbiorów wyrażeń. Najpierw zajmujemy się zbiorem niezaktualizowanych możliwych wyrażeń prostych, wykorzystując systematyczne środki do tworzenia dowolnej liczby słów, które mogłyby zostać (ale nie zostały) poddane leksykalizacji. Zbiór zaktualizowanych możliwych wyrażeń złożonych jest rozpatrywany w drugiej kolejności, przy użyciu rekurencji do tworzenia coraz bardziej egzotycznych przykładów możliwych fraz i zdań. Następnie sens, w jakim te sposoby prowadzą do konstrukcji, które mogą okazać się problematyczne, jest z grubsza zarysowany, przed przejściem do konkretnego zastosowania w kontekście prawdziwych teorii znaczenia, a nie w środowisku testowym używanym do tego momentu. W tym celu te problematyczne możliwości są przywołane w atomizmie Fodora poprzez "pojęcia korelatywne", które są analogiczne do egzotycznych możliwych wyrażeń prostych, przedstawionych wcześniej w tej pracy. W inferencjalizmie Brandoma odbywa się to za pomocą zdań rekurencyjnych, które wspierają i generują wnioskowania, wnosząc własne problemy w ten odrębny kontekst teoretyczny. Oba stanowiska są rekonstruowane przed ich sproblematyzowaniem. Na zakończenie, kluczowe punkty są podsumowane wraz z powtórzeniem znaczenia możliwości jako ważnego i, jak się wydaje, często pomijanego wymiaru języka naturalnego w naszym teoretyzowaniu na temat znaczenia.

Abstrakt (EN)

Theories of meaning are diverse and complex, linking together formal concepts and perspectives natural to technical fields of study and everyday impressions of how the languages we use actually work, including vague intuitions, perceived norms, and conventions. In addressing these theories, we can identify their semantic and foundational components and features. Where the former consist in assignments of values to expressions, the latter consist in conceptual work and explanations concerning the basis of those assignments; that is, the foundational aspects of theories of meaning endeavor to explain why expressions mean what they do in the language communities they belong to. This work is a development of the foundational aspects of theories of meaning – it specifically aims to establish the need for broader consideration of possibility at the intersection of the basic structures of natural language, our conceptions of meaning, and our capacities as speakers to engage with them. The central claim is that the nature of the words and sentences of natural language may be used to problematize theories of meaning with explicit foundational commitments by exposing them to the theoretical possibilities those expressions appear to facilitate. In pursuing possibility and the task of problematizing foundational commitments, words, phrases, and sentences are developed as distinct types of expressions together with lexicalization and compositionality as features of natural language. Both lexicalization and compositionality are shown to be useful in producing examples of exotic possible expressions that prove difficult for foundational theories of meaning to address. The means of producing these possibilities are then applied to two examples of foundational theories of meaning: Jerry Fodor’s atomism and Robert Brandom’s inferentialism. The former brings forward issues with lexicalization and simple expressions, whereas the latter brings forward issues with compositionality and complex expressions. In a sense, the product of the analyses undertaken here is the development of a set of ideas and perspectives with which we can measure and assess the merit of competing theories of meaning. In demonstrating their application to two such theories, the promise is that they can be extended to other theories of meaning, and in doing so achieving the goal noted at the outset: to establish the need for broader consideration of theoretical possibilities in our approach to theories of meaning. The dissertation opens with a comprehensive treatment of expressions in natural language. A toy theory of meaning is adopted for the purposes of developing the relevant background together with a type/token model capturing the structure of expressions. These provide us with the basic material to outline and populate a set of expressions, within which we need to isolate words, phrases, and sentences as distinct types. Proceeding from words, they are defined following grammatical lines, taking special care to also address morphemes. Grammatical categories are then used to individuate types of words from other types of words, before appealing to form and meaning to individuate specific words from other words within those types. Lexicalization is then introduced as the process by which new words are introduced into a given language (i.e., diachronic lexicalization), with discussion of the literature and examples. In turning to phrases and sentences, the approach is to first define complex expressions against words, which are taken to be simple expressions. Complex expressions are then expanded upon through the introduction and explication of compositionality, which is essential to our understanding of complex expressions and, a fortiori, phrases and sentences. Within the set of complex expressions, phrases and sentences are then distinguished from one another through how they relate to propositions. Within each type, phrases and sentences are individuated on the basis of their form and meaning, building on the approach taken with words. This picture of various expression types, lexicalization, and compositionality is then explored in the context of possibility, beginning with a broad discussion of possibility before presenting our own narrower criteria for it tailored to the context of language by appealing to actuality. Building out of actuality, possibility with respect to simple expressions is defined in terms of being lexicalizable; possibility with respect to complex expressions is defined in terms of being composable. This is illustrated on the example of “transistor,” examining it prior to its being coined and following its lexicalization. In the process, two categories are introduced: non-actualized possibilities and actualized possibilities. The former has to do with expressions that remain merely possible, whereas the latter has to do with expressions that are not just possible but actual, per our criteria. The task of exploring possibilities is then undertaken by means of producing examples belonging to different sets of expressions. The set of non-actualized possible simple expressions is addressed first, using a systematic means to produce any number of words that could be (but have not been) lexicalized. The set of actualized possible complex expressions is addressed second, using rudimentary recursion to produce increasingly exotic examples of possible phrases and sentences. The sense in which the extremes produced by these means may prove problematic is then roughly outlined before moving to a concrete application within the context of genuine theories of meaning rather than in the test environment used to that point. To that end, those problematic potentialities are brought forward and shown to hold in Fodor’s atomism through “correlate concepts” which are analogous to the exotic possible simple expressions produced earlier in the work. In Brandom’s inferentialism, this is done through recursive sentences that may be shown to support and generate inferences, bringing forward issues of their own in that distinct theoretical context. Both positions are reconstructed prior to being problematized. In closing, the key points are recapitulated together with a reiteration of the significance of possibility as an important and seemingly often overlooked dimension of natural language in our theorizing about meaning.

Słowa kluczowe PL
kompozycjonalność
leksykalizacja
słowo
atomizm
inferencjalizm
teoria
metasemantyka
znaczenie
Inny tytuł
O języku naturalnym i możliwości
Data obrony
2023-05-22
Licencja otwartego dostępu
Dostęp zamknięty