Skip to content
View pkoopongithub's full-sized avatar

Block or report pkoopongithub

Block user

Prevent this user from interacting with your repositories and sending you notifications. Learn more about blocking users.

You must be logged in to block users.

Please don't include any personal information such as legal names or email addresses. Maximum 100 characters, markdown supported. This note will be visible to only you.
Report abuse

Contact GitHub support about this user’s behavior. Learn more about reporting abuse.

Report abuse
pkoopongithub/README.md
  • 👋 Hi, I’m @pkoopongithub

  • 👀 I'm interested in psychometrics and the open source development of psychometric tests and much more ... Since 2012, the Düsseldorf student inventory, open source, has served as a learning environment for students of social sciences and trainees in market and social research, application development and data and process analysis. The Düsseldorf student inventory is an open source, valid, precise and independent personality inventory for students in the transition classes (valid, reliable, objective). The Düsseldorf student inventory is open to development. I am happy to provide the raw data, SPSS files, R files and source codes of the programs (Internet, PC, Android- , iOS smartphone available (PHP, MySQL, Xcode, Android Studio, Xamarin, Lazarus).

screenshot

Düsseldorfer Schülerinventar https://mein-duesk.org

Ich suche einen Partner für mein Düsseldorfer Schülerinventar https://mein-duesk.org , ein Persönlichkeitsinventar für Schüler der Übergangsklassen der Sekundarstufe I. Ich erstelle auf Basis dieses Inventars für den Partner Versionen für PHP, XCode, Android Studio, Xamarin, Delphi und Lazarus. Dazu erstelle ich auch Papierversionen und Handbücher. Der Partner vertreibt die Software über seinen Web-Server, Google Play, den App Store und Amazon, bietet auf seinem Webserver Tests an und beteiligt mich.


English I am seeking a partner for my Düsseldorf Student Inventory https://mein-duesk.org , a personality inventory designed for transition students in the lower secondary education level. I will create versions of this inventory for PHP, XCode, Android Studio, Xamarin, Delphi, and Lazarus for the partner. I will also produce paper versions and manuals. The partner will distribute the software through their web server, Google Play, the App Store, and Amazon, offer testing services on their web server, and share the revenue with me.


Français Je recherche un partenaire pour mon Inventaire d’Élèves de Düsseldorf https://mein-duesk.org , un inventaire de personnalité destiné aux élèves des classes de transition du niveau secondaire inférieur. Je créerai des versions de cet inventaire pour PHP, XCode, Android Studio, Xamarin, Delphi et Lazarus pour le partenaire. Je produirai également des versions papier et des manuels. Le partenaire distribuera le logiciel via son serveur web, Google Play, l'App Store et Amazon, proposera des services de test sur son serveur web et partagera les revenus avec moi.


Español Busco un socio para mi Inventario de Estudiantes de Düsseldorf https://mein-duesk.org , un inventario de personalidad diseñado para estudiantes de las clases de transición de la educación secundaria. Crearé versiones de este inventario para PHP, XCode, Android Studio, Xamarin, Delphi y Lazarus para el socio. También elaboraré versiones en papel y manuales. El socio distribuirá el software a través de su servidor web, Google Play, la App Store y Amazon, ofrecerá servicios de pruebas en su servidor web y compartirá los ingresos conmigo.


Русский Я ищу партнера для моего Дюссельдорфского Инвентаря Студентов https://mein-duesk.org , инструмента оценки личностных качеств для учеников переходных классов среднего образования. Я создам версии этого инвентаря для PHP, XCode, Android Studio, Xamarin, Delphi и Lazarus для партнера. Также я подготовлю печатные версии и руководства. Партнер будет распространять программное обеспечение через свой веб-сервер, Google Play, App Store и Amazon, предоставлять тестовые услуги на своем веб-сервере и делиться доходами со мной.


中文 我正在寻找一个合作伙伴,共同开发我的杜塞尔多夫学生评估工具 https://mein-duesk.org ,这是一个为中学过渡阶段学生设计的人格评估工具。我将为合作伙伴基于此评估工具开发PHP、XCode、Android Studio、Xamarin、Delphi和Lazarus版本,并且制作纸质版本和手册。合作伙伴将通过其网页服务器、Google Play、App Store和Amazon分发软件,提供网页服务器上的测试服务,并与我分享收入。

When you work on an open source project, you know the intense, personal commitment that contributes to its success. Many users know and appreciate this. However, not everything succeeds with the developers' own strength, especially since in many cases only pure interest in the topic or the use of technologies provide the basis. However, not every user has the skills and the time to support a project. Verbal feedback in the form of error messages is very helpful.

For others, material support may be the only way to get involved in open source.

I would be happy to talk to you about your type of support:

  • record further raw data,
  • continuously update calibration samples, test statistics, multivariate analyzes, etc.
  • improve GUI design,
  • Offer a persistent database in compliance with data protection regulations: DB Api and HTTPS Access,
  • Include other development environments (Eclipse, Intellij IDE, Lazarus, NetBeans, Scene Builder, Android Studio, Xcode, Visual Studio) on an ongoing basis,
  • User training, tutorials, YouTube tutorials,
  • technical editing, professional editing.

My focus is on algorithms and data structures and statistics and data analysis. Since 2012, the Düsseldorf Student Inventory, which I developed, has been used as an open-source, valid, reliable, and objective learning platform for learning classical test theory. Due to the Covid-19 crisis, I started digitizing the learning environment in November 2021 (PHP, MySQL, Android Studio, Xcode, Xamarin, Lazarus, R, PSPP) and publishing it on github.

Algorithmisch Rekursive Sequenzanalyse 2.0

Analyse der Verkaufsgespräche und Optimierung der Grammatik

Algorithmisch Rekursive Sequenzanalyse (ARS 1994)

Ergebnisse und Implementierungen aus 1994

Sales Dialogue Analysis and Grammar Induction

Eight transcripts of sales dialogues are used for grammar induction to create an action grammar specific to sales conversations. The transition probabilities of the induced grammar are optimized using Python.

A single transcript is intensively analyzed based on a prior analysis and the creation of a hypothetical grammar. This involves grammar induction with Scheme, parsing and transduction using Lisp, and the development of a multi-agent system (MAS) with Python.

Optimization of grammar transition probabilities (Python).

Qualitative Social Research and Large Language Models

Conceptual considerations on large language models (LLMs), multi-agent systems (MAS), and causal inference in relation to ARS.

Algorithmic Recursive Sequence Analysis (ARS 1994)

Summary of ARS 1994 Results

Documents summarizing the results of ARS 1994.

Grammar Tools and Analysis Components

The transducer in Lisp.

The grammar inducer in Scheme.

The parser (Pascal and Lisp).

Supplementary Texts and Audio Recordings

Texts related to ARS 1994.

Audio recordings of "Text 4" transcript and all eight recordings from 1994.

Repositories:

Düsseldorf student inventory: Open-source, objective, valid and reliable personality inventory for students in transition classes

Algorithmic recursive sequence analysis: Sequence analytical method for discrete character strings with grammar inducer, grammar parser, grammar transducer

David Deutsch Meditationen: Reviews of and personal meditations on the two metaphysical publications by David Deutsch

Chess: Source code didactic program chess self-play mode

Chessteg: Source code GUI program chess

Beute, Primaten, Genalg: cellular automata

Pascal: Console programs (cellular automata. Mini-Max, Alpha-Beta)

Die Algorithmisch rekursive Sequenzanalyse ist das einzige mir bekannte objektiv hermeneutische Verfahren, das vollständig ohne esoterische Tiefenhermeneutik auskommt, algorithmisch, evolutionär und memetisch ausgerichtet ist und einen Grammatikinduktor (Scheme) , einen Parser (Pascal) und einen Grammatiktransduktur (Lisp) bietet. 

Die Algorithmisch Rekursive Sequenzanalyse ist eine Methode zur Kausalinferenz mit Handlungsgrammatiken und Graphen. Im Gegensatz zu Poststrukturalisten, Postmodernisten, kritischen Posthumanisten und Tiefenhermeneuten nimmt sie Karl Popper, Ulrich Oevermann, Pearl, Bayes, LISP, SCHEME, R und Python sehr ernst.

Algorithmic Recursive Sequence Analysis is a method for causal inference using action grammars and graphs. In contrast to poststructuralists, postmodernists, critical posthumanists and depth hermeneutics, she takes Karl Popper, Ulrich Oevermann, Pearl, Bayes, LISP, SCHEME, R and Python very seriously.

Das Düsseldorfer Schülerinventar ist das einzige mir bekannte quelloffene, valide, reliable und objektive Verfahren, dessen Quellen und Quellcodes überschaubar und nachvollziehbar nachprogrammierbar sind.

Ich freue mich über Erben, die die Verfahren aufgreifen, nachprogrammieren und/oder für Eigenentwicklungen davon inspirieren lassen.

The algorithmic recursive sequence analysis is the only objective hermeneutic method known to me that does not require any esoteric deep hermeneutics, is algorithmically, evolutionarily and memetically oriented and offers a grammar inductor (Scheme), a parser (Pascal) and a grammar transductor (Lisp).

The Düsseldorf student inventory is the only open-source, valid, reliable and objective method that I know of, whose sources and source codes are clear and understandable and can be reprogrammed.

I am happy about heirs who take up the process, reprogram it and/or let it inspire them for their own developments.

Algorithmisch Rekursive Sequenzanalyse 2.0

Large Language Models (LLMs), die Interaktionen imitieren und Muster erkennen können, eröffnen interessante neue Möglichkeiten für die soziologische Erforschung von Interaktionssettings. LLMs und das hier besprochene Verfahren können sich tatsächlich gegenseitig ergänzen, anstatt sich auszuschließen. Hier sind einige Überlegungen dazu, wie das Verfahren erweitert werden könnte, um von LLMs zu profitieren:

1. Interpretation und Kategorienbildung durch LLMs als Unterstützung bei der Grammatikinduktion

LLMs könnten tatsächlich dabei helfen, in großen Transkriptkorpora Kategoriensymbole für unterschiedliche Satzarten und Gesprächsakte (z. B. Fragen, Bitten, Antworten, Einwände) zu identifizieren. Die Modelle sind in der Lage, eine große Bandbreite an Interaktionen zu imitieren und kontextualisierte Bedeutungen zu verstehen. Durch die Generierung solcher Kategoriensymbole könnten LLMs als "Vorkategorisierer" fungieren, der die Grundlage für eine tiefergehende, strukturelle Analyse bildet.

2. Automatisierte und transparente Kategorienbildung

Ein Vorteil des LLM-Einsatzes wäre, dass die Kategorisierungslogik automatisiert und flexibel auf große Datenmengen anwendbar ist. Die Opazität der internen Regeln der LLMs bleibt zwar bestehen, aber durch spezifisches Fine-Tuning und Vergleich zwischen menschlicher und maschineller Kategorisierung könnten Forscher eine verlässliche, empirisch fundierte Basis für Kategorien schaffen, die in eine klar strukturierte Grammatik überführt werden kann.

3. Ketten von Kategoriensymbolen für probabilistische Grammatikinduktion

Die von LLMs generierten Ketten von Kategoriensymbolen könnten dann als Eingabe für die probabilistische Grammatikinduktion dienen. Diese Grammatikinduktion könnte die Wahrscheinlichkeit und Häufigkeit von Gesprächsabläufen modellieren und Aussagen über Muster in verschiedenen Interaktionssettings treffen. Das heißt, die Grammatik könnte ein probabilistisches Modell aufbauen, das empirische und künstlich erzeugte Gesprächsverläufe vergleicht.

4. Vergleich empirischer und künstlicher Kategorienketten zur Überprüfung von Modellen

Die Kombination von empirisch erfassten Kategorienketten mit künstlich erzeugten Ketten könnte als Validierungsmethode für LLMs dienen. Durch den Abgleich von beobachteten Gesprächsmustern in der Realität mit den synthetisch generierten könnten soziologische Forscher Rückschlüsse auf die Realitätsnähe und die Grenzen der LLM-Simulationen ziehen.

5. Erforschung und Vergleich verschiedener Interaktionssettings

Da LLMs spezifische Gesprächskontexte imitieren können, könnten Forscher verschiedene künstliche Gesprächskontexte (z. B. Verkaufsgespräch, Beratungsgespräch) generieren lassen und diese dann mit empirischen Daten aus ähnlichen Settings vergleichen. Durch den Einsatz der probabilistischen Grammatikinduktion könnten Unterschiede oder Gemeinsamkeiten in Interaktionsmustern zwischen den künstlich generierten und den realen Daten identifiziert und soziologisch interpretiert werden.

6. Überprüfung und Weiterentwicklung soziologischer Hypothesen

Indem sie künstlich erzeugte Kategorienketten zur Modellierung realer Interaktionen nutzen, könnten Forscher Hypothesen über Gesprächsstrukturen, Machtverhältnisse oder andere Interaktionsdynamiken überprüfen und weiterentwickeln. Sie könnten beispielsweise untersuchen, ob die Häufigkeit bestimmter Muster von Interaktionen in künstlich erzeugten Kontexten ähnlich verteilt ist wie in der Realität und wo signifikante Abweichungen bestehen.

Fazit

Das Verfahren ist durch den Einsatz von LLMs keineswegs überholt, sondern kann durch sie ausgebaut werden. LLMs könnten in der Vorverarbeitung und in der automatisierten Kategorisierung von Gesprächssequenzen hilfreich sein. In der zweiten Phase, in der Grammatikinduktion und Grammatiktransduktion, bleiben die soziologische Analyse und die Interpretation von Kategorienketten jedoch nach wie vor erforderlich, da die Modelle allein die Komplexität soziologischer Hypothesen und Interpretationen nicht erfassen können.

Large Language Models (LLMs), which can imitate interactions and recognize patterns, offer interesting new possibilities for the sociological study of interaction settings. The procedure discussed here and LLMs can actually complement each other rather than replace one another. Here are some considerations on how the procedure could be expanded to benefit from LLMs:

1. Interpretation and Category Formation by LLMs as Support for Grammar Induction

LLMs could indeed help identify category symbols for different types of sentences and conversational acts (e.g., questions, requests, responses, objections) in large corpora of transcripts. The models can imitate a wide range of interactions and understand contextualized meanings. By generating such category symbols, LLMs could act as "pre-categorizers," providing the foundation for a more in-depth structural analysis.

2. Automated and Transparent Category Formation

One advantage of using LLMs would be the automated and flexible application of categorization logic to large datasets. Although the internal rules of LLMs remain opaque, specific fine-tuning and comparisons between human and machine categorization could enable researchers to create a reliable, empirically based foundation for categories, which can then be translated into a clear structural grammar.

3. Chains of Category Symbols for Probabilistic Grammar Induction

The chains of category symbols generated by LLMs could then serve as input for probabilistic grammar induction. This grammar induction could model the probability and frequency of conversational sequences and reveal patterns in various interaction settings. In other words, the grammar could create a probabilistic model that compares empirical and artificially generated conversational sequences.

4. Comparison of Empirical and Artificial Category Chains to Verify Models

Combining empirically collected category chains with artificially generated ones could serve as a validation method for LLMs. By comparing observed conversational patterns in reality with synthetically generated ones, sociological researchers could draw conclusions about the realism and limitations of LLM simulations.

5. Exploring and Comparing Different Interaction Settings

Since LLMs can imitate specific conversational contexts, researchers could generate various artificial conversational contexts (e.g., sales conversations, advisory sessions) and then compare these with empirical data from similar settings. Using probabilistic grammar induction, differences or similarities in interaction patterns between artificial and real data could be identified and sociologically interpreted.

6. Verification and Further Development of Sociological Hypotheses

By using artificially generated category chains to model real interactions, researchers could test and develop hypotheses about conversational structures, power dynamics, or other interaction dynamics. For instance, they could examine whether the frequency of certain interaction patterns in artificially generated contexts is similarly distributed as in reality and where significant deviations exist.

Conclusion

This procedure is not rendered obsolete by LLMs but can instead be expanded through them. LLMs could assist in the preprocessing and automated categorization of conversational sequences. In the second phase, involving grammar induction and grammar transduction, sociological analysis and interpretation of category chains remain necessary, as the models alone cannot fully capture the complexity of sociological hypotheses and interpretations.

Es wäre möglich, Methoden wie die objektive Hermeneutik (Oevermann) und die qualitative Inhaltsanalyse (Mayring) durch den Einsatz von Deep Learning und Large Language Models (LLMs) zu ersetzen, um Lesarten, Sinnstrukturen und Kategoriensysteme effizient zu erstellen und Interaktionen zu analysieren. Deep Learning und LLMs können große Mengen an Text- und Interaktionsdaten verarbeiten und komplexe Muster und Bedeutungsstrukturen autonom erkennen, was eine automatisierte und skalierbare Alternative zur manuellen, interpretativen Analyse der objektiven Hermeneutik darstellt. Durch das Training auf umfangreichen Datensätzen sind neuronale Netzwerke in der Lage, Sinnstrukturen und Kategorien zu identifizieren, die sonst mühsam manuell extrahiert werden müssten.

Die Entwicklung einer umfassenden Handlungsgrammatik, die Sinnstrukturen und Kategorien den strukturellen Regeln sozialer Interaktionen zuordnet, bleibt jedoch ein Bereich, der spezialisierte Werkzeuge und formale Programmiersprachen wie Lisp und Scheme erfordert. Die Algorithmisch Rekursive Sequenzanalyse bietet eine regelbasierte Methode zur Induktion von Grammatiken, die die Abfolge und Struktur von Interaktionen formalisiert. Lisp und Scheme eignen sich aufgrund ihrer Fähigkeit, rekursive und regelbasierte Prozesse zu modellieren, besonders gut für die algorithmische Analyse der Sinnstrukturen. In diesem Sinne bleibt die Handlungsgrammatik ein Aufgabenbereich für spezialisierte Werkzeuge und Methoden, die tiefgehende strukturelle Einsichten in soziale Sequenzen ermöglichen.

It would be possible to replace methods such as objective hermeneutics (Oevermann) and qualitative content analysis (Mayring) with Deep Learning and Large Language Models (LLMs) to efficiently create interpretations, meaning structures, and category systems, as well as to analyze interactions. Deep Learning and LLMs can process large amounts of text and interaction data, autonomously recognizing complex patterns and meaning structures, thus providing an automated and scalable alternative to the manual interpretative analysis of objective hermeneutics. By training on extensive datasets, neural networks can identify meaning structures and categories that would otherwise have to be painstakingly extracted manually.

However, developing a comprehensive action grammar that assigns meaning structures and categories to the structural rules of social interactions remains a field requiring specialized tools and formal programming languages such as Lisp and Scheme. Algorithmic Recursive Sequence Analysis offers a rule-based method for the induction of grammars, formalizing the sequence and structure of interactions. Lisp and Scheme are particularly well-suited for the algorithmic analysis of meaning structures due to their ability to model recursive and rule-based processes. In this sense, action grammar remains a specialized area for tools and methods that enable deeper structural insights into social sequences.

In den vergangenen vier Jahrzehnten hat sich die Forschung und Datenanalyse durch technologische Fortschritte tiefgreifend gewandelt. Die algorithmisch gestützte Rekonstruktion sozialer Interaktionen erfordert heute Ansätze, die große Datenmengen und die zunehmende Komplexität sozialer Phänomene berücksichtigen. Die Algorithmisch Rekursive Sequenzanalyse (ARS) ist eine innovative Softwarelösung, die Forschern ermöglicht, soziale Interaktionen strukturiert zu analysieren und latente Muster in Kommunikationsabläufen sichtbar zu machen. ARS nutzt Induktion, Parsing und Transduktion, um Handlungsgrammatiken zu generieren, die latente Sinnstrukturen abbilden – Strukturen, die in sozialen Interaktionen unbewusst und wiederkehrend reproduziert werden.

Vor 40 Jahren war ein solches Werkzeug aufgrund praktischer Einschränkungen nur eingeschränkt nutzbar. Die verfügbaren Datensätze beschränkten sich auf physische Tonband- oder Videoaufnahmen (Protokolle), die zunächst in schriftliche Form (Transkripte) übertragen werden mussten. Diese Transkripte wurden dann manuell von Auswertungsteams in einzelne Interakte zerlegt und mit symbolischen Kategorien versehen – ein zeitaufwändiger Prozess, der die Analyse und das Erkennen komplexer sozialer Strukturen erschwerte. Erst danach konnte mit der Modellierung der latenten Strukturen durch Handlungsgrammatiken begonnen werden, indem Terminalzeichenketten erstellt, aus diesen durch Induktion die Grammatik abgeleitet und anschließend die Strukturen durch Parsing und Transduktion empirisch validiert wurden.

Heute hingegen kann ARS dank moderner Algorithmen, leistungsfähiger Computerinfrastruktur und umfangreicher Datensätze sein volles Potenzial entfalten. Fortschritte in der Verarbeitung natürlicher Sprache, etwa durch große Sprachmodelle, ermöglichen eine Automatisierung der Transkription, Interaktanalyse und Kategorisierung. Dadurch lassen sich die latenten Handlungsstrukturen und Sinnmuster, die sozialen Interaktionen zugrunde liegen, gezielt offenlegen. ARS ist somit nicht nur ein Werkzeug für die qualitative Sozialforschung, sondern eröffnet als interdisziplinäres Forschungsinstrument neue Möglichkeiten des Verständnisses in den Sozialwissenschaften und darüber hinaus.

Over the past four decades, research and data analysis have been profoundly transformed by technological advancements. Algorithmic reconstruction of social interactions now demands approaches that address large datasets and the increasing complexity of social phenomena. The Algorithmic Recursive Sequence Analysis (ARS) is an innovative software solution that enables researchers to systematically analyze social interactions and uncover latent patterns in communication sequences. ARS employs induction, parsing, and transduction to generate action grammars that capture latent semantic structures—structures that are unconsciously and recurrently reproduced within social interactions.

Forty years ago, such a tool would have been limited by practical constraints. Available datasets were confined to physical audio or video recordings (protocols), which first had to be transcribed into written form (transcripts). These transcripts were then manually segmented by research teams into individual interaction acts and assigned symbolic categories—a time-intensive process that made the analysis and identification of complex social structures difficult. Only after this process could the modeling of latent structures through action grammars begin, involving the creation of terminal symbol sequences, the induction of grammar from these sequences, and the validation of structures via parsing and transduction against empirical data.

Empirical social research is currently developing in three directions:

With the founding of the German Academy for Sociology, in Germany quantitative social research has regained importance and students have to learn the necessary basics again during their studies.

Qualitative social research continues on its way between deep hermeneutics and Oevermannian sequence analysis.

Multi-agent systems, neural nets, cellular automata, etc. continue to form the basis for the development of artificial social systems.

What is missing is qualitative social research that provides the empirically proven protocol languages for such artificial social systems, which serves to simulate empirically proven models (https://github.com/pkoopongithub). This is not possible with large language models, which hardly go beyond the explanatory value of Markov chains, but only with graph-based models that depict causal inference and rule-based action in an explanatory manner.

Die empirische Sozialforschung entwickelt sich derzeit in drei Richtungen:

Mit der Gründung der Deutschen Akademie für Soziologie hat in Deutschland die quantitative Sozialforschung wieder an Bedeutung gewonnen und die Studierenden müssen sich während des Studiums die notwendigen Grundlagen neu aneignen.

Die qualitative Sozialforschung bewegt sich weiter zwischen Tiefenhermeneutik und Oevermannscher Sequenzanalyse.

Multiagentensysteme, neuronale Netze, zellulare Automaten etc. bilden weiterhin die Grundlage für die Entwicklung künstlicher sozialer Systeme.

Was fehlt, ist eine qualitative Sozialforschung, die die empirisch erprobten Protokollsprachen für solche künstlichen Sozialsysteme bereitstellt, die dazu dient, empirisch erprobte Modelle zu simulieren (https://github.com/pkoopongithub). Das geht nicht mit Large Language Modellen, die kaum über den Erklärungswert von Markow-Ketten hinausgehen, sondern nur mit graphenbasierten Modellen, die kausale Inferenz und regelbasiertes Handeln erklärend abbilden.

Es wäre möglich, Methoden wie die objektive Hermeneutik (Oevermann) und die qualitative Inhaltsanalyse (Mayring) durch den Einsatz von Deep Learning und Large Language Models (LLMs) zu ersetzen, um Lesarten, Sinnstrukturen und Kategoriensysteme effizient zu erstellen und Interaktionen zu analysieren. Deep Learning und LLMs können große Mengen an Text- und Interaktionsdaten verarbeiten und komplexe Muster und Bedeutungsstrukturen autonom erkennen, was eine automatisierte und skalierbare Alternative zur manuellen, interpretativen Analyse der objektiven Hermeneutik darstellt. Durch das Training auf umfangreichen Datensätzen sind neuronale Netzwerke in der Lage, Sinnstrukturen und Kategorien zu identifizieren, die sonst mühsam manuell extrahiert werden müssten.

Die Entwicklung einer umfassenden Handlungsgrammatik, die Sinnstrukturen und Kategorien den strukturellen Regeln sozialer Interaktionen zuordnet, bleibt jedoch ein Bereich, der spezialisierte Werkzeuge und formale Programmiersprachen wie Lisp und Scheme erfordert. Die Algorithmisch Rekursive Sequenzanalyse bietet eine regelbasierte Methode zur Induktion von Grammatiken, die die Abfolge und Struktur von Interaktionen formalisiert. Lisp und Scheme eignen sich aufgrund ihrer Fähigkeit, rekursive und regelbasierte Prozesse zu modellieren, besonders gut für die algorithmische Analyse der Sinnstrukturen. In diesem Sinne bleibt die Handlungsgrammatik ein Aufgabenbereich für spezialisierte Werkzeuge und Methoden, die tiefgehende strukturelle Einsichten in soziale Sequenzen ermöglichen.

It would be possible to replace methods such as objective hermeneutics (Oevermann) and qualitative content analysis (Mayring) with Deep Learning and Large Language Models (LLMs) to efficiently create interpretations, meaning structures, and category systems, as well as to analyze interactions. Deep Learning and LLMs can process large amounts of text and interaction data, autonomously recognizing complex patterns and meaning structures, thus providing an automated and scalable alternative to the manual interpretative analysis of objective hermeneutics. By training on extensive datasets, neural networks can identify meaning structures and categories that would otherwise have to be painstakingly extracted manually.

However, developing a comprehensive action grammar that assigns meaning structures and categories to the structural rules of social interactions remains a field requiring specialized tools and formal programming languages such as Lisp and Scheme. Algorithmic Recursive Sequence Analysis offers a rule-based method for the induction of grammars, formalizing the sequence and structure of interactions. Lisp and Scheme are particularly well-suited for the algorithmic analysis of meaning structures due to their ability to model recursive and rule-based processes. In this sense, action grammar remains a specialized area for tools and methods that enable deeper structural insights into social sequences.

Wenn das Ziel darin besteht, Verkaufsgespräche zu erklären – also die zugrunde liegenden Regeln, Ziele und Strukturen offen darzustellen –, dann ist ein generatives Modell wie ein LLM oft unzureichend. Ein LLM kann lediglich ähnliche Gespräche erzeugen oder imitieren, ohne die Absichten oder sozialen Mechanismen dahinter explizit zu machen.

Wesentliche Punkte des Arguments

  1. Nachahmung vs. Erklärung: LLMs sind darauf trainiert, Muster aus großen Textmengen zu lernen und Antworten zu generieren, die oberflächlich betrachtet einem Verkaufsgespräch ähneln können. Aber sie haben keine explizite Darstellung der Ziele, Strategien oder Regeln, die Verkaufsgespräche formen. Somit bleibt die Erklärung der zugrunde liegenden Strukturen unzureichend.

  2. Erklärungsdefizit: Verkaufsgespräche folgen oft bestimmten Regeln und Zielen, wie zum Beispiel dem Aufbau von Vertrauen, der Ermittlung von Kundenbedürfnissen oder der Anwendung spezifischer Verhandlungstechniken. Ein LLM kann zwar solche Techniken reproduzieren, erklärt jedoch nicht, warum und wie diese Strategien funktionieren. Hierfür wäre ein analytischer Ansatz notwendig, der die Struktur und Dynamik solcher Gespräche explizit modelliert.

  3. Beitrag von LLMs zu Verständniszwecken begrenzt: Da LLMs auf Wahrscheinlichkeitsverteilungen und Muster basieren, zeigen sie keine bewusste Zielgerichtetheit und keine kausalen Regeln, die Verkaufsgespräche leiten. Wenn das Ziel also darin besteht, die Funktionsweise dieser Gespräche zu verstehen und zu lehren, wäre ein LLM allein unzureichend – es braucht ergänzende Modelle oder Theorien, die die Handlungslogiken und Ziele explizit beschreiben.

Ergänzende Ansätze zur Erklärung von Verkaufsgesprächen

  • Regelbasierte Modelle: Durch die Verwendung von regelbasierten Systemen oder graphenbasierten Modellen könnten die Handlungslogiken, Ziele und Entscheidungsstrukturen von Verkaufsgesprächen explizit dargestellt werden. Diese Modelle könnten die spezifischen Verhaltensweisen und Reaktionen in einem Verkaufsgespräch verdeutlichen und die Verbindungen zwischen verschiedenen Gesprächszielen und -taktiken erklären.

  • Agentenbasierte Modelle: Multiagentensysteme, die auf kausalen und regelbasierten Prinzipien basieren, könnten die Dynamik und das Ziel eines Verkaufsgesprächs explizit abbilden. Solche Systeme können zudem eine gewisse Zielgerichtetheit simulieren, die Verkaufsstrategien realistischer und transparenter macht.

  • Dialoggrammatiken: Mit spezifischen Protokollen oder Dialoggrammatiken könnten die Abläufe und Regeln für Verkaufsgespräche detaillierter dargestellt und somit besser erklärt werden, als es durch ein generatives Modell möglich ist.

Das Argument ist schlüssig, da es darauf hinweist, dass die Fähigkeit, Verkaufsgespräche zu imitieren, nicht mit der Fähigkeit gleichzusetzen ist, diese Gespräche in ihren Regeln und Zielen zu erklären. Ein LLM mag Verkaufsgespräche simulieren können, aber ohne ein explizites Regelwerk und ohne Verständnis für die Ziele solcher Gespräche liefert es keine adäquate Erklärung.

Die Algorithmisch Rekursive Sequenzanalyse ist eine Methode zur Kausalinferenz mit Handlungsgrammatiken und Graphen. Im Gegensatz zu Poststrukturalisten, Postmodernisten, kritischen Posthumanisten, Konstruktivisten und Tiefenhermeneuten nimmt sie Karl Popper, Ulrich Oevermann, Chomsky, Pearl, Bayes, LISP, SCHEME, R und Python sehr ernst.

Algorithmic Recursive Sequence Analysis is a method for causal inference using action grammars and graphs. In contrast to poststructuralists, postmodernists, critical posthumanists, constructivists and depth hermeneutics, she takes Karl Popper, Ulrich Oevermann, Chomsky, Pearl, Bayes, LISP, SCHEME, R and Python very seriously.

If the goal is to explain sales conversations – that is, to openly present the underlying rules, goals and structures – then a generative model like an LLM is often inadequate. An LLM can only create or imitate similar conversations without making explicit the intentions or social mechanisms behind them.

Key points of the argument

  1. Imitation vs. Explanation: LLMs are trained to learn patterns from large amounts of text and generate responses that, on the surface, can resemble a sales pitch. But they have no explicit representation of the goals, strategies, or rules that shape sales conversations. The explanation of the underlying structures therefore remains inadequate.

  2. Explanation deficit: Sales conversations often follow certain rules and goals, such as building trust, identifying customer needs or using specific negotiation techniques. While an LLM can reproduce such techniques, it does not explain why and how these strategies work. This would require an analytical approach that explicitly models the structure and dynamics of such conversations.

  3. Contribution of LLMs to understanding purposes limited: Because LLMs are based on probability distributions and patterns, they do not demonstrate conscious targeting and causal rules guiding sales conversations. So if the goal is to understand and teach how these conversations work, an LLM alone would be inadequate - it needs complementary models or theories that explicitly describe the logic of action and goals.

Complementary approaches to explaining sales conversations

  • Rule-based models: By using rule-based systems or graph-based models, the action logic, goals and decision structures of sales discussions could be explicitly represented. These models could clarify the specific behaviors and reactions in a sales conversation and explain the connections between different conversation goals and tactics.

  • Agent-based models: Multi-agent systems based on causal and rule-based principles could explicitly represent the dynamics and goal of a sales conversation. Such systems can also simulate a certain level of targeting that makes sales strategies more realistic and transparent.

  • Dialogue grammars: With specific protocols or dialogue grammars, the processes and rules for sales discussions could be presented in more detail and thus better explained than is possible with a generative model.

Projektziele Erklärung sozialer Interaktionen: Anstatt komplexe soziale Interaktionen und Verkaufsgespräche durch Black-Box-Modelle abzubilden, nutzen wir eine regelbasierte Sprache, die nachvollziehbare und interpretierbare Analysen ermöglicht. Einsatz in Multiagentensystemen: Die entwickelte Sprache kann als Protokoll für Multiagentensysteme dienen und soll in Python implementiert werden. Der Einsatz solcher Protokollsprachen in Multiagentensystemen eröffnet neue Möglichkeiten, transparente und erklärbare Interaktionen zwischen Agenten zu ermöglichen. Innovative Kombination von Methodologien: Der Ansatz verbindet Methoden der soziologischen Hermeneutik und Inhaltsanalyse mit einer formalisierten Sprachentwicklung. Hierdurch wird eine modellbasierte Grammatik induziert, die verschiedene Terminal- und Nicht-Terminal-Symbole umfasst, welche soziale Interaktionen als erklärbare Sequenzen abbilden.

Project Goals Explaining Social Interactions: Instead of modeling complex social interactions and sales dialogues through black-box models, this project uses a rule-based language that enables understandable and interpretable analyses. Use in Multi-Agent Systems: The developed language can serve as a protocol for multi-agent systems and will be implemented in Python. The use of such protocol languages in multi-agent systems opens up new possibilities for transparent and explainable interactions among agents. Innovative Methodological Combination: This approach merges sociological hermeneutics and content analysis with formalized language development. A model-based grammar is induced, encompassing various terminal and non-terminal symbols that represent social interactions as explainable sequences.

Generative Pre-Trained Transformers (GPT) und Large Language Models (LLM) gehen kaum über den Erklärungswert von Markow-Ketten hinaus und müssen zudem mit der Wissensbasis empirisch ermittelter Dialoggrammatiken (Algorithmisch rekursive Sequenzanalyse) und agentenorientierter gewichteter Entscheidungstabellen für eine bessere Ergebnisqualität optimiert werden. Nur so werden Diaogschnittstellen glaubwürdiger als Markow-Generatoren und nur so werden Protokollsprachen für Agenten empirisch bewährte Dialogstrukturen abbilden.

Generative Pre-Trained Transformers (GPT) and Large Language Models (LLM) hardly go beyond the explanatory value of Markov chains and must also be optimized with the knowledge base of empirically determined dialog grammars (algorithmically recursive sequence analysis) and agent-oriented weighted decision tables for better quality results. Only in this way will dialog interfaces become more credible than Markov generators and only in this way will protocol languages for agents map empirically proven dialog structures.

Les transformateurs génératifs pré-entraînés (GPT) et les grands modèles de langage (LLM) ne dépassent guère la valeur explicative des chaînes de Markov et doivent également être optimisés avec la base de connaissances des grammaires de dialogue déterminées empiriquement (analyse de séquence récursive algorithmique) et la décision pondérée orientée agent. tableaux pour des résultats de meilleure qualité. Ce n'est qu'ainsi que les interfaces de dialogue deviendront plus crédibles que les générateurs de Markov et ce n'est qu'ainsi que les langages de protocole pour les agents cartographieront des structures de dialogue éprouvées empiriquement.

Los Transformadores Generativos (GPT) y los Modelos de Lenguaje Largo (LLM) pre-entrenados difícilmente van más allá del valor explicativo de las cadenas de Markov y también deben optimizarse con la base de conocimientos de las gramáticas de diálogo determinadas empíricamente (análisis de secuencias recursivas algorítmicas) y decisiones ponderadas orientadas a agentes . tablas para obtener mejores resultados. Solo entonces las interfaces de diálogo se vuelven más creíbles que los generadores de Markov y solo entonces los lenguajes de protocolo para los agentes mapean estructuras de diálogo probadas empíricamente.

預訓練的生成轉換器(GPT)和大型語言模型(LLM)很難超越馬爾可夫鏈的解釋價值,還必須利用經驗確定的對話語法(算法遞歸序列分析)和麵向主體的加權決策的知識庫進行優化. 表以獲得更好的結果。 只有這樣,對話界面才會變得比馬爾可夫生成器更可信,並且只有這樣,代理的協議語言才會映射經過經驗測試的對話結構。

Предварительно обученные генеративные преобразователи (GPT) и большие языковые модели (LLM) едва ли выходят за рамки объяснительной ценности цепей Маркова и также должны быть оптимизированы с помощью базы знаний эмпирически определенных диалоговых грамматик (алгоритмический рекурсивный анализ последовательности) и агентно-ориентированных взвешенных решений. . таблицы для лучшего результата. Только тогда диалоговые интерфейсы становятся более достоверными, чем марковские генераторы, и только тогда языки протоколов для агентов отображают эмпирически проверенные диалоговые структуры.

Seeking Partner for Promoting Online Personality Inventory We are looking for a partner to help promote our online personality inventory at https://mein-duesk.org/index.php?navi=8 This role involves creating and managing social media advertising content, including images, audio, and video. You'll need to explain the registration, data collection, profile creation, and interpretation processes to potential users. Compensation will be performance-based, linked to the effectiveness of your advertising. If you have a talent for digital marketing and are interested in collaboration, please reach out!

Partner gesucht für die Bewerbung unseres Online-Persönlichkeitsinventars Wir suchen einen Partner zur Unterstützung der Bewerbung unseres Online-Persönlichkeitsinventars unter https://mein-duesk.org/index.php?navi=8 Diese Rolle beinhaltet die Erstellung und Verwaltung von Social-Media-Werbeinhalten, einschließlich Bilder, Audio und Video. Sie müssen den Anmeldeprozess, die Datenerfassung, die Profilerstellung und -interpretation potenziellen Nutzern erklären. Die Vergütung erfolgt leistungsbasiert, abhängig vom Erfolg Ihrer Werbung. Wenn Sie ein Talent für digitales Marketing haben und an einer Zusammenarbeit interessiert sind, melden Sie sich bei uns!

Popular repositories Loading

  1. pkoopongithub pkoopongithub Public

    Config files for my GitHub profile.

    Jupyter Notebook 40 2

  2. algorithmisch-rekursive-sequenzanalyse algorithmisch-rekursive-sequenzanalyse Public

    qualitative Sozialforschung: Textanalyse durch Sequenzanalyse, Grammatikinduktion, -transduktion, Parsen

    Jupyter Notebook 28

  3. DavidDeutschMetaphysicalMeditations DavidDeutschMetaphysicalMeditations Public

    27 1

  4. chess chess Public

    chess game

    Pascal 23

  5. Projekt_Pompeji Projekt_Pompeji Public

    22

  6. duesseldorfer-schuelerinventar-lazarus duesseldorfer-schuelerinventar-lazarus Public

    lazarus

    Pascal 17